Seit jeher haben künstliche Intelligenzen Antworten halluziniert, um kreativ zu sein und Geschichten zu erfinden. Doch angesichts der Beliebtheit von generativen künstlichen Intelligenzen als Informationsquelle suchen Experten nach Möglichkeiten, diese Halluzinationen zu reduzieren oder sogar zu stoppen.
Was ist das Problem mit Halluzinationen?
Künstliche Intelligenzen hatten schon immer die Tendenz, Antworten zu „halluzinieren“.
Diese sind so codiert, dass sie eine Antwort erfinden, anstatt zu sagen „Ich weiß es nicht“. Seitdem sie der breiten Öffentlichkeit zugänglich gemacht wurden, werden sie jedoch von vielen Menschen täglich genutzt, um schnell und auf einfache Weise an Informationen zu gelangen. Da sie heute in komplexen Bereichen wie der Medizin oder dem Recht eingesetzt werden, ist das Problem der Halluzinationen kritisch geworden.
Verschiedenen Forschungszentren zufolge liegt der Ursprung der Halluzinationen in der Gestaltung der LLM-Modelle. Sie sind darauf trainiert, riesige Datenbanken zu verarbeiten und anzuhäufen, können aber nicht unterscheiden, was faktisch ist und was nicht. Ihre Hauptaufgabe besteht darin, vorherzusagen, welches Wort nach dem anderen kommt.
Wie kann man diese Halluzination stoppen?
Um diese Gewohnheit einzudämmen, wurden bereits zahlreiche Experimente durchgeführt.
Das jüngste betrifft Forscher des MIT, die versucht haben, eine „Gesellschaft der Geister“ unter KIs zu schaffen. Das Ziel bestand darin, mehreren KIs eine Frage zu stellen und sie so lange diskutieren zu lassen, bis sich eine einzige Antwort durchsetzt
Andere Unternehmen wie Google und Microsoft versuchen ihrerseits, diese generativen KIs „intelligenter“ zu machen.
Eine Technik namens Verstärkungslernen mit menschlichem Feedback, bei der menschliche Tester die Antworten eines Bots manuell verbessern und sie dann zur Verbesserung an das System zurückgeben, ist weithin anerkannt und hat ChatGPT dazu verholfen, viel besser zu sein als die Chatbots, die vor ihm kamen.
Ein beliebter Ansatz ist auch, Chatbots mit Datenbanken mit faktischen oder vertrauenswürdigeren Informationen zu verbinden, wie z. B. Wikipedia, Google search oder maßgeschneiderte Sammlungen von akademischen Artikeln oder Geschäftsdokumenten.
Eine andere Möglichkeit wäre, die KIs weniger kreativ zu machen, wie es derzeit von großen Unternehmen praktiziert wird.
Wenn Google mithilfe seiner Chatbot-Technologie Suchergebnisse generiert, führt es parallel dazu auch eine normale Suche durch und vergleicht dann, ob die Antwort des Bots und die Ergebnisse der traditionellen Suche übereinstimmen. Wenn das nicht der Fall ist, wird die KI-Antwort gar nicht erst angezeigt. Das Unternehmen hat seinen Bot so verändert, dass er weniger kreativ ist, d. h. er ist nicht besonders gut darin, Gedichte zu schreiben oder interessante Gespräche zu führen, aber er ist weniger anfällig für Lügen.
Indem das Unternehmen seinen Suchroboter darauf beschränkte, bestehende Suchergebnisse zu bestätigen, konnte es die Anzahl der Halluzinationen und Ungenauigkeiten reduzieren.
Doch Halluzinationen sind auch gut für KIs, denn sie ermöglichen es ihnen, kreativ zu sein und sich Geschichten oder Szenarien auszudenken. Sind wir an einem Wendepunkt der generativen KI angelangt, oder entstehen Unterarten der generativen KI?
Einige würden sich auf das Erstellen von Geschichten oder Drehbüchern spezialisieren und die anderen würden als Such- und Informationswerkzeug dienen. Wenn dir dieser Artikel gefallen hat und du eine Karriere in der Data Science in Betracht ziehst, zögere nicht, unsere Artikel oder unsere Ausbildungsangebote auf DataScientest zu entdecken.
Quelle: washingtonpost.com