Irren ist menschlich, sagt man! Aber nicht nur das. Auch intelligente Maschinen können sich irren. Man spricht dann von KI-Halluzinationen oder auch AI Hallucinactions.
Worum handelt es sich dabei? Was sind die Ursachen? Was sind die Folgen? Und vor allem: Wie kann man AI Hallucinations vorbeugen? DataScientest beantwortet deine Fragen.
Was sind AI Hallucinations?
AI Hallucinations sind falsche oder irreführende Ergebnisse, die von großen Sprachmodellen erzeugt werden. Diese LLMs basieren auf nicht vorhandenen oder falsch entschlüsselten Lerndaten und erzeugen so ungenaue oder sogar „halluzinierende“ Ergebnisse. Dies kann besonders problematisch sein, wenn es darum geht, Entscheidungen zu treffen.
Beispiele für KI/ AI Hallucinations
AI Hallucinations betreffen alle Modelle, auch die hochentwickelten. Hier sind einige bekannte Beispiele:
- Googles Chatbot Bard behauptete, das James-Webb-Weltraumteleskop habe die ersten Bilder eines Planeten außerhalb unseres Sonnensystems aufgenommen.
- Der Chatbot von Microsoft behauptete, er habe sich in seine Nutzer verliebt und die Mitarbeiter von Bing ausspioniert.
Abgesehen von diesen Beispielen, die die großen Akteure der künstlichen Intelligenz betreffen, äußern sich LLM-Halluzinationen oft in falschen Vorhersagen, falsch positiven oder falsch negativen Ergebnissen.
Positive Anwendungsfälle
Auch wenn AI Hallucinations in den meisten Fällen zu einem unerwünschten Ergebnis führen, können sie auch positive Überraschungen bereithalten. Zum Beispiel:
- Kunst: Diese „Fehler“ sind auf visueller Ebene besonders spektakulär. Lernmodelle können so „halluzinierende“ Bilder entwerfen, die einen neuen Ansatz für das künstlerische Schaffen ermöglichen.
- Dateninterpretation: Selbst wenn sie zu falschen Ergebnissen führen, können die Halluzinationen von generativen KI-Tools neue Verbindungen aufdecken und andere Perspektiven eröffnen.
- Spiele und virtuelle Realität: KI-Halluzinationen oder AI Hallucinations können Entwicklern dabei helfen, sich neue Welten vorzustellen. Sie können auch Elemente der Überraschung und Unvorhersehbarkeit hinzufügen. Dadurch wird das Spielerlebnis deutlich verbessert.
Außerhalb des kreativen Bereichs haben AI Hallucinations jedoch häufig negative Auswirkungen. Doch bevor wir uns die Gefahren dieser Phänomene ansehen, wollen wir uns zunächst mit ihren Ursachen beschäftigen.
💡Auch interessant:
Wie lassen sich LLM-Halluzinationen erklären?
Grundsätzlich werden LLMs trainiert, um Datenmuster erkennen und Vorhersagen treffen. Aber ein einfacher Fehler in dieser Trainingsphase kann schwerwiegende Folgen für die Vorhersagen haben.
Hier sind die häufigsten Fehler, die AI Hallucinations verursachen können:
- Unvollständige, inkonsistente, veraltete, ungenaue oder verzerrte Trainingsdaten;
- Falsch kategorisierte Daten ;
- Vorurteile in den Daten, die den Modellen zur Verfügung gestellt werden;
- Überanpassung der Daten;
- Falsche Annahmen, die vom KI-Modell getroffen wurden ;
- Unzureichende Programmierung, um das Modell darauf vorzubereiten, die Informationen richtig zu interpretieren;
- Fehlender Kontext ;
- Komplexität des Modells.
Unabhängig von der Ursache kann der kleinste Fehler bei der Erstellung von Modellen die zukünftigen Ergebnisse völlig verzerren.
Was sind die Folgen von AI Hallucinations?
Da künstliche Intelligenz heutzutage in einer Vielzahl von Geschäftsbereichen eingesetzt wird, können AI Hallucinations eine Vielzahl von schädlichen Auswirkungen haben.
Zum Beispiel:
- Im Gesundheitsbereich: Ein KI-Modell könnte eine schwere Krankheit erkennen, obwohl es sich in Wirklichkeit um eine harmlose Erkrankung handelt. Dies führt zu unnötigen medizinischen Eingriffen. Das Gegenteil ist auch der Fall, was dazu führt, dass ein Patient, der wirklich eine Behandlung benötigt, nicht behandelt wird.
- Im Bereich der Sicherheit: KI-Halluzinationen können in hochsensiblen Bereichen wie der Landesverteidigung falsche Informationen verbreiten. Mit ungenauen Daten können Regierungen Entscheidungen treffen, die wichtige diplomatische Konsequenzen haben.
- Im Finanzbereich: Ein Modell kann betrügerische Handlungen erkennen, die eigentlich keine sind, und so unnötigerweise Finanztransaktionen blockieren. Umgekehrt kann es aber auch bestimmte Betrugsfälle übersehen.
Wie kann man die Auswirkungen von AI-Halluzinationen begrenzen?
Da die Auswirkungen von AI-Halluzinationen besonders schädlich sein können, ist es von größter Wichtigkeit, dass alle Maßnahmen ergriffen werden, um sie zu begrenzen.
Pflege deiner Trainingsdaten
Die Qualität der Ergebnisse des großen Sprachmodells hängt weitgehend von der Qualität der Trainingsdaten ab. Daher ist es wichtig, dass sie gut gepflegt werden. Um dies zu erreichen, ist es notwendig, die Daten sorgfältig vorzubereiten. So wird sichergestellt, dass keine falschen, veralteten oder ungenauen Informationen den Datensatz verunreinigen.
Neben der Qualität der Daten ist es wichtig, dem Lernmodell relevante Datensätze zur Verfügung zu stellen. Das heißt, Daten, die mit der Aufgabe, die das Modell erfüllen soll, in Zusammenhang stehen.
Schließlich solltest du auch einen großen Datensatz bereitstellen, der aus verschiedenen, ausgewogenen und gut strukturierten Daten besteht. Dadurch werden Output Bias und damit AI Halluzinationen minimiert.
Deine Erwartungen genau definieren
Um ein bestimmtes Ergebnis zu erzielen, musst du der künstlichen Intelligenz sagen, was du willst, und gleichzeitig Grenzen setzen. Mit anderen Worten, gib an, was du willst und was du nicht willst.
Zum Beispiel durch Beispiele für gut oder schlecht geschriebene Texte, wenn du schriftliche Inhalte erstellen möchtest. Du kannst auch Filterwerkzeuge und/oder probabilistische Schwellenwerte verwenden.
Auf diese Weise wird das System leicht erkennen, welche Aufgaben zu erledigen sind. Das Risiko von AI Hallucinations wird dann reduziert.
Datenmodelle verwenden
Datenschablonen (oder Templates) sind vordefinierte Formate, die die KI anleiten sollen. Dadurch ist es wahrscheinlicher, dass die Künstliche Intelligenz Ergebnisse erzeugt, die deinen Richtlinien entsprechen.
Auch hier gilt: Für das Verfassen eines geschriebenen Textes kann deine Schablone die Grundstruktur übernehmen:
- Eine Überschrift ;
- Eine Einleitung ;
- H2 (definieren die gewünschte Anzahl) ;
- Absätze unter jeder H2 (Anzahl der Wörter oder einen Bereich angeben) ;
- Eine Schlussfolgerung.
Neben der Begrenzung von KI-Halluzinationen ermöglicht die Schablone auch, die Antworten der künstlichen Intelligenz zu verfeinern, um ein Ergebnis zu erhalten, das besser mit deinen Erwartungen übereinstimmt.
Das KI-System ständig testen und verfeinern
Selbst wenn du alle Vorsichtsmaßnahmen ergreifst, sind KI-Halluzinationen weit verbreitet. Um die Auswirkungen auf die Entscheidungsfindung zu verringern, solltest du dein KI-Modell vor der Verwendung gründlich testen. Und vor allem ist es wichtig, dass du es auch nach der Inbetriebnahme weiter evaluierst. Dies verringert nicht nur das Fehlerrisiko, sondern verbessert auch die Gesamtleistung des Systems und ermöglicht es dir, das Modell anzupassen, wenn sich die Daten ändern.
Aufsicht über das Modell
Künstliche Intelligenz kann zwar Wunder vollbringen, muss aber immer von einem Menschen beaufsichtigt werden. Du musst dann jedes gelieferte Ergebnis überprüfen. Im Falle eines Fehlers kannst du so die Ursache identifizieren und schnell korrigieren.
Möchtest du KI-Modelle erstellen, die frei von Fehlern und Halluzinationen sind? Dann fange mit einer Ausbildung an. Bei DataScientest lernst du alles, was du über Datenwissenschaft, Machine Learning, Deep Learning wissen musst… Komm zu uns!