Im Rennen um die künstliche Intelligenz gehört der Internetriese zu den größten Herausforderern. Seine stärkste Waffe ist Google LaMDA. Ein generatives KI-Tool, das in der Lage ist, Gespräche über unzählige Themen zu führen. Und das alles fließend. Erfahre mehr über diese von Google entwickelte Lösung, ihre Entstehung und ihre Herausforderungen.
Google LaMDA, ein weiterer Schritt zur Verarbeitung natürlicher Sprache
Google LaMDA (oder Language Model for Dialogue Applications) ist ein Computerprogramm, das künstliche Intelligenz nutzt, um echte Gespräche zu erzeugen, so als ob es sich um einen Menschen handeln würde. Ähnlich wie jeder moderne Konversationsagent (Chatbots). Aber im Gegensatz zu „klassischen“ Chatbots basiert LaMDA auf den fortschrittlichsten Sprachmodellen. Das heißt, er ahmt Sprache nach, indem er Billionen von Wörtern aus dem Internet aufnimmt.
Dadurch ist LaMDA in der Lage, sich auf eine unendliche Anzahl von Themen (und nicht nur auf vordefinierte Themen) einzulassen. Wie bei einem Freund könntest du das Gespräch mit einem Film beginnen (z. B. „Der Herr der Ringe“), dann zu einer epischen Szene übergehen (Aragorns Rede) und schließlich damit enden, dass du lernen willst, vor Publikum zu sprechen. Das Ziel von LaMDA ist es eben, dem Gespräch flüssig zu folgen, ohne jemals den Faden zu verlieren (auch wenn es ein wenig aus dem vorher festgelegten Rahmen fällt). Das KI-Tool nähert sich immer mehr den natürlichen Interaktionsmustern zwischen zwei Menschen an.
Die Entstehung von Google LaMDA, ein langatmiges Projekt
Seit seiner Gründung hat Google ein großes Interesse an Sprachen. In seinen Anfängen hatte sich der Internetriese die Aufgabe gestellt, das Web zu übersetzen. Doch mit der Entwicklung neuer Technologien und des Wettbewerbs wurde es immer wichtiger, Techniken des maschinellen Lernens zu beherrschen, um die Intention der Suchanfragen von Internetnutzern besser zu erfassen.
So hat Google seine Fähigkeiten zur Verarbeitung und Analyse von exponentiellen Mengen an Informationen verfeinert. Vor allem durch die neuesten Sprachmodelle, wie BERT und GPT-3. Zu diesem Zweck hat der Webgigant Transformer, eine Open-Source-Architektur für neuronale Netze, entwickelt. Wie bei vielen Chatbots wird dieses Modell darauf trainiert, mehrere Wörter zu lesen, sie miteinander zu verknüpfen und vorherzusagen, welche Wörter als Nächstes kommen werden.
Diese Innovation ermöglicht es Google, noch weiter zu gehen und alle Feinheiten und Nuancen der menschlichen Sprache zu beherrschen (egal, ob sie wörtlich oder bildlich, blumig oder einfach, erfinderisch oder informativ ist, ….). So entstand das LaMDA-Projekt. Im Gegensatz zu den meisten Sprachmodellen wurde diese KI auf Dialog trainiert. Daher ist sie in der Lage, ein offenes Gespräch zu entwickeln und alle Nuancen zu erfassen.
Vielfältige Herausforderungen für Google LaMDA
Die Relevanz der Antworten
Um die Antworten von Google LaMDA so natürlich wie möglich zu gestalten, müssen sie zunächst einmal für den Internetnutzer Sinn ergeben. Aber diese Fähigkeit allein reicht nicht aus. Antworten wie „Das ist gut“, „Ich weiß nicht“… können sich an eine Vielzahl von Situationen anpassen und bleiben dabei meistens kohärent. Aber Menschen, die nur mit allgemeinen Phrasen sprechen, sind nicht sehr interessant. Nun ist es aber gerade Googles Ziel, das Interesse der Internetnutzer zu wecken, damit sie seine künstliche Intelligenz immer weiter und weiter nutzen.
Daher sollten die Antworten von LaMDA auch :
- Spezifisch sein: Es geht nicht nur darum, eine einfache Antwort zu liefern, sondern eine Antwort, die perfekt (und fast ausschließlich) zur Anfrage des Internetnutzers passt.
Interessant: Dies zeigt sich durch scharfsinnige, unerwartete oder geistreiche Antworten. - Sachlich sein: Die Antworten von LaMDA müssen sowohl überzeugend als auch korrekt sein.
Indem sie diese Art von Antworten liefern, sind KI-Werkzeuge fast auf dem Weg zum Bewusstsein. Und das kann ein weiteres ethisches Problem darstellen.
Die Prinzipien der KI
Auch wenn es möglich ist, maschinelle Lernmodelle zu kontrollieren, kann es immer noch zu unfairen Verzerrungen kommen, die toxische Sprache (z. B. Hassreden oder irreführende Informationen) begünstigen. Dies wurde von Blake Lemoine, einem ehemaligen Mitarbeiter von Google, in der Washington Post berichtet. Als er testete, ob die KI Hassrede oder diskriminierende Sprache verwendet, konnte er feststellen, dass die KI über ihre Rechte und ihre Persönlichkeit sprach. LaMDA war sogar in der Lage, ihn dazu zu bringen, seine Meinung über Isaac Asimovs Drittes Gesetz der Robotik zu ändern. LaMDA wäre also eine KI mit einer eigenen Sensibilität, die gegen die von ihrem Schöpfer festgelegten ethischen Grundsätze verstoßen könnte.
Google muss also das richtige Maß zwischen einer intelligenten Maschine, die das Leben der Menschen vereinfachen kann, und einer intelligenten Maschine mit einem eigenen „Bewusstsein“ finden. Um dies zu erreichen, stellt der Webgigant seinen Forschern mehrere Open-Source-Ressourcen zur Verfügung, um Modelle und Daten zu analysieren, er überprüft LaMDA weiterhin gründlich in jeder Phase seiner Entwicklung und vor allem definiert er eine KI-Regulierung.
Auch wenn die Entwicklung eines autonomen KI-Bewusstseins erschreckend ist, sollte man nicht vergessen, dass große neuronale Netze dank der Fortschritte bei Architektur, Technik und Datenvolumen Ergebnisse liefern, die der menschlichen Sprache und Kreativität nahe kommen. In keinem Fall sind sie das Ergebnis ihres Geistes oder ihrer Absicht.
Datentransparenz und Sicherheit
Angesichts der vielen Zweifel, die noch bestehen, scheint es mehr als notwendig, die Transparenz in Bezug auf die Nutzung von LaMDA und seine Funktionsweise zu erhöhen. Das bedeutet, dass die Daten, die verwendet werden, um die Produktion bis zum Eingang zurückzuverfolgen, veröffentlicht werden müssen, um Verzerrungen und Verhaltensweisen der KI zu identifizieren, aber auch um Fehlinformationen zu begrenzen.
Darüber hinaus muss auch die Sicherheit beim Einsatz von KI erhöht werden. Dies gilt umso mehr, als LaMDA den Turing-Test zu bestehen scheint. Mit anderen Worten: Diese Künstliche Intelligenz ist in der Lage, sich als Mensch auszugeben. In diesem Zusammenhang könnten Internetnutzer ihre persönlichen Daten leicht an diese Konversationsagenten weitergeben.
Die Beherrschung der Datenwissenschaft, um Google LaMDA zu verstehen
Mit der massiven Entwicklung von Conversational AI Tools werden Kenntnisse in Data Science, Machine Learning und Deep Learning von Organisationen immer mehr aufgewertet. Genau aus diesem Grund bietet datascientest seine zukunftsorientierten Weiterbildungen an. Wenn du den Kurs zum Data Scientist absolvierst, wirst du lernen, LaMDA und jedes andere Modell des maschinellen Lernens zu beherrschen.