Eine der großen Herausforderungen des maschinellen Lernens ist es, Systeme zu produzieren, die ihre Entscheidungen und Handlungen gegenüber menschlichen Nutzern erklären können. So ist die Erklärbarkeit von Künstlichen Intelligenzen ( XAI ) zu einer der Herausforderungen des Machine Learning geworden und gehört mittlerweile zum Berufsbild von Data Scientists, die die Nutzer davon überzeugen müssen, dass die Argumentation ihrer Modelle akzeptabel ist.
Was ist die Erklärbarkeit eines Modells?
XAI oder „eXplainable Artificial Intelligence“ bezeichnet eine Reihe von Prozessen und Methoden, mit denen jedes von einer künstlichen Intelligenz berechnete Ergebnis auf einfache und verständliche Weise erklärt werden kann. Es ist ein Bereich des Machine Learning, der darauf abzielt, ein von einem Modell vorgegebenes Ergebnis so genau wie möglich zu begründen.
Tatsächlich hilft diese KI jedem, der kein technischer Spezialist oder Data Scientist ist, zu verstehen, warum ein Algorithmus solche Ergebnisse geliefert hat.
Zum Beispiel, wenn du ein Machine-Learning-Modell (ML) mit Finanzdaten trainiert hast, um einen Investor bei der Wahl eines Investitionssektors zu beraten. Mit erklärbarer KI bist du dann in der Lage zu erklären, warum eine Option statt einer anderen ausgewählt wurde und warum die empfohlenen Anlagemöglichkeiten am besten zu seiner Situation passen.
Warum Explainable AI ?
Erklärbare KI ist sowohl für Entwickler und Data Scientists als auch für Nutzer aus mehreren guten Gründen von entscheidender Bedeutung:
- Entwicklern soll es ermöglicht werden, Modelle zu aktualisieren und zu verbessern sowie ihre Effektivität zu messen.
- Seit der Einführung der DSGVO ist es Pflicht, alle Ergebnisse (Punktzahlen, Segmentierungen usw.), die sich auf Einzelpersonen beziehen, erklären zu können. Mit XAI ist dies nun möglich.
- Konkretere Ergebnisse liefern, indem sie wertvolle Informationen über die wichtigsten Kennzahlen eines Unternehmens liefern.
Das „Warum“ zu verstehen, wird eine bessere Nutzung der Ergebnisse ermöglichen, um seine Rede vorzubereiten und anzupassen. Bei einem Telefonanbieter muss ein Berater z. B. eine Person, die möglicherweise kündigt, weil sie ein billigeres Angebot sucht, anders ansprechen als einen Kunden, der umziehen will. - Wenn du die Gedankengänge der Algorithmen verstehst, werden die Endnutzer erkennen, dass sie auf logischen Prinzipien basieren.
Methoden, um eine XAI zu implementieren
Es gibt verschiedene Methoden, um Transparenz und Verständnis in Künstliche Intelligenzen zu bringen. Die wichtigsten Ansätze sind die folgenden.
Layer-wise Relevance Propagation (LRP) :
Hierbei handelt es sich um eine Technologie, die es ermöglicht, die Besonderheiten der Eingabevektoren zu definieren.
Sie ist auf Modelle für neuronale Netze anwendbar, bei denen die Eingaben Bilder, Videos oder Text sein können.
Counterfactual Method :
Eine kontrafaktische Erklärung beschreibt eine kausale Situation in der Form: „Wenn X nicht eingetreten wäre, wäre Y nicht eingetreten“.
Diese Technologie bezieht sich auf die Art und Weise, wie man Dateneingaben verändert, nachdem man ein Ergebnis erzielt hat. Anschließend wird beobachtet, inwieweit das Ergebnis verändert wurde.
Local Interpretable Model-Agnostic Explanations (LIME) :
LIME ist eine Methode, die auf einem globalistischen Ansatz basiert und darauf abzielt, jeden mechanischen Klassifikator und die daraus resultierenden Prognosen zu erklären. Es ist eine der sogenannten lokalen Methoden in dem Sinne, dass sie Erklärungen für die Wahl des Modells für jeden einzelnen Wert und nicht global für einen ganzen Datensatz liefert. Mit einer solchen Methode können auch Nicht-Spezialisten auf die Daten und Methoden zugreifen.
Rationalisation :
Dies ist eine Methode, die speziell bei KI-basierten Robotern wie ChatGPT eingesetzt wird. In diesem Rahmen wird der Maschine Autonomie verliehen, die es ihr ermöglicht, ihre Handlungen zu erklären.
Fazit
Der transparente Charakter der erklärbaren KI hat viele Vorteile für die Entscheidungsfindung. Tatsächlich hilft XAI dabei, die komplexen Ergebnisse zu interpretieren, die von Machine-Learning-Modellen produziert werden. Außerdem ermöglicht sie es Entwicklern, die Modelle zu aktualisieren und zu verbessern. Darüber hinaus hat sie den Vorteil, dass die Daten gut nachvollziehbar sind.