Du hast Fragen? Wir haben Antworten! - Bald findet unser nächster Tag der offenen Tür statt!

Logo site

Ethische KI: Auf dem Weg zu verantwortungsbewusster und fairer Technologie

-
3
 Minuten Lesezeit
-

Die Mängel der künstlichen Intelligenz sind mittlerweile unbestreitbar. Deshalb ist es von dringender Wichtigkeit geworden, KI an ethische Prinzipien zu binden. Doch wie kann gewährleistet werden, dass die High-Tech-Giganten, die sich in einem erbitterten Wettbewerb befinden, sich darum bemühen, diese restriktiven Maßnahmen in ihre Entwicklungen zu implementieren?

Vielleicht haben Sie es bereits hier oder an anderer Stelle gelesen. Elon Musk kritisiert ChatGPT dafür, zu „politisch korrekt“ zu sein. Tatsächlich ist die KI von OpenAI nicht neutral und vermittelt eine moralisierende Perspektive sowie bestimmte Prinzipien. Sie lehnt es ab, Fragen mit unaufrichtigen Intentionen zu beantworten und ergreift jede Gelegenheit, jene zu korrigieren, die durch ihre Fragen antidemokratische oder rassistische Tendenzen offenbaren. Ist es begrüßenswert, dass ChatGPT auf diese Weise agiert? Diese Frage ist Teil eines viel größeren Themas: der Ethik der künstlichen Intelligenz oder zumindest der Dringlichkeit, sie in diese Richtung zu lenken.

Die Diskussion ist keineswegs irrelevant, da die Macht der Maschinen weiter zunimmt und immer präzisere Vorhersagen ermöglicht. Bereits heute übertrifft KI in vielen Bereichen der medizinischen Diagnostik oder juristischen Analyse den Menschen. Und die Liste ihrer Erfolge erweitert sich ständig.

Die Verfehlungen einzelner KI-Systeme

Die mit KI verbundenen Risiken sind nicht neu, und über sie zu sprechen, ist einfach.

Gesellschaftliche Verzerrungen

Aufgrund der Daten, die als Grundlage für KI dienen, ergeben sich zwei Punkte:

  • Die Daten können Verzerrungen enthalten, die aus der automatischen Analyse der Informationen entstehen, unabhängig von einer speziellen Neigung. Die KI würde dann diese Verzerrungen reproduzieren; 
  • Sie können unsere persönlichen Daten umfassen und somit bestimmte Vorurteile, die wir selber haben, verstärken, statt einen Rückzug zu fördern.

In der Tat haben verschiedene KI-Systeme oftmals signifikante Verzerrungen aufgezeigt. Untersuchungen der Universitäten Washington und Carnegie Mellon, aber auch in China an der Xi’an Jiaotong Universität haben ergeben, dass manche generative KI-Systeme gesellschaftliche, sexistische oder weitere Verzerrungen aufwiesen.

ProPublica berichtete andererseits, dass ein von Gerichten in den USA verwendetes KI-Tool zur Einschätzung des Rückfallrisikos von Straftätern für schwarze Angeklagte (45 %) doppelt so viele falsch positive Fälle prognostizierte wie für weiße Angeklagte (23 %). Gleichzeitig wurde entdeckt, dass ein Algorithmus einer KI von Google grundsätzlich Lebensläufe von Frauen für Forschungspositionen ausschloss.

Die inhärenten Risiken von Deepfakes

Ein weiteres Problem: KI kann überaus glaubwürdige Deepfakes erzeugen. Bereits im Jahr 2017 mussten Schauspielerinnen wie Emma Watson, Scarlett Johansson oder Sängerinnen wie Taylor Swift und Katy Perry das Auftauchen von skandalösen Videos beklagen, in denen sie ohne ihr Wissen dargestellt wurden. Und Deepfakes wurden für politische Zwecke genutzt, um den Ruf der zukünftigen amerikanischen Präsidenten zu schädigen oder ihnen Meinungen zuzuschreiben, die sie nie geäußert hatten.

Kornelsche Entscheidungen

Im Fall eines autonomen Fahrzeugs können sich kritische Situationen ergeben. Das Fahrzeug könnte in eine Lage geraten, in der es die am wenigsten schlechte Entscheidung treffen muss, wissend, dass dabei Schaden entstehen wird. Sollte es sich dafür entscheiden, seine Insassen zu schützen, auf das Risiko hin, die Existenz sehr junger Kinder, die die Straße überqueren, zu gefährden? Die Antwort ist alles andere als einfach.

Was ist eine ethische KI?

Angesichts solcher Risiken wurde die Notwendigkeit deutlich, KI ethische Richtlinien vorzugeben. Dies steht in direkter Linie mit den drei Gesetzen der Robotik, die vom Schriftsteller Isaac Asimov in seiner Serie von Kurzgeschichten und Romanen definiert wurden. Die Philosophie dahinter besagt, dass ein Roboter seinen menschlichen Schöpfer immer schützen und ihm dienen sollte, selbst wenn das bedeutet, sich selbst zu opfern, um ihn zu retten. KI unterliegt derzeit ähnlichen Überlegungen und Ausrichtungen.

Eine ethische KI würde sowohl den Menschen als auch den Planeten respektieren. Die UNESCO, die viele Überlegungen zu diesem Thema angestellt hat, betonte die Notwendigkeit, eine Reihe von Werten zu respektieren, die in unseren Kulturen grundlegend betrachtet werden:

  • Respektierung der grundlegenden Menschenrechte und der Menschenwürde;
  • Förderung des Lebens in friedlicheren Gesellschaften;
  • Eintreten für Diversität und Ausschluss von Geschlechtsvorurteilen;
  • Respekt für die Umwelt und das Klima.

Die Europäische Union ihrerseits hat den AI Act verabschiedet, der im Mai 2024 in Kraft tritt. Er enthält viele restriktive Klauseln:

  • Einschränkung der Gesichtserkennung;
  • Verbot der Beurteilung von Bürgern;
  • Die Verpflichtung, explizit anzugeben, ob ein Bild von einer generativen KI erstellt wurde;
  • usw.

Diese verschiedenen Bestrebungen zielen darauf ab, eine rasch fortschreitende Technologie zu regulieren und Sicherheitsmaßnahchen zu implementieren, bevor es zu spät ist. Doch die Tech-Giganten befinden sich in einem heftigen Kampf um ihre Positionierung in diesem neuen Feld. Kann realistischerweise erwartet werden, dass sie sich die Zeit nehmen, über die langfristigen Folgen künstlicher Intelligenzen nachzudenken?

DataScientest News

Melde Dich jetzt für unseren Newsletter an, um unsere Guides, Tutorials und die neuesten Entwicklungen im Bereich Data Science direkt per E-Mail zu erhalten.

Möchtest Du informiert bleiben?

Schreib uns Deine E-Mail-Adresse, damit wir Dir die neuesten Artikel zum Zeitpunkt der Veröffentlichung zusenden können!
icon newsletter

DataNews

Starte Deine Karriere im Bereich Data: Erhalte regelmäßig Insiderwissen und wertvolle Karrieretipps in Deinem Posteingang.