🚀 Bist Du bereit für eine Karriere im Bereich Data? Finde es in nur 60 Sekunden heraus!

KI Diskriminierung: Das solltest Du wissen!

-
4
 Minuten Lesezeit
-
ki diskriminierung

Es wird immer mehr über KI Diskriminierungen gesprochen. In der Tat sind diskriminierende Verzerrungen derzeit die größte Schwachstelle der künstlichen Intelligenz. Erfahre alles, was du über dieses Problem, seine Ursachen sowie Folgen wissen musst, und was Du tun kannst, um dieses ernste Problem zu beheben...

Künstliche Intelligenz und Machine Learning bieten unzählige Möglichkeiten. Leider werden diese Technologien derzeit von einem schwerwiegenden Problem heimgesucht: dem Diskriminierungsbias.

Der Begriff „KI-Bias“ (KI Diskriminierung) bezeichnet eine Situation, in der ein Machine-Learning-System eine bestimmte Gruppe von Menschen diskriminiert. In der Regel spiegelt diese Diskriminierung die Diskriminierungen wider, die in unserer Gesellschaft in Bezug auf Hautfarbe, Geschlecht, Alter oder Nationalität beklagt werden.

Solange dieses Problem nicht gelöst ist, kann die künstliche Intelligenz ihr volles Potenzial nicht entfalten und könnte sich sogar als schädlich und gefährlich für die Gesellschaft erweisen. In diesem Artikel erfährst Du mehr über die Ursachen und Folgen von KI Diskriminierung und wie du sie aus der Welt schaffen kannst…

Was ist KI Diskriminierung?

Im Rahmen des Gender Shades-Projekts haben die Forscher Inioluwa Deborah Raji von der Universität Toronto und Joy Buolamwini vom MIT die Gesichtserkennungstechnologien von Microsoft, IBM und dem chinesischen Unternehmen Face++ getestet.

Dabei stellten sie fest, dass jede dieser Technologien bei Gesichtern mit weißer Hautfarbe besser abschneidet als bei Gesichtern mit dunklerer Hautfarbe. Dies ist nur ein Beispiel von vielen, das auf traurigeden Grad der KI Diskriminierung aufzeigt.

Die beiden Forscher untersuchten auch Systeme zur Klassifizierung nach Geschlecht. Auch hier erwiesen sich alle drei Systeme bei Frauengesichtern als weitaus schlechter als bei Männergesichtern. Eine Frau mit dunkler Haut wird in 34,7 % der Fälle falsch kategorisiert, während die Fehlerquote bei einem Mann mit heller Haut bei 0,8 % liegt.

Ein weiteres Beispiel für KI Diskriminierung ist das Gesichtserkennungssystem „Rekognition“ von Amazon. In einem von der American Civil Liberties Union (ACLU) durchgeführten Experiment verwechselte Rekognition 28 Mitglieder des US-Kongresses mit Verbrecherporträts aus einer Datenbank. Fast 40 % der verwechselten Abgeordneten waren dunkelhäutige Menschen.

Es ist also unbestreitbar, dass Frauen und Menschen mit dunkler Hautfarbe von künstlicher Intelligenz diskriminiert werden. Diese Diskriminierung kann jedoch potenziell dramatische Folgen haben.

Trotz dieser KI Diskriminierung werden Gesichtserkennungssysteme von den Behörden in einer Vielzahl von Ländern routinemäßig eingesetzt, um Verdächtige zu identifizieren.

Es besteht also ein großes Risiko, dass Unschuldige aufgrund einer Verwechslung fälschlicherweise angeklagt werden….

Was sind die Ursachen von KI Diskriminierung ?

Die Ursache für diskriminierende Verzerrungen und KI Diskriminierung ist direkt in den Datensätzen zu suchen, mit denen die KIs trainiert werden.

Wenn man sich zwei der wichtigsten Datenbanken ansieht, die massiv genutzt werden, um Gesichtserkennungssysteme zu füttern, stellt man schnell fest, dass sie überwiegend aus Porträts von hellhäutigen Menschen bestehen: 79,6 % für den IJB-A-Datensatz und 86,2 % für den Adience-Datensatz.

Es gibt zwei Kategorien von KI-Verzerrungen die zu KI Diskriminierung führen:

  • Algorithmische Verzerrungen
  • Gesellschaftliche Verzerrungen.

Im ersten Fall wurde die Künstliche Intelligenz mit verzerrten Daten trainiert. Das ist genau das Problem von Gesichtserkennungssystemen, die mit Daten von IJB-A oder Adience gefüttert werden.

Im zweiten Fall, dem gesellschaftlichen Bias, wird die künstliche Intelligenz durch Vorurteile und Stereotypen verzerrt, die tief im kollektiven Unterbewusstsein verankert sind.

Dieser Faktor ist noch gefürchteter, da es sehr schwer ist, sich von ihnen zu lösen oder sich ihrer überhaupt bewusst zu werden…

In den meisten Situationen werden die Voreingenommenheiten der künstlichen Intelligenz und damit die KI Diskriminierung direkt von den Data Scientists geerbt, die sie erschaffen haben.

Wie bei einem Kind, dessen Sichtweise unbewusst von der Erziehung seiner Eltern geprägt wird, kann die KI die gleichen Diskriminierungen reproduzieren wie ihre Schöpfer.

So spiegeln gesellschaftliche Verzerrungen soziale Intoleranz oder institutionelle Diskriminierung wider, die tief in der Gesellschaft verwurzelt sind.

Die Algorithmen und Daten mögen neutral erscheinen, aber die KI wird sich bei der Nutzung als diskriminierend erweisen.

Es ist sehr schwierig, gesellschaftliche Verzerrungen zu identifizieren und nachzuverfolgen.

Im Jahr 2014 fand eine Studie heraus, dass Google Ads mehr Anzeigen für hochbezahlte Berufe für Männer als für Frauen anbot. Diese Verzerrung spiegelt den Sexismus wider, der in unserer Gesellschaft immer noch zu stark ausgeprägt ist.

Google erlaubt Werbetreibenden lediglich, nur Männer für ihre Anzeigen anzusprechen, aber es sind die Unternehmen, die für diese diskriminierende Ausrichtung der Werbung schuldig sind. Daher ist es schwierig zu bestimmen, wer verantwortlich ist.

Weitere Beispiele für voreingenommene KI-Tools sind das automatisierte Einstellungssystem, das Amazon 2014 entwickelt hat. Diese künstliche Intelligenz sollte unter den Bewerbern für eine zu besetzende Stelle die besten Lebensläufe auswählen.

Leider stellte sich heraus, dass das System Frauen diskriminierte. Der Grund für diese KI Diskriminierung war, dass es mit den historischen Daten von Amazon-Mitarbeitern trainiert worden war: Die große Mehrheit waren weiße Männer.

Wie kann man die KI Diskriminierung und KI Bias bekämpfen?

Verzerrte künstliche Intelligenz kann verheerende Folgen haben, wie z. B. die Verurteilung Unschuldiger oder die Diskriminierung bei der Einstellung.

Daher ist es wichtig, dieses Übel zu bekämpfen und äußerst wachsam zu bleiben.

Der beste Weg, dieses Problem zu bekämpfen, ist, es ins Licht der Öffentlichkeit zu rücken. Zögere nicht, in deinem Umfeld und vor allem in deiner Firma darüber zu sprechen. Verbreite Artikel wie diesen in großem Stil.

Wenn Du künstliche Intelligenz entwickelst, solltest Du Dich selbst in Frage stellen und versuchen, deine eigenen Vorurteile, die manchmal im Unterbewusstsein vergraben sind, aufzuspüren.

Versuche, die Datensätze, mit denen deine KI trainiert wird, so weit wie möglich zu diversifizieren.

Wenn du eine Karriere im Bereich der KI oder der Data Science anstrebst, nimm an unserer Schulung teil, um die ethischen Herausforderungen dieses Fachgebiets zu verstehen.

Die Europäische Union genießt bei der Suche nach ethischer KI einen Vorteil gegenüber China und den USA: Die DSGVO, die den Datenschutz und die ethische Nutzung von Daten sicherstellen soll. Allerdings ist die Künstliche Intelligenz selbst noch nicht ausreichend reguliert. Es ist von entscheidender Bedeutung, dass schnell Standards eingeführt werden.

Es gibt heute Werkzeuge, die geschaffen wurden, um gegen die Verzerrung durch KI vorzugehen. Dazu gehören das What-if Tool von Google und das AI Fairness 360 Open Source Toolkit von IBM, mit denen Machine-Learning-Modelle auf Verzerrungen hin untersucht und inspiziert werden können.

DataScientest News

Melde Dich jetzt für unseren Newsletter an, um unsere Guides, Tutorials und die neuesten Entwicklungen im Bereich Data Science direkt per E-Mail zu erhalten.

Möchtest Du informiert bleiben?

Schreib uns Deine E-Mail-Adresse, damit wir Dir die neuesten Artikel zum Zeitpunkt der Veröffentlichung zusenden können!
icon newsletter

DataNews

Starte Deine Karriere im Bereich Data: Erhalte regelmäßig Insiderwissen und wertvolle Karrieretipps in Deinem Posteingang.