Intelligence artificielle et discrimination : Tout savoir sur ces sujets

-
4
 m de lecture
-
discrimination intelligence artificielle

Les biais discriminatoires sont le principal point faible de l'intelligence artificielle à l'heure actuelle. Découvrez tout ce que vous devez savoir sur ce fléau, ses causes et ses conséquences, et les pistes à suivre pour remédier à ce grave problème...

L’intelligence artificielle et le Machine Learning offrent d’innombrables possibilités. Malheureusement, à l’heure actuelle, ces technologies sont gangrénées pas un grave problème : les biais discriminatoires.

Le terme « biais de l’IA » désigne une situation dans laquelle un système de Machine Learning discrimine un groupe de personnes en particulier. En règle générale, cette discrimination reflète celles que l’on déplore dans notre société à l’égard des couleurs de peaux, du genre, de l’âge ou de la nationalité.

Tant que ce problème ne sera pas résolu, l’intelligence artificielle ne pourra révéler tout son potentiel et risque même de s’avérer néfaste et dangereuse pour la société. À travers ce dossier, découvrez les causes et les conséquences des biais de l’IA et les solutions pour les faire disparaître…

Qu'est-ce que les biais de l'IA ?

Dans le cadre du projet Gender Shades, les chercheurs Inioluwa Deborah Raji de l’Université de Toronto et Joy Buolamwini du MIT ont testé les technologies de reconnaissance faciale de Microsoft, IBM, et de l’entreprise chinoise Face++.

À travers ce passage en revue, ils se sont aperçus que chacune de ces technologies se révélait plus performante sur des visages à peau blanche que sur des visages à la peau plus sombre. Il s’agit-là d’un simple exemple parmi tant d’autres, tristement révélateur de ce mal qui corrompt l’IA.

Les deux chercheurs ont aussi examiné des systèmes de classification par genre. Là encore, les trois systèmes se sont avérés bien moins performants sur les visages de femmes que sur les visages d’hommes. Une femme à la peau foncée sera mal catégorisée dans 34,7% des cas, alors que le taux d’erreur est de 0,8% pour un homme à la peau claire.

Un autre exemple d’IA biaisée est celui du système de reconnaissance faciale  » Rekognition  » d’Amazon. Lors d’une expérience menée par l’American Civil Liberties Union (ACLU), Rekognition a confondu 28 membres du Congrès américain avec des portraits de criminels issus d’une base de données. Près de 40% des membres confondus étaient des personnes de couleurs.

Il est donc indéniable que les femmes et les personnes à la peau sombre sont discriminées par l’intelligence artificielle. Or, cette discrimination peut avoir des conséquences potentiellement dramatiques.

Malgré ces biais discriminatoires, les systèmes de reconnaissance faciale sont couramment utilisés par les autorités dans un grand nombre de pays pour identifier des suspects. Il existe donc un risque important que des innocents soient inculpés à tort à cause d’une confusion…

Quelles sont les causes des biais de l'IA ?

La cause des biais discriminatoires est à chercher directement dans les ensembles de données sur lesquels les IA sont entraînées. En inspectant deux des principaux « datasets » massivement utilisés pour nourrir les systèmes de reconnaissance faciale, on constate très rapidement qu’ils sont majoritairement composés de portraits de personnes à la peau claire : 79,6% pour l’ensemble de données IJB-A, et 86,2% pour Adience.

On distingue deux catégories de biais de l’IA : les biais algorithmiques, et les biais sociétaux. Dans le premier cas, l’intelligence artificielle a été entraînée sur des données biaisées. C’est précisément le problème des systèmes de reconnaissance faciale nourris aux données d’IJB-A ou Adience.

Dans le deuxième cas, celui des biais sociétaux, l’intelligence artificielle est biaisée par des préjugés et des stéréotypes profondément ancrés dans l’inconscient collectif. Ce facteur est encore plus redoutable, car il est très difficile de s’en défaire ou même d’en prendre conscience…

Dans la grande majorité des situations, les biais de l’intelligence artificielle sont directement hérités des Data Scientists qui la créent. À l’instar d’un enfant dans la vision sera inconsciemment influencée par l’éducation prodiguée par ses parents, l’IA peut reproduire les mêmes discriminations que ses créateurs.

Ainsi, les biais sociétaux reflètent une intolérance sociale ou une discrimination institutionnelle profondément enracinée dans les mœurs. Les algorithmes et les données pourront sembler neutres, mais l’IA se révélera discriminatoire à l’usage.

Il est très difficile d’identifier et de tracer les biais sociétaux. En 2014, une étude avait révélé que Google Ads proposait davantage de pubs pour des métiers hautement rémunérés aux hommes qu’aux femmes. Ce biais reflète un sexisme encore trop présent dans nos sociétés.

Google se contente d’autoriser les publicitaires à cibler uniquement des hommes pour leurs annonces, mais ce sont les entreprises qui sont coupables de ce ciblage publicitaire discriminatoire. Il est donc difficile de déterminer qui est responsable.

Parmi les autres exemples d’outils d’IA biaisés, on peut citer le système de recrutement automatisé développé par Amazon en 2014. Cette intelligence artificielle était censée sélectionner les meilleurs CV parmi les candidats à un poste à pourvoir.

Malheureusement, le système s’est révélé discriminatoire à l’égard des femmes. Pour cause, il avait été entraîné sur les données historiques des employés d’Amazon : en grande majorité des hommes blancs.

Comment lutter contre le fléau des biais de l'IA ?

L’intelligence artificielle biaisée peut avoir des conséquences désastreuses comme la condamnation d’innocents ou la discrimination à l’embauche. Il est donc essentiel de combattre ce fléau et de rester extrêmement vigilant.

La meilleure façon de lutter contre ce problème est de le mettre en lumière. À votre échelle, n’hésitez pas à en parler autour de vous et notamment au sein de votre entreprise. Partagez massivement des articles comme celui-ci.

Par ailleurs, si vous êtes amené à développer une intelligence artificielle, remettez-vous en question et tentez de traquer vos propres préjugés parfois enfouis dans l’inconscient. Tâchez de diversifier autant que possible les ensembles de données sur lesquels votre IA est entraînée.

Si vous comptez vous lancer dans une carrière dans le domaine de l’IA ou de la Data Science, suivez notre formation afin de saisir les enjeux éthiques de cette discipline.

L’Union européenne profite d’un avantage dans la quête d’une IA éthique par rapport à la Chine et aux États-Unis : le RGPD, qui vise à garantir la confidentialité et l’utilisation éthique des données. Cependant, l’intelligence artificielle en elle-même n’est pas encore suffisamment règlementée. Il est essentiel que des standards soient mis en place rapidement.

Il existe aujourd’hui des outils créés pour lutter contre les biais de l’IA. On peut citer le What-if Tool de Google et l’AI Fairness 360 Open Source Toolkit d’IBM, permettant d’examiner et d’inspecter les modèles de Machine Learning pour détecter les biais.

Vous savez tout sur les biais de l’intelligence artificielle. Pour en savoir plus à ce sujet, découvrez les propositions de l’UE pour une IA éthique et l’importance de la parité dans l’intelligence artificielle.

Facebook
Twitter
LinkedIn

DataScientest News

Inscrivez-vous à notre Newsletter pour recevoir nos guides, tutoriels, et les dernières actualités data directement dans votre boîte mail.

Vous souhaitez être alerté des nouveaux contenus en data science et intelligence artificielle ?

Laissez-nous votre e-mail, pour que nous puissions vous envoyer vos nouveaux articles au moment de leur publication !

Newsletter icone
icon newsletter

DataNews

Vous souhaitez recevoir notre
newsletter Data hebdomadaire ?