IA éthique : vers une technologie responsable et équitable

-
3
 m de lecture
-

Les dérives de l’intelligence artificielle ne sont plus à démontrer. Contraindre l’IA à suivre des principes éthiques est donc devenu une préoccupation à grande échelle. Pourtant, comment s’assurer que les géants de la high-tech, engagés dans une lutte frénétique, auront le souci d’intégrer ces mesures limitatives dans leurs créations ?

Vous l’avez sans doute lu ici ou là. Elon Musk reproche à ChatGPT d’être trop « politiquement correct ». De fait, loin d’être neutre, l’IA de OpenAI se veut moraliste et en défense de certains principes. Elle rechigne à répondre à des questions impliquant des intentions malhonnêtes et ne manque pas une occasion pour rappeler à l’ordre celui qui, par ses questions, traduirait des tendances antidémocratiques ou racistes. Faut-il se réjouir ou non de ce que ChatGPT procède ainsi ? La question entre dans le cadre d’un vaste sujet : l’éthique de l’intelligence artificielle, ou du moins la nécessité de l’influencer en ce sens.

Le débat n’est pas vain car la puissance des machines ne cesse de croître, autorisant des prédictions de plus en plus fines. D’ores et déjà, l’IA est meilleure que les humains dans de nombreux diagnostics médicaux ou dans l’analyse juridique. Et le catalogue de ses prouesses ne cesse de s’étendre.

Les dérives de certaines IA

Les risques liés à l’IA ne sont pas nouveaux et il est aisé de les énoncer.

Les biais sociétaux

Par la force des choses, la matière de l’IA, ce sont des données, et cela induit deux points :

  • Ces données peuvent inclure des biais issus de l’analyse automatique des informations, indépendamment de toute inclination particulière. L’IA va alors reproduire les biais en question ;
  • Elles peuvent inclure nos données personnelles et donc renforcer certains biais que nous entretenons nous mêmes, au lieu de favoriser un recul.

De fait, à maintes reprises, des IA se sont retrouvées à manifester des biais manifestes. Des recherches menées par les universités de Washington et de Carnegie Mellon, mais aussi en Chine par celle de Xi’an Jiaotong ont noté que certaines IA génératives manifestaient des biais sociaux, sexistes ou autres.

ProPublica, pour sa part, a indiqué qu’un outil d’IA utilisé par les tribunaux outre-Atlantique en vue d’évaluer le potentiel de récidive de criminels avait prédit deux fois plus de faux positifs pour les prévenus noirs (45 %) que pour les blancs (23 %). De même, il a été découvert qu’un algorithme d’une IA de Google refusait par principe les CVs de femmes pour des postes de chercheurs.

Les dangers inhérents aux deepfake

Autre souci : l’IA peut générer des deepfakes ultra crédibles. Dès 2017, des actrices telles que Emma Watson, Scarlett Johansson ou des chanteuses telles que Taylor Swift et Kary Perry ont eu à déplorer l’apparition de vidéos sulfureuses où elles apparaissent à leur insu. Et des deepfakes ont été utilisés à des fins politiques pour tenter de ternir la réputation du futur président américain ou leur faire endosser des positions qu’ils n’avaient jamais exprimées.

Des choix cornéliens

Dans le cas d’un véhicule autonome, on peut imaginer des situations dantesques. L’automobile pourrait se retrouver dans une situation où elle doit prendre la décision la moins pire sachant qu’il y aura des dégâts à l’arrivée. Doit-elle choisir de protéger ses passagers au risque de mettre en péril l’existence de très jeunes enfants traversant la rue ? La réponse est tout sauf aisée.

Une IA éthique, qu’est-ce que c’est ?

Face à de tels risques, la nécessité d’imposer une éthique aux IA est apparue. Elle se situe dans le droit fil des trois lois de la robotique énoncées par l’écrivain Isaac Asimov dans le cadre de sa série de nouvelles et romans, et ayant pour philosophie que le robot doit toujours protéger et servir son créateur humain, quitte à se sacrifier pour le sauver. L’IA fait actuellement l’objet de pareilles réflexions et prises de positions.

Une IA éthique respecterait à la fois l’humain et la planète. L’UNESCO, qui a mené maintes réflexions sur le sujet, a énoncé la nécessité de respecter un certain nombre de valeurs jugées fondamentales dans nos cultures :

  • Respect des droits de l’Homme fondamentaux et de la dignité humaine ;
  • Favoriser la vie dans des sociétés en paix ;
  • Prôner la diversité et exclure les préjugés de genre ;
  • Respecter l’environnement et le climat.

L’Union Européenne, pour sa part, a voté l’IA Act, et celui entre en vigueur en mai 2024. Il comporte maintes clauses restrictives :

  • Limitation de la reconnaissance faciale ;
  • Interdiction de pratiquer une notation des citoyens ;
  • Obligation d’indiquer explicitement si une image a été produite par une IA générative ;
  • Etc.

Ces divers travaux visent à encadrer une technologie en rapide développement et à poser des garde-fous, avant qu’il ne soit trop tard. Il reste que les géants de la tech sont embarqués dans une lutte féroce pour assurer leur position dans ce nouveau territoire. Peut-on réellement espérer qu’ils prennent le temps de réfléchir aux conséquences à long terme des intelligences artificielles ?

Facebook
Twitter
LinkedIn

DataScientest News

Inscrivez-vous à notre Newsletter pour recevoir nos guides, tutoriels, et les dernières actualités data directement dans votre boîte mail.

Vous souhaitez être alerté des nouveaux contenus en data science et intelligence artificielle ?

Laissez-nous votre e-mail, pour que nous puissions vous envoyer vos nouveaux articles au moment de leur publication !

Newsletter icone
icon newsletter

DataNews

Vous souhaitez recevoir notre
newsletter Data hebdomadaire ?