Colloque du Sénat : l’avenir de l’intelligence artificielle en France

-
4
 m de lecture
-

L'IA révolutionne notre société à une vitesse incroyable, elle rebat les cartes de la croissance et de la puissance : c'est un nouveau monde qui s'ouvre, avec ses opportunités, mais également ses risques... Alerté par ce bouleversement majeur, le groupe du Sénat, Les Républicains, a organisé, ce jeudi 7 décembre, un colloque au Sénat appelant les Français à s'interroger sur l’enjeu de l’IA.

“L’extrême philie crée l’extrême phobie”, constate Bruno Retailleau, président du parti Les Républicains

“Plus que la révolution industrielle, l’arrivée de l’intelligence artificielle est un changement brusque dans notre société”. C’est l’ouverture qu’a choisie Bruno Retailleau pour s’emparer de ce sujet devenu aujourd’hui incontournable. Le domaine de l’IA avance à grands pas, le président du groupe Les Républicains parle de 125 milliards de dollars de capital risque en 2022 qui pourraient atteindre 1 800 milliards en 2030, à condition de ne pas étouffer l’oiseau dans l’œuf. On parle alors de “discours de raison”, de prendre du recul pour “ne pas tomber dans la décroissance”, trouver “un équilibre éthique entre progrès et régulation”.

“L’IA vise à rendre la vie de l’Homme plus simple”, affirme Joëlle Barral, directrice de la recherche en IA chez Google Deepmind

En invitée de marque, Les Républicains ont accueilli le géant du moteur de recherche, et peut-être bientôt de l’intelligence artificielle. Venant d’annoncer le 6 décembre Gemini, l’IA censée concurrencer ChatGPT, Joëlle Barral définit la vision de l’intelligence artificielle selon Google : “Un système qui permet aux machines d’apprendre à partir d’exemples concrets”. Une technologie “plus révolutionnaire que la révolution industrielle et numérique”, qui, selon les mots du PDG de Google, Sundar Pichai, est “trop importante pour être régulée”. Face à la froideur de cette dernière annonce, Joëlle Barral tente de rassurer son public en précisant que “jamais l’IA ne remplacera l’humain, elle lui facilitera la vie”.

Une tentative reprise par Edouard Fillias, fondateur de l’agence Jin. Au travers de différents exemples de l’utilisation de l’IA, Monsieur Fillias appuie sur l’envie des entreprises de “former leurs collaborateurs à l’IA”. Mais qu’il s’agisse de simple application comme le site de commande en ligne de Carrefour ou de l’IA HeyGen, “tout le monde à peur que l’IA pousse des amendements comme un charcutier pousse des saucisses”, s’amuse Bruno Retailleau.

“Une révolution en cours dans tous les milieux”, annonce Christine Lavarde, sénatrice Les Républicains

En fin de matinée, Christine Lavarde, présidente de la délégation sénatoriale à la prospective, évoque les transformations opérées par l’IA dans les domaines de la défense, de la santé et de l’éducation et ce qu’elles amènent. Pour répondre à chacune de ces interrogations, la sénatrice a confié la parole à 3 experts dans chaque domaine. 

Antoine Bordes, vice-président de Helsing, parle d’un futur proche, très proche, à seulement quelques milliers de kilomètres de nos frontières en Ukraine. Selon lui, “il y a de la technologie IA dans les drones kamikazes russes”. Plus globalement, l’IA doit être vue comme une aide à la décision “l’enjeu sera de faire le tri pour avoir la capacité de décider rapidement”

Autre domaine, celui de la santé, Jean-Emmanuel Bibault, cancérologue à l’hôpital Georges Pompidou raconte les exploits de l’IA en médecine “l’IA a la capacité de prédire 10 ans en avance s’il y a un risque de cancer de la prostate chez un patient”. A cette technologie renversante vient s’ajouter, selon le spécialiste, “un côté vertigineux, voire anxiogène, d’avoir autant d’avance”, mais également “la possibilité de prévenir ce risque”. Cependant, l’IA connaît des limites, dans le cadre dermatologique “l’IA est très mauvaise pour détecter les peaux noires !” En cause, le manque de données ou d’images de peaux noires dans les bases de données. Une preuve que l’IA a encore du chemin à faire.

Dans le domaine de l’éducation, l’IA aide les élèves comme un assistant personnel, mais est-ce pour autant la fin des professeurs ? “Il y a eu un changement radical en quelques mois dans le système éducatif et pour les enseignants” confirme depuis New York Jérôme Pesenti, fondateur de Sizzle AI, “les élèves utilisent constamment ChatGPT, on ne peut plus débattre, il faut s’adapter”. A noter qu’en juin, juillet et août 2023, ChatGPT a perdu un tiers de son volume d’utilisateurs, la preuve que les élèves et étudiants sont une cible majeure de l’IA conversationnelle. 

Jérôme Pesenti avoue que l’utilisation de ChatGPT à l’école pose problème, “notamment pour la triche” c’est pourquoi il veut pousser les entreprises et les gouvernements à aller vers “une IA personnalisée qui engage et pousse les élèves à mobiliser leurs compétences”.

“Mais quand est-il de l’éthique dans tout ça ?”, alerte Etienne Klein, philosophe des sciences et directeur du Larsim

En ce début d’après-midi, la première table ronde aborde le sujet épineux de l’éthique et de l’intelligence artificielle. À traversce thème, le philosophe revient sur l’idée “d’enregistrer la voix d’une personne décédée, est-ce que ça aide à faire son travail de deuil ? Est-ce bien ou pas ?” Pour lui, nous avons dépassé l’âge où la technique est vectrice de connaissances scientifiques. “Plus un objet technique est complexe, moins il est nécessaire de connaître comment il fonctionne. L’IA nous éloigne de la science.”

Mais dans ce vortex d’interrogation, il est aussi question d’éthique écologique. L’intelligence artificielle consomme énormément, c’est un fait, “pas mal de gens pensent que l’IA, telle qu’elle consomme, n’est pas durable du tout”.

“Il faut réglementer sans pour autant tuer le progrès”, témoigne François-Xavier Bellamy, chef de file des eurodéputés LR

À la suitede l’éthique vient la question de la réglementation, faut-il réglementer l’intelligence artificielle et à quel point ? Pour en parler, François-Xavier Bellamy nous présente comme “des auxiliaires de nos machines”, “le capital sera le contrôle de l’attention” et notre pouvoir sera “de garder la maîtrise de notre attention”. Professeur de professeur de philosophie à l’origine, il s’inquiète “des dangers de l’IA pour notre démocratie”, “des deepfakes”, “de la création de faux sites d’infos” qui contribuent à “une bulle de convictions”

Alors oui, il faut la réglementer, affirme-t-il en évoquant l’IA Act, mais “il faut une réglementation, à condition de ne pas détruire la possibilité d’innover”. Selon lui, “le RGPD est aujourd’hui un problème majeur pour faire grandir les algorithmes” car il limite l’accès aux données.

William Eldin, au côté de François-Xavier Bellamy, cofondateur de l’entreprise XXII, avance “une autorégulation des entreprises”. Un avis que François-Xavier Bellamy préfère émettre comme “un juste milieu”, “ne pas brider l’innovation, par un excès de contrainte” le tout est d’éviter “un farwest de l’intelligence artificielle”.

Facebook
Twitter
LinkedIn

DataScientest News

Inscrivez-vous à notre Newsletter pour recevoir nos guides, tutoriels, et les dernières actualités data directement dans votre boîte mail.
Poursuivre la lecture

Vous souhaitez être alerté des nouveaux contenus en data science et intelligence artificielle ?

Laissez-nous votre e-mail, pour que nous puissions vous envoyer vos nouveaux articles au moment de leur publication !

Newsletter icone
icon newsletter

DataNews

Vous souhaitez recevoir notre
newsletter Data hebdomadaire ?