Pour le meilleur ou pour le pire, l’avènement d’une superintelligence autonome pourrait tôt ou tard voir le jour. Les conséquences sur notre civilisation pourraient dépasser l’imagination…
C’est un sujet qui revient régulièrement sur le devant de la scène : avec les progrès des nouveaux modèles d’IA comme GPT-4 Turbo ou Llama 3, serions-nous à l’aube de la révolution de l’AGI ?
L’AGI est définie comme une intelligence qui ne serait spécialisée dans aucune tâche particulière. Le terme décrit des systèmes qui pourraient apprendre par eux-même à accomplir toute tâche que les êtres humains puissent entreprendre, et même la réaliser mieux. Leur intelligence toucherait n’importe quel domaine, sans la nécessité préalable d’une intervention humaine. S’agit-il d’un fantasme ou bien d’une réalité potentielle ?
Pour l’heure, le sujet de l’AGI est pris très au sérieux en haut lieu. OpenAI l’a défini dans sa charte (2018) comme « des systèmes hautement autonomes qui surpassent les humains dans la plupart des travaux de valeur économique — au bénéfice de toute l’humanité ». Toutefois le PDG d’OpenAI, Sam Altman, a plus récemment adouci le concept en évoquant « des systèmes d’IA généralement plus intelligents que les humains », une barre apparemment plus aisée à franchir.
Différence entre AGI et IA
L’AGI est habituellement opposée à l’IA étroite ou spécialisée, qui est conçue pour accomplir des tâches spécifiques ou résoudre des problèmes particuliers. La plupart des IA actuelles sont axées sur un problème spécifique et savent le résoudre souvent mieux que les humains. Le superordinateur Watson d’IBM, les applications telles que ChatGPT ou Midjourney, les systèmes d’évaluation de prêts bancaires, ceux dédiés au diagnostic de maladies, sont des exemples d’IA étroites.
Rappelons qu’une telle IA étroite a battu Gaspy Kasparov aux échecs il y a plus de 20 ans. Oui mais… Elle ne savait pas tondre le gazon, préparer une recette de cuisine ou faire quoi que ce soit d’autre que les humains peuvent faire. Une AGI saurait accomplir toutes ces choses et nous pouvons donc la considérer comme une intelligence artificielle forte.
L'AGI se produira-t-elle de notre vivant ?
Les experts divergent sur la date potentielle de l’avènement de l’AGI. Geoff Hinton, lauréat du prix Turing (le plus haut prix en informatique), veut croire que l’AGI serait à moins de 20 ans d’aujourd’hui et qu’elle ne présenterait pas de menace existentielle.
Le PDG d’Anthropic (Claude), Dario Amodei, a même affirmé que l’arrivée de l’AGI serait l’affaire de quelques années. Le cofondateur de Google DeepMind, Shane Legg, prédit pour sa part qu’il y a 50 % de chances que l’AGI arrive d’ici 2028.
Le futurologue Ray Kurzweil a estimé que les ordinateurs atteindraient des niveaux d’intelligence humaine d’ici 2029 et s’amélioreront à un rythme exponentiel, leur permettant de fonctionner à des niveaux au-delà de la compréhension et du contrôle humains. Ce point de superintelligence est appelé par Kuzrveil la singularité.
Pourtant, Yoshua Bengio, autre lauréat du prix Turing, estime qu’il faudra un nombre indéterminé de décennies pour parvenir à l’AGI. Le cofondateur de Google Brain, Andrew Ng, affirme, pour sa part, que l’industrie est encore « très loin » de réaliser des systèmes suffisamment intelligents qu’on puisse les qualifier d’AGI.
Faut-il craindre l’AGI ?
Si divers experts restent sceptiques quant à la possibilité que l’AGI soit réalisable, certains se demandent avant tout si elle est souhaitable.
Il existe de nombreux débats autour du risque potentiel des AGI. Certains veulent croire que les systèmes AGI seront intrinsèquement dangereux du fait qu’ils soient capables d’inventer leurs propres plans et objectifs. D’autres croient que l’éclosion de de l’AGI sera un processus graduel et itératif et que nous aurons le temps de construire des garde-fous à chaque étape.
S’il est un aspect de l’AGI qui tend à nous inquiéter, c’est celui de leur indépendance potentielle totale. Les systèmes super intelligents du futur pourraient fonctionner en dehors de la supervision d’un opérateur humain, et même œuvrer de concert vers des objectifs qu’ils se seraient fixés eux-mêmes. Si l’AGI est appliquée aux voitures autonomes – qui nécessitent actuellement la présence d’un humain pour gérer la prise de décision dans des situations ambiguës – qui sera jugé responsable si tout ne se passe pas comme prévu ? Cette question et bien d’autres sont dès à présent à l’ordre du jour.
Le cosmologiste Stephen Hawking avait mis en garde contre les dangers de l’AGI dès 2014 dans une interview sur la BBC. « Le développement d’une intelligence artificielle complète pourrait signifier la fin de la race humaine. Elle se développerait de manière autonome et se redessinerait à un rythme de plus en plus rapide. Les humains, limités par une évolution biologique lente, ne pourraient pas la concurrencer et seraient supplantés ».
De façon plus pragmatique, la capacité à effectuer des tâches généralisées implique que l’AGI affectera le marché du travail bien plus que les IA actuelles. Une AGI qui saurait lire une radiographie, prendre en compte l’historique du patient, écrire une recommandation appropriée et l’expliquer aimablement au patient serait en mesure de remplacer nos médecins. Les conséquences potentielles pour notre civilisation sont énormes.
Ajoutons à cela la capacité des AGI à produire de nouvelles AGI et nous entrons dans un royaume imprévisible qui mérite dès à présent notre réflexion intense et potentiellement préventive.