intelligence artificielle définition

Qu’est-ce que l’intelligence artificielle ? Définition, histoire et applications

Bastien L

Bastien L

8 min

L’intelligence artificielle va changer le monde, mais elle reste pourtant incomprise par de nombreuses personnes. À travers ce dossier, découvrez tout ce que vous devez savoir sur l’IA : définition, fonctionnement, histoire, différentes catégories, cas d’usage et applications…

L’intelligence artificielle est une technologie si vaste et révolutionnaire qu’il est difficile d’en donner une définition précise. On peut considérer qu’il s’agit d’une branche du domaine informatique, ayant pour but la création de machines capables d’effectuer des tâches nécessitant traditionnellement une intelligence humaine.

L’IA est toutefois une science interdisciplinaire aux approches multiples. Aujourd’hui, le Machine Learning (apprentissage automatique) et le Deep Learning (apprentissage profond) sont deux techniques utilisées dans les entreprises de toutes les industries.

Qu'est-ce que l'intelligence artificielle ?

En 1950, le mathématicien Alan Turing se posait une question : les machines peuvent-elles penser ?. En réalité, cette simple interrogation allait bouleverser le monde.

L’article ” Computing Machinery and Intelligence ” rédigé par Alan Turing, et le ” Turing Test ” ou ” test de Turing “ qui en découla posa les fondations de l’intelligence artificielle, de sa vision et de ses objectifs.

En effet, l’intelligence artificielle a pour but de répondre à la question d’Alan Turing de manière affirmative. Son objectif est de répliquer ou de simuler l’intelligence humaine dans les machines.

C’est un but ambitieux, qui soulève aussi de nombreuses questions et suscite le débat. C’est la raison pour laquelle il n’existe pas encore de définition unique de l’intelligence artificielle.

La description de ” machines intelligentes ” ne permet pas d’expliquer ce qu’est véritablement l’intelligence artificielle ou ce qui rend une machine intelligente. Pour tenter de remédier à ce problème, Stuart Russel et Peter Norvig ont publié le livre ” Artificial Intelligence : A Modern Approach “.

Dans cet ouvrage, les deux experts unifient leurs travaux sur le thème des agents intelligences dans les machines. Selon eux, ” l’IA est l’étude des agents recevant des perceptions de l’environnement et effectuant des actions “.

À leurs yeux, quatre approches distinctes ont historiquement défini le domaine de l’intelligence artificielle : la pensée humaine, la pensée rationnelle, l’action humaine et l’action rationnelle.

Les deux premières approches sont liées au raisonnement et au traitement des pensées, tandis que les deux autres ont trait au comportement. Dans leur livre, Norvig et Russell se focalisent principalement sur les agents rationnels capables d’agir pour atteindre le meilleur résultat.

De son côté, Patrick Winston, professeur en intelligence artificielle au MIT, définit l’IA comme ” des algorithmes activés par contraintes, exposé par des représentations soutenant des modèles liant la pensée, la perception et l’action “.

Une autre définition moderne décrit l’IA comme ” des machines qui réagissent à des simulations à la manière des humains, avec une capacité pour la contemplation, le jugement et l’intention “. Ces systèmes sont capables de ” prendre des décisions nécessitant normalement un niveau humain d’expertise “. Ils ont trois qualités, constituant l’essence de l’intelligence artificielle : l’intentionnalité, l’intelligence et l’adaptabilité.

Ces différentes définitions peuvent sembler abstraites et complexes. Elles permettent toutefois d’établir l’intelligence artificielle comme une science informatique.

En 2017, lors de la Japan AI Experience, le CEO de DataRobot, Jeremy Achin, donnait sa propre définition moderne et non dénuée d’humour de l’IA : ” l’intelligence artificielle est un système informatique capable d’effectuer des tâches nécessitant d’ordinaire une intelligence humaine… beaucoup de ces systèmes IA reposent sur le Machine Learning, certains sur le Deep Learning et certains par des choses très ennuyeuses telles que des règles “.

IA spécialisée vs IA générale

Il existe deux principales catégories d’intelligence artificielle. L’intelligence artificielle de type ” narrow “ (étroite) aussi appelée ” weak ” (faible) ne peut opérer que dans un contexte restreint. Elle est souvent focalisée sur l’exécution d’une tâche unique, qu’elle est capable d’effectuer à la perfection.

Cependant, même si une telle machine peut sembler intelligente, elle est bien plus limitée que l’intelligence humaine. Il ne s’agit que d’une imitation de cette dernière.

En guise d’exemples, on peut citer le moteur de recherche web de Google, les logiciels de reconnaissance d’image, les assistants virtuels comme Apple Siri ou Amazon Alexa, les véhicules autonomes, ou encore les logiciels comme IBM Watson.

En revanche, la seconde catégorie est l’intelligence artificielle ” générale “. Une telle IA s’apparente à celles que l’on retrouve dans les films et livres de science-fiction.

Il s’agit d’une machine dotée d’une intelligence artificielle générale, comparable à celle de l’être humain et capable de résoudre n’importe quel type de problème. Un algorithme universel, capable d’apprendre est d’agir dans n’importe quel environnement.

Toutefois, en réalité, ce type d’IA n’existe pas encore. Aucune technologie n’est suffisamment avancée à ce jour pour rivaliser avec le cerveau humain.

Ainsi, la création d’une IA générale reste pour le moment le ” Saint Graal “ des chercheurs en IA. C’est une quête ambitieuse, mais semée d’embûches. Malgré les avancées techniques, il reste très difficile de concevoir une machine dotée de capacités cognitives complètes.

Machine Learning et Deep Learning

Le Machine Learning (apprentissage automatique) et le Deep Learning (apprentissage profond) sont les deux principales techniques d’intelligence artificielle utilisées à l’heure actuelle. La distinction entre IA, ML et DL peut prêter à confusion.

En réalité, l’intelligence artificielle peut être définie comme un ensemble d’algorithmes et de techniques visant à imiter l’intelligence humaine. Le Machine Learning est une catégorie d’IA, et le Deep learning et une technique de Machine Learning.

Le Machine Learning consiste à nourrir un ordinateur de données. La machine utilise des techniques d’analyse sur ces données pour ” apprendre ” à effectuer une tâche.

Pour y parvenir, elle n’a pas besoin d’être spécifiquement programmée à l’aide de millions de lignes de code. C’est la raison pour laquelle on parle d’un apprentissage ” automatique “.

Le Machine Learning peut être ” supervisé ” ou ” non-supervisé “. L’apprentissage supervisé repose sur des ensembles de données étiquetés, tandis que l’apprentissage non-supervisé s’effectue à l’aide d’ensembles de données non étiquetés.

Le Deep Learning est un type de Machine Learning s’inspirant directement de l’architecture des neurones du cerveau humain. Un réseau de neurones artificiel est composé de multiples couches, à travers lesquelles les données sont traitées. C’est ce qui permet à la machine ” d’approfondir ” son apprentissage en identifiant des connexions et en altérant les données ingérées pour atteindre les meilleurs résultats.

Applications et cas d'usage de l'intelligence artificielle

L’intelligence artificielle a plusieurs buts, parmi lesquels l’apprentissage, le raisonnement et la perception. Elle est utilisée dans toutes les industries, à tel point que les applications sont infinies et impossibles à énumérer de façon exhaustive.

Dans le domaine de la santé, elle est utilisée pour développer des traitements personnalisés, découvrir de nouveaux médicaments, ou encore pour analyser les imageries médicales telles que les rayons X et les IRM. Des assistants virtuels peuvent aussi venir en aide aux patients et leur rappeler de prendre leurs pilules ou de faire du sport pour rester en forme.

Le secteur du commerce de détail utilise l’IA pour proposer des recommandations et des publicités personnalisées aux clients. Elle permet aussi d’optimiser la disposition des produits ou de mieux gérer les inventaires.

Dans les usines, l’intelligence artificielle analyse les données des équipements IoT pour prédire la charge et la demande grâce au Deep Learning. Elle permet aussi d’anticiper un éventuel dysfonctionnement pour intervenir de manière précoce.

Les banques, quant à elles, exploitent l’IA à des fins de prévention et de détection de fraude. La technologie permet aussi de vérifier si un client pourra payer le crédit qu’il demande, et d’automatiser les tâches de gestion de données.

Il ne s’agit que de quelques exemples d’industries utilisant l’intelligence artificielle. Vous l’aurez compris, cette technologie révolutionnaire sera amenée à bouleverser tous les secteurs d’activité dans les années à venir…

L'histoire de l'intelligence artificielle

L’histoire de l’intelligence artificielle débute en 1943, avec la publication de l’article “A Logical Calculus of Ideas Immanent in Nervous Activity.” par Warren McCullough et Walter Pitts. Dans ce document, les scientifiques présentent le premier modèle mathématique pour la création d’un réseau de neurones.

Le premier ordinateur à réseau de neurones, Snarc, sera créé en 1950 par deux étudiants de Harvard : Marvin Minsky et Dean Edmonds. La même année, Alan Turing publie le Turing Test qui sert encore aujourd’hui à évaluer les IA.

En 1952, Arthur Samuel crée un logiciel capable d’apprendre à jouer aux échecs de manière autonome. Le terme d’intelligence artificielle, quant à lui, sera prononcé pour la première fois durant la conférence “Dartmouth Summer Research Project on Artificial Intelligence.” de John McCarthy en 1956.

Lors de cet événement, les chercheurs présentent les objectifs et la vision de l’IA. Beaucoup considèrent cette conférence comme la véritable naissance de l’intelligence artificielle telle qu’elle est connue aujourd’hui.

En 1959, Arthur Samuel invente le terme de Machine Learning en travaillant chez IBM. De leur côté, John McCarthy et Marvin Minsky fondent le MIT Artificiel Intelligence Project. En 1963, John McCarthy crée aussi le ” AI Lab ” de l’université de Stanford.

Au cours des années suivantes, le doute jettera un froid sur le domaine de l’IA. En 1966, le rapport américain ALPAC souligne le manque de progrès dans la recherche en traduction automatique visant à traduire le langage russe instantanément dans un contexte de guerre froide. De nombreux projets financés par le gouvernement des États-Unis seront annulés.

De même, en 1973, le gouvernement britannique publie son rapport ” Lighthill ” mettant en lumière les déceptions de la recherche en IA. Là encore, des coupes budgétaires viennent entailler les projets de recherche. Cette période de doute s’étendra jusqu’en 1980, et est aujourd’hui qualifiée de ” premier hiver de l’IA “.

Cet hiver prendra fin avec la création de R1 (XCON) par Digital Equipment Corporations. Ce système expert commercial est conçu pour configurer des ordres pour nouveaux systèmes informatiques, et provoque un véritable boom des investissements qui se poursuivra pendant plus d’une décennie.

Le Japon et les États-Unis investissent massivement dans la recherche en IA. Les entreprises dépensent plus d’un milliard de dollars par an dans les systèmes experts et l’industrie se développe.

Malheureusement, le marché des machines ” Lisp ” s’effondre en 1987 face à l’apparition d’alternatives moins onéreuses. C’est le ” deuxième hiver de l’IA “. Les entreprises perdent leur intérêt pour les systèmes experts. Les gouvernements américains et japonais abandonnent leurs projets de recherche, et des milliards de dollars ont été dépensés pour rien.

Dix ans plus tard, en 1997, l’histoire de l’IA est marquée par un événement majeur. L’IA Deep Blue d’IBM triomphe du champion du monde d’échecs Gary Kasparov. Pour la première fois, l’Homme est vaincu par la machine.

Dix ans plus tard, les avancées technologiques permettent un renouveau de l’intelligence artificielle. En 2008, Google réalise de formidables progrès dans le domaine de la reconnaissance de discours et lance cette fonctionnalité dans ses applications pour smartphones.

En 2012, Andrew Ng nourrit un réseau de neurones à l’aide de 10 millions de vidéos YouTube en guise d’ensemble de données d’entraînement. Grâce au Deep Learning, ce réseau de neurones apprend à reconnaître un chat sans qu’on lui ait appris ce qu’est un chat. C’est le début d’une ère nouvelle pour le Deep Learning.

Nouvelle victoire de l’IA sur l’Homme en 2016, avec la victoire du système AlphaGo de Google DeepMind sur Lee Sedol, le champion de jeu de Go. L’intelligence artificielle conquiert aussi le domaine du jeu vidéo, avec notamment DeepMind AlphaStar sur Starcraft ou OpenAI Five sur Dota 2.

Le Deep Learning et le Machine Learning sont désormais utilisés par les entreprises de toutes les industries, pour une multitude d’applications. L’IA ne cesse de progresser et surprendre par ses performances. Le rêve d’une intelligence artificielle générale se rapproche de plus en plus de la réalité…

Les dangers de l'intelligence artificielle

L’intelligence artificielle offre de nombreuses promesses pour l’humanité… mais elle pourrait aussi représenter une menace plus dangereuse que la bombe nucléaire.

De par sa capacité à apprendre et à évoluer de manière autonome, l’IA pourrait un jour surpasser l’intelligence humaine. Elle pourrait alors décider de se retourner contre ses créateurs.

Ce sombre présage peut sembler tiré tout droit d’un film de science-fiction, mais il s’agit pourtant d’une possibilité bien réelle. D’éminents experts ont déjà tiré la sonnette d’alarme concernant l’intelligence artificielle, à la manière de Stephen Hawking, Elon Musk ou encore Bill Gates.

Selon eux, l’IA représente un risque imminent et inévitable pour les années à venir. C’est la raison pour laquelle ils appellent les gouvernements à règlementer ce domaine afin qu’il se développe de façon éthique et sécurisée. Plus d’une centaine d’experts ont aussi appelé les Nations Unies à bannir les ” robots tueurs “ et autres armes militaires autonomes.

Toutefois, d’autres spécialistes estiment que le futur de l’intelligence artificielle dépend uniquement de la façon dont les humains choisissent de l’utiliser. Même une IA en apparence inoffensive pourrait être détournée et usée de façon malveillante. On peut déjà le constater avec l’essor des ” DeepFakes “ : de fausses vidéos créées grâce au Deep Learning pour mettre en scène une personne dans une situation compromettante.

L’intelligence artificielle va continuer à se développer à vive allure au fil des prochaines années. Il incombe à l’humanité de choisir quelle direction prendra ce développement…

Vous savez tout sur l’intelligence artificielle. Découvrez à présent notre dossier complet sur la Data Science, et penchez-vous plus en détail sur le Machine Learning

Actualité data

DataScientist : Recrutement VS Formation

Pour la 5ème année consécutive, le métier de Data Scientist a été désigné comme le meilleur emploi aux USA par Glassdoor c’est aussi le métier qui connaît la croissance la plus rapide.

Lire plus »
Intelligence Artificielle et Société

Ethique ou Big Data

Comment faire prévaloir une question d’éthique en matière de données alors que la concurrence se veut mondiale ? Les européens doivent-ils se soumettre à une concurrence américaine et asiatique déloyale pour une question d’éthique ?

Lire plus »