AI Hallucinations : Qu’est-ce qu’est ? Quelles conséquences ?

-
4
 m de lecture
-

L’erreur est humaine, dit-on ! Mais pas seulement. Les machines intelligentes peuvent aussi se tromper. On parle alors d’hallucinations de l’AI. De quoi s’agit-il ? Quelles sont les causes ? Les conséquences ? Et surtout, comment prévenir les AI hallucinations ? DataScientest répond à vos questions. 

C’est quoi l'AI Hallucinations ?

Les AI hallucinations sont des résultats incorrects ou trompeurs générés par les grands modèles de langage. Ces LLM se basent sur des données d’apprentissage inexistantes ou mal décodées, créant ainsi des résultats inexacts, voire « hallucinants ». Ce qui peut être particulièrement problématique à l’heure de prendre des décisions. 

Exemples d’hallucinations de l’IA

Les IA d’hallucinations concernent tous les modèles, même les plus sophistiqués. Voici quelques exemples connus : 

  • Le chatbot Bard de Google a affirmé que le télescope spatial James Webb avait capturé les premières images d’une planète en dehors de notre système solaire.
  • Le chatbot de Microsoft a affirmé être tombé amoureux de ses utilisateurs et avoir espionné les collaborateurs de Bing.

Au-delà de ces exemples concernant les grands acteurs de l’intelligence artificielle, les LLM hallucinations se traduisent souvent par des prédictions erronées, des faux positifs ou des faux négatifs. 

Des cas d’application positifs

Même si les AI hallucinations aboutissent, la plupart du temps, à un résultat indésirable, il se peut qu’elles nous réservent aussi de belles surprises. Par exemple : 

  • Les arts : ces « erreurs » sont particulièrement spectaculaires au niveau visuel. Les modèles d’apprentissage peuvent ainsi concevoir des images « hallucinantes » qui permettent de développer une nouvelle approche de la création artistique. 
  • L’interprétation des données : même en produisant des résultats erronés, les hallucinations des outils d’IA générative peuvent révéler de nouvelles connexions et offrir d’autres perspectives. 
  • Les jeux et la réalité virtuelle : les hallucinations de l’IA peuvent aider les développeurs à imaginer de nouveaux mondes. Elles peuvent aussi ajouter des éléments de surprise et d’imprévisibilité. Ce qui améliore sensiblement l’expérience des joueurs.

Cela dit, hors du domaine créatif, les AI hallucinations ont très souvent des effets néfastes. Mais avant de voir les dangers de ces phénomènes, intéressons-nous à leurs causes. 

Comment expliquer les LLM hallucinations ?

Par principe, les LLM s’entraînent à l’aide de données. Ce qui leur permet d’identifier des modèles de données et de réaliser des prédictions. Mais une simple erreur à cette phase d’entraînement peut avoir de lourdes conséquences sur les prédictions. 

Voici les erreurs les plus courantes susceptibles de provoquer des AI hallucinations : 

  • Des training data incomplètes, incohérentes, obsolètes, inexactes ou biaisées ; 
  • Des données mal classées ; 
  • Des préjugés dans les données fournies aux modèles ; 
  • Le surajustement des données ;
  • Des hypothèses incorrectes formulées par le modèle d’IA ; 
  • Une programmation insuffisante pour préparer le modèle à interpréter correctement les informations ; 
  • Une absence de contexte ; 
  • La complexité du modèle.

Quelle qu’en soit la cause, la moindre erreur lors de la préparation des modèles peut totalement fausser les résultats futurs. 

Quelles sont les conséquences des AI hallucinations ?

L’intelligence artificielle étant aujourd’hui utilisée dans une grande variété de secteurs d’activité, les AI hallucinations peuvent avoir de multiples effets néfastes. 

Par exemple : 

  • Dans le domaine de la santé : un modèle d’IA pourrait identifier une maladie grave, alors qu’il s’agissait en réalité d’une pathologie bénigne. Ce qui entraîne une intervention médicale inutile. L’inverse est aussi vrai, provoquant une absence de traitement pour un patient qui en a réellement besoin. 
  • Dans le domaine de la sécurité : les hallucinations d’IA peuvent diffuser des informations erronées dans des secteurs hautement sensibles, comme la défense nationale. Munis de données inexactes, les gouvernements peuvent prendre des décisions ayant des conséquences importantes au niveau diplomatique. 
  • Dans le domaine de la finance : un modèle peut identifier des actes frauduleux qui n’en sont pas vraiment, bloquant inutilement des transactions financières. Inversement, il peut aussi passer à côté de certaines fraudes. 

Comment limiter l’impact des AI hallucinations ?

Les effets des AI hallucinations pouvant être particulièrement néfastes, il est primordial de mettre en place toutes les mesures pour les limiter.

Soigner ses données d'entraînement

La qualité des résultats du grand modèle de langage dépend en grande partie de la qualité des données d’entraînement. D’où l’importance de bien les soigner. Pour cela, il est nécessaire de réaliser un travail minutieux de préparation de la donnée. L’idée étant de s’assurer qu’aucune information fausse, obsolète ou inexacte ne vienne polluer le data set. 

Au-delà de la qualité des données, il est primordial de fournir au modèle d’apprentissage des ensembles de données pertinents. C’est-à-dire des données en rapport avec la tâche que le modèle doit accomplir.

Enfin, vous devez également fournir un large data set composé de données diverses, équilibrées et bien structurées. Ce qui minimisera les biais de sortie, et donc les AI hallucinations.

Définir précisément vos attentes

Pour obtenir tel ou tel résultat, vous devez préciser à l’intelligence artificielle ce que vous souhaitez, tout en définissant des limites. Autrement dit, précisez ce que vous voulez, et ce que vous ne voulez pas. Par exemple, à travers des exemples de textes bien écrits ou mal écrits si vous souhaitez créer du contenu écrit. Vous pouvez aussi utiliser des outils de filtrage et/ou de seuils probabilistes.

De cette manière, le système identifiera facilement les tâches à accomplir. Le risque d’AI hallucinations sera alors réduit.

Utiliser des modèles de données

Les modèles de données (ou templates) constituent des formats prédéfinis visant à guider l’IA. Ce faisant, l’intelligence artificielle est plus susceptible de générer des résultats conformes à vos directives. 

Là encore, pour la rédaction d’un texte écrit, votre template peut reprendre la structure de base : 

  • Un titre ; 
  • Une introduction ; 
  • Des H2 (définir le nombre souhaité) ; 
  • Des paragraphes en dessous de chaque H2 (préciser le nombre de mots ou une fourchette) ; 
  • Une conclusion.

En plus de limiter les AI hallucinations, le template permet également d’affiner les réponses de l’intelligence artificielle pour un résultat plus cohérent avec vos attentes. 

Tester et affiner le système d’IA en permanence

Même en prenant vos précautions, les AI hallucinations sont monnaie courante. Alors pour en réduire l’impact lors de la prise de décision, vous devez tester rigoureusement votre modèle d’IA avant de l’utiliser. Et surtout, il est primordial de continuer à l’évaluer, même après sa mise en production. En plus de limiter le risque d’erreur, cela permet d’améliorer les performances globales du système et d’ajuster le modèle à mesure que les données évoluent.

Supervision le modèle

Si l’intelligence artificielle peut réaliser des merveilles, elle doit toujours être supervisée par un être humain. Vous devrez alors examiner chaque résultat fourni. En cas d’erreur, cela vous permettra d’identifier la cause et de la corriger rapidement.

Vous souhaitez créer des modèles d’IA exempts d’erreurs et d’hallucinations ? Commencez par vous former. Chez DataScientest, vous apprendrez tout ce qu’il faut savoir sur la science des données, le machine learning, le deep learningRejoignez-nous !

Facebook
Twitter
LinkedIn

DataScientest News

Inscrivez-vous à notre Newsletter pour recevoir nos guides, tutoriels, et les dernières actualités data directement dans votre boîte mail.

Vous souhaitez être alerté des nouveaux contenus en data science et intelligence artificielle ?

Laissez-nous votre e-mail, pour que nous puissions vous envoyer vos nouveaux articles au moment de leur publication !

Newsletter icone
icon newsletter

DataNews

Vous souhaitez recevoir notre
newsletter Data hebdomadaire ?