Comment arrêter l’hallucination des intelligences artificielles

-
2
 m de lecture
-

Depuis toujours les intelligences artificielles ont halluciné des réponses pour être créatives et inventer des histoires. Mais, face à la popularité des intelligences artificielles génératives comme sources d’informations, les experts cherchent à réduire voire arrêter ces hallucinations.

Quel est le problème des hallucinations ?

Les intelligences artificielles ont toujours eu cette tendance à “halluciner” des réponses.

Ces dernières sont codées de sorte à inventer une réponse plutôt qu’à dire “je ne sais pas”. Pourtant, depuis leur accès au grand public, de nombreuses personnes s’en servent quotidiennement pour avoir accès à des informations rapidement et de manière épurée. Aujourd’hui utilisé dans des domaines complexes comme la médecine ou le droit, le problème d’hallucination est devenu critique.

Selon différents centres de recherche, l’origine des hallucinations viendrait de la conception des modèles LLM. Entraîné à traiter et d’accumuler des bases de données énormes, ils ne savent pour autant pas faire la distinction entre ce qui est factuel ou non. Leur fonction principale se limite à prédire quel mot vient après l’autre.

Comment arrêter cette hallucination ?

Pour endiguer cette habitude, de nombreuses expériences ont déjà été menées. La plus récente concerne des chercheurs du MIT qui ont tenté de créer “une société d’esprits” entre IA. L’objectif était de poser une question à plusieurs IA et de les laisser débattre jusqu’à ce qu’une seule réponse l’emporte. D’autres entreprises comme Google et Microsoft essayent de leur côté de rendre plus “intelligentes” ces IA génératives. 

Une technique appelée apprentissage par renforcement avec retour d’information humain, dans laquelle des testeurs humains améliorent manuellement les réponses d’un robot et les renvoient ensuite au système pour l’améliorer, est largement reconnue comme ayant permis à ChatGPT d’être bien meilleur que les chatbots qui l’ont précédé. 

Une approche populaire consiste aussi à connecter les chatbots à des bases de données d’informations factuelles ou plus fiables, telles que Wikipedia, Google search ou des collections d’articles académiques ou de documents commerciaux sur mesure.

Une autre solution serait de rendre les IA moins créatives comme le font actuellement les grandes entreprises. Lorsque Google génère des résultats de recherche à l’aide de sa technologie de chatbot, il effectue également une recherche normale en parallèle, puis compare si la réponse du bot et les résultats de la recherche traditionnelle correspondent. Si ce n’est pas le cas, la réponse de l’IA n’apparaît même pas. L’entreprise a modifié son robot pour qu’il soit moins créatif, ce qui signifie qu’il n’est pas très doué pour écrire des poèmes ou avoir des conversations intéressantes, mais qu’il est moins susceptible de mentir. En limitant son robot de recherche à la corroboration des résultats de recherche existants, l’entreprise a pu réduire le nombre d’hallucinations et d’inexactitudes.

Pourtant les hallucinations sont aussi une bonne chose pour les IA, elles leur permettent d’être créatifs et d’imaginer des histoires ou des scénarios. Arrivons-nous à un tournant de l’IA génératives ou des sous-types d’IA génératives commencerait à voir le jour ? Certaines seraient spécialisées dans la création d’histoires ou de scénarios et les autres serviront d’outil de recherche et d’informations. Si cet article vous a plu et si vous envisagez une carrière dans la Data Science, n’hésitez pas à découvrir nos articles ou nos offres de formations sur DataScientest.

Source : washingtonpost.com

Facebook
Twitter
LinkedIn

DataScientest News

Inscrivez-vous à notre Newsletter pour recevoir nos guides, tutoriels, et les dernières actualités data directement dans votre boîte mail.

Vous souhaitez être alerté des nouveaux contenus en data science et intelligence artificielle ?

Laissez-nous votre e-mail, pour que nous puissions vous envoyer vos nouveaux articles au moment de leur publication !

Newsletter icone
icon newsletter

DataNews

Vous souhaitez recevoir notre
newsletter Data hebdomadaire ?