XAI ou eXplainable Artificial Intelligence : Qu’est-ce que c’est

-
3
 m de lecture
-

Un des grands défis de l’apprentissage automatique est de produire des systèmes capables d’expliquer leurs décisions et leurs actions aux utilisateurs humains.

C’est ainsi que l’explicabilité des Intelligences artificielles ( XAI ) est devenue un des challenges du Machine Learning et fait désormais partie intégrante du métier des Data Scientists qui sont appelés à convaincre les utilisateurs de l’acceptabilité du raisonnement de leurs modèles.

Qu’est-ce que l’explicabilité d’un modèle ?

L’XAI ou « eXplainable Artificial Intelligence » désigne un ensemble de processus et de méthodes permettant d’expliquer chaque résultat calculé par une Intelligence artificielle de manière simple et compréhensible. C’est un domaine du Machine Learning qui vise à justifier de la façon la plus précise possible un résultat donné par un modèle.

En effet, cette IA aide toute personne n’étant pas spécialiste technique ou Data Scientist à comprendre pourquoi un algorithme a donné de tels résultats.

Par exemple, si vous avez entraîné un modèle de Machine Learning (dit ML) avec des données financières pour orienter un investisseur dans le choix d’un secteur d’investissement. Avec l’IA explicable vous êtes alors en mesure d’expliquer pourquoi une option a été sélectionnée plutôt qu’une autre et pourquoi les options d’investissement recommandées sont les mieux adaptées à sa situation.

Pourquoi l’explicabilité ?

L’IA explicable est essentielle, aussi bien pour les développeurs et les Data Scientists, que pour les utilisateurs, et ce, pour plusieurs bonnes raisons :

  1. Permettre aux développeurs d’actualiser et d’améliorer les modèles, ainsi que de mesurer leur efficacité.
  2. Depuis la mise en place de la RGPD il est obligatoire d’être en mesure d’expliquer tous les résultats (scores, segmentation, etc.) qui portent sur des individus. C’est maintenant faisable grâce à l’XAI.
  3. Apporter des résultats plus concrets en offrant des informations précieuses sur les indicateurs clés d’une entreprise. 
  4. Comprendre le « pourquoi » va permettre une meilleure utilisation des résultats afin de préparer et d’adapter son discours. Par exemple, dans le cas d’un opérateur téléphonique, un conseiller va devoir adresser différemment une personne qui risque de résilier parce qu’elle cherche une offre moins chère d’un client qui va déménager.
  5. Comprendre le raisonnement des algorithmes va permettre aux utilisateurs finaux de se rendre compte qu’ils sont basés sur des principes logiques.

Méthodes pour mettre en oeuvre une XAI

Il existe différentes méthodes permettant d’apporter de la transparence et de la compréhension dans les Intelligences artificielles. Les principales approches sont les suivantes.

Layer-wise Relevance Propagation (LRP) :

Il s’agit d’une technologie qui permet de définir les spécificités des vecteurs d’entrée. 

Elle est applicable aux modèles de réseaux de neurones, où les entrées peuvent être des images, des vidéos ou du texte.

Counterfactual Method :

Une explication contrefactuelle décrit une situation causale sous la forme : « Si X ne s’était pas produit, Y ne se serait pas produit ». 

Cette technologie fait référence à la manière dont on modifie les entrées de données une fois qu’on a obtenu un résultat. On observe ensuite dans quelle mesure le résultat a été modifié.

Local Interpretable Model-Agnostic Explanations (LIME) :

En français « Explications locales interprétables du modèle-gnostic », LIME est une méthode basée sur une approche globaliste qui vise à expliquer n’importe quel classificateur mécanique et les pronostics qui en résultent. C’est l’une des méthodes dites locales dans le sens où elle donne des explications du choix du modèle sur chaque valeur et non de manière globale sur tout un jeu de données. Avec une telle méthode, même les non spécialistes peuvent accéder aux données et aux méthodes.

Rationalisation :

C’est une méthode utilisée spécialement pour les robots basés sur une IA tels que le ChatGPT. Dans ce cadre, la machine est dotée d’une autonomie qui lui permet d’expliquer ses actions.

Conclusion

Le caractère transparent de l’IA explicable présente de nombreux avantages pour la prise de décision. En effet, le XAI aide à interpréter les résultats complexes produits par les modèles de Machine Learning. Il permet aussi aux développeurs d’actualiser et d’améliorer les modèles. Elle présente en outre l’avantage d’offrir une bonne traçabilité des données.

Facebook
Twitter
LinkedIn

DataScientest News

Inscrivez-vous à notre Newsletter pour recevoir nos guides, tutoriels, et les dernières actualités data directement dans votre boîte mail.

Vous souhaitez être alerté des nouveaux contenus en data science et intelligence artificielle ?

Laissez-nous votre e-mail, pour que nous puissions vous envoyer vos nouveaux articles au moment de leur publication !

Newsletter icone
icon newsletter

DataNews

Vous souhaitez recevoir notre
newsletter Data hebdomadaire ?