Dans un précédent article, nous avons discuté des limites de l’intelligence artificielle en nuançant la vision hollywoodienne d’un robot qui dépasserait l’homme et lui dicterait sa conduite.
Néanmoins avec l’usage de modèles prédictifs généralisé au sein de domaines à enjeux cruciaux comme le diagnostic médical se pose la question de la confiance qu’un utilisateur peut accorder à une IA. En accordant à l’intelligence artificielle la possibilité de guider nos décisions dans un nombre croissant de secteurs comment s’assurer que de tels algorithmes n’engendrent pas des erreurs trop importantes ?
Et si la solution était dans le problème ? S’il existait une IA capable de justifier les prédictions algorithmiques et de ce fait donner aux modèles prédictifs une certaine légitimité et fiabilité ?
Doit-on se méfier des IA ?
Pour répondre à cette question nous allons nous baser sur un exemple de prédiction de deux classifieurs
Cet exemple présente les explications des prédictions de deux différents classifieurs tentant de déterminer si un document -l’input- traite du « christianisme » ou de « l’athéisme ».
Dans ces explications, deux éléments majeurs sont à relever :
- Le graphique en barres représente l’ordre d’importance des mots conduisant à la prédiction
- La couleur indique à quelle classe le mot contribue : vert pour « christianisme » et magenta pour « athéisme »
Cette expérience montre que dans ce cas, les prédictions sont faites pour des raisons assez arbitraires : pour l’algorithme 2, les mots « Post », « Host » et « Re », contrairement à ce que le graphique en barre présente, n’ont aucun lien avec l’athéisme (ni le christianisme d’ailleurs), tandis que pour l’algorithme 1, les termes “GOD“ ou “Koresh“ ne devraient pas conduire à l’athéisme mais plutôt au christianisme.
De ce fait, comme nous montre cet exemple, avoir une confiance aveugle envers une IA serait une erreur à ne pas commettre. Comment savoir si une IA prend une décision pour une raison sensée ?
Nous allons vous présenter maintenant LIME, une librairie disponible sur Python permettant de transformer tout modèle complexe et donc difficilement interprétable en un modèle linéaire simple dont l’avantage évident est qu’il sera désormais plus facile d’expliquer la prédiction.
L’approche LIME : une solution efficace ?
LIME (Locally Interpretable Model-agnostic Explanation) est une IA qui permet de comprendre la logique sous-jacente des prédictions algorithmiques afin d’accompagner l’humain dans sa décision à croire ou non en ces prévisions.
Si certains modèles de par leur simplicité (régression linéaire, arbres de décision) permettent d’expliquer leur prédiction, d’autres algorithmes de machine learning tels que ceux reposant sur l’architecture des réseaux de neurones disposent généralement d’une fonction de prédiction d’une complexité trop importante et restent donc inintelligibles pour l’Homme. On parle de modèles difficilement interprétables.
L’objectif de LIME est de convertir les prédictions en un modèle mathématique linéaire interprétable. Autrement dit, le but de LIME est de trouver la meilleure version simplifiée d’un modèle complexe autour d’une seule observation étudiée. La figure ci-dessous présente la nouvelle classification linéaire faîtes suite à l’utilisation de LIME :
Initialement, le modèle fait une prédiction binaire complexe (zone rose ou bleue) :
- La croix rouge en gras correspond à la prédiction.
- Les axes sont les variables explicatives (features).
- Les ronds bleus et croix rouges sont les prédictions obtenues après perturbations des features.
- Tout point situé à la droite de la prédiction initiale a vu sa feature correspondant à l’axe des abscisses modifiée et celle des ordonnées inchangée.
- Plus un point est proche de la prédiction initiale (croix rouge en gras), plus il possède une grande taille.
Le graphique ci-dessus met ainsi en lumière le rôle de LIME à savoir nous ramener à un modèle linéaire simple dont la frontière est représentée par la droite en pointillé : contrairement au modèle binaire initial complexe (région rose ou bleue), désormais les “nouvelles“ zones rouges et bleues seront celles situées respectivement à la gauche et à la droite des pointillés.
Par ailleurs, la droite représentée en pointillé déterminée par LIME révèle également que la variable sur l’axe des abscisses est plus importante que celle de l’axe des ordonnées :
- Un déplacement sur l’axe des ordonnées a peu d’impact sur la prédiction (le point reste dans la région rouge).
- Un déplacement sur l’axe des abscisses modifie la prédiction (le point passe de la région rouge à bleue).
Exemple d’utilisation pratique de LIME :
Dans cet exemple, LIME, en transformant un modèle complexe quelconque en un modèle linéaire interprétable, justifie la prédiction d’un algorithme de reconnaissance d’image en détectant précisément quelle portion de l’image fournie en entrée a permis de reconnaître la présence d’une grenouille.
A travers cet exemple, on comprend que LIME a été conçu dans le but de permettre aux utilisateurs d’avoir confiance aux prédictions des IA. On peut donc penser que dans un futur proche, les IA seront davantage soumises à la contrainte de totale transparence envers les utilisateurs, surtout depuis l’arrivée du RGPD (Règlement Général sur la Protection des Données) en mai 2018. Il sera alors nécessaire de créer de nouveaux algorithmes de plus en plus performants permettant de justifier les décisions et prédictions de modèles complexes et par conséquent, difficilement interprétables.
Un travail colossal en perspective !
Cet article vous a plu ? Vous souhaitez approfondir vos connaissances en IA?