OpenAI, le créateur de ChatGPT, a développé un outil puissant capable de détecter les textes générés par l’IA. Cependant, malgré son efficacité prouvée, l’entreprise hésite à le rendre public.
Comment fonctionne cet outil ?
L’outil de détection de ChatGPT repose sur une technique innovante de watermarking. Ce système introduit des motifs invisibles dans les textes générés par ChatGPT, permettant de les identifier sans altérer leur contenu. Lorsqu’un texte est soumis à l’outil, celui-ci analyse la présence de ces motifs et attribue un pourcentage indiquant la probabilité que le texte ait été créé par ChatGPT.
Contrairement aux algorithmes de détection précédemment proposés par OpenAI, ce nouvel outil est extrêmement précis. D’après des documents internes, son efficacité atteint 99,9 %, surpassant de loin les performances des autres logiciels de détection d’intelligence artificielle disponibles sur le marché. Cette précision est rendue possible grâce à l’accès d’OpenAI à des données et des techniques propriétaires, souvent qualifiées de « sauce secrète » par les experts du domaine.
Pourquoi OpenAI hésite ?
Malgré les avantages évidents de cet outil, OpenAI hésite à le déployer pour plusieurs raisons. Tout d’abord, il existe une crainte que près d’un tiers des utilisateurs actuels de ChatGPT réduisent leur utilisation du service si cet outil de détection est introduit. Pour une entreprise dont le succès repose en grande partie sur l’adoption massive de ses technologies, cette perspective est préoccupante.
En outre, il y a des inquiétudes quant à la possibilité que des tiers puissent découvrir et contourner la technique de filigrane. Si cela se produisait, l’efficacité de l’outil pourrait être compromise, rendant la technologie obsolète. De plus, le système pourrait être perçu comme biaisé contre les locuteurs non natifs de l’anglais, ce qui pourrait engendrer des accusations de discrimination.
OpenAI doit également considérer l’impact éducatif et social de cet outil. Les enseignants, souvent démunis face à la triche facilitée par les IA comme ChatGPT, verraient dans cet outil un allié précieux. Cependant, une mise en place précipitée pourrait stigmatiser l’utilisation légitime de ChatGPT comme aide à l’écriture, notamment dans le cadre académique.
Enfin, OpenAI explore des alternatives technologiques au watermark, telles que l’utilisation de métadonnées cryptographiques signées. Ces méthodes pourraient offrir une détection plus robuste sans les inconvénients associés aux filigranes textuels, bien qu’elles présentent également des défis techniques et éthiques.
Si cet article vous a plu et si vous envisagez une carrière dans la Data Science ou tout simplement une montée en compétences dans votre domaine, n’hésitez pas à découvrir nos offres de formations ou nos articles de blog sur DataScientest.
Source : openai.com