Nightshade, l’outil qui protège les artistes et empoisonne les IA génératives

-
2
 m de lecture
-

Suite aux grèves hollywoodiennes ou des écrivains s’associant pour porter plainte, l’intelligence artificielle est au centre de tous les débats technologiques. Souhaitant une meilleure protection de leurs œuvres ou de leurs talents, les auteurs, acteurs et scénaristes poursuivent en justice les grandes entreprises comme OpenAI, Meta ou Microsoft. Pour leur offrir plus de protection, une équipe de l’université de Chicago a créé Nightshade, un outil poison pour les IA.

Un outil poison ?

Nightshade provient des centres de recherche de l’université de Chicago, créés par le professeur Ben Zhao et son équipe. Actuellement, le dispositif est testé sur un modèle de Stable Diffusion et un autre modèle créé également par l’équipe du professeur Zhao. Voulant donner un moyen aux artistes et créateurs de se défendre face à une utilisation néfaste de l’intelligence artificielle, Nightshade modifie alors la manière dont ces dernières produisent du contenu. 

L’origine de l’infection opère sur la façon dont une IA générative interprète une demande. Nightshade modifie subtilement le code des pixels d’une image pour ensuite corrompre la perception de l’IA. Ainsi, une image corrompue de chien apparaîtra comme celle d’un chat pour le modèle génératif, et quand un utilisateur demandera une image de chien, l’IA lui fournira une image générée de chat.

Est-ce sans danger ?

Selon les premiers retours de M. Zhao et de son équipe, il y a un risque qu’une trop grande présence de pixels corrompus détruise totalement la perception d’une IA. Pour autant, ces conséquences n’auraient lieu que si des milliers d’échantillons infectés étaient présents dans la base de données du modèle. Les modèles plus puissants et utilisant plusieurs bases de données ne devraient pas être concernés.

Grâce à Nightshade, les artistes auraient un moyen de défendre leurs créations contre des personnes mal intentionnées souhaitant voler leurs travaux, les reproduire puis les utiliser ou les revendre.

En attendant les résultats de Nightshade, les grandes entreprises doivent revoir leurs façons de nourrir leurs modèles pour ne pas subir de conséquences sur leur fonctionnement et peut-être bientôt des conséquences judiciaires. Si cet article vous a plu et que l’actualité data vous intéresse ou que vous envisagez une formation en Data Science, n’hésitez pas à découvrir nos articles ou nos offres de formations sur DataScientest.

Source : technologyreview.com

Facebook
Twitter
LinkedIn

DataScientest News

Inscrivez-vous à notre Newsletter pour recevoir nos guides, tutoriels, et les dernières actualités data directement dans votre boîte mail.

Vous souhaitez être alerté des nouveaux contenus en data science et intelligence artificielle ?

Laissez-nous votre e-mail, pour que nous puissions vous envoyer vos nouveaux articles au moment de leur publication !

Newsletter icone
icon newsletter

DataNews

Vous souhaitez recevoir notre
newsletter Data hebdomadaire ?