Suite aux grèves hollywoodiennes ou des écrivains s’associant pour porter plainte, l’intelligence artificielle est au centre de tous les débats technologiques. Souhaitant une meilleure protection de leurs œuvres ou de leurs talents, les auteurs, acteurs et scénaristes poursuivent en justice les grandes entreprises comme OpenAI, Meta ou Microsoft. Pour leur offrir plus de protection, une équipe de l’université de Chicago a créé Nightshade, un outil poison pour les IA.
Un outil poison ?
Nightshade provient des centres de recherche de l’université de Chicago, créés par le professeur Ben Zhao et son équipe. Actuellement, le dispositif est testé sur un modèle de Stable Diffusion et un autre modèle créé également par l’équipe du professeur Zhao. Voulant donner un moyen aux artistes et créateurs de se défendre face à une utilisation néfaste de l’intelligence artificielle, Nightshade modifie alors la manière dont ces dernières produisent du contenu.
L’origine de l’infection opère sur la façon dont une IA générative interprète une demande. Nightshade modifie subtilement le code des pixels d’une image pour ensuite corrompre la perception de l’IA. Ainsi, une image corrompue de chien apparaîtra comme celle d’un chat pour le modèle génératif, et quand un utilisateur demandera une image de chien, l’IA lui fournira une image générée de chat.
Est-ce sans danger ?
Selon les premiers retours de M. Zhao et de son équipe, il y a un risque qu’une trop grande présence de pixels corrompus détruise totalement la perception d’une IA. Pour autant, ces conséquences n’auraient lieu que si des milliers d’échantillons infectés étaient présents dans la base de données du modèle. Les modèles plus puissants et utilisant plusieurs bases de données ne devraient pas être concernés.
Grâce à Nightshade, les artistes auraient un moyen de défendre leurs créations contre des personnes mal intentionnées souhaitant voler leurs travaux, les reproduire puis les utiliser ou les revendre.
En attendant les résultats de Nightshade, les grandes entreprises doivent revoir leurs façons de nourrir leurs modèles pour ne pas subir de conséquences sur leur fonctionnement et peut-être bientôt des conséquences judiciaires. Si cet article vous a plu et que l’actualité data vous intéresse ou que vous envisagez une formation en Data Science, n’hésitez pas à découvrir nos articles ou nos offres de formations sur DataScientest.
Source : technologyreview.com