Déplier le sommaire Replier le sommaire
Des chercheurs de l’Université de Chicago ont récemment développé un outil appelé Nightshade, qui permet de perturber l’apprentissage automatique des IA spécialisées dans la création d’images à partir de textes. Cette approche consiste à introduire des données altérées dans ces modèles intelligents.
Les intelligences artificielles chargées de convertir du texte en images nécessitent des bases de données importantes et de haute qualité, souvent constituées à partir de collections diverses disponibles sur Internet. Cependant, la collecte de ces données massives, parfois en violation des lois sur le droit d’auteur, est une pratique courante chez les concepteurs de ces systèmes, y compris pour des solutions reconnues telles que Dall-E 3 ou Stable Diffusion.
Dans le but de protéger les droits des artistes, les chercheurs de l’Université de Chicago ont développé Nightshade, un mécanisme subtile qui altère imperceptiblement le contenu des images. Bien que ces transformations ne soient pas visibles à l’œil humain, elles induisent des erreurs dans l’interprétation des modèles d’IA, ce qui entraîne des perturbations lors de leur apprentissage. Par exemple, une image de loup pourrait être interprétée par l’algorithme comme une image de voiture après l’application des manipulations de Nightshade, ce qui entraînerait des réponses incorrectes de la part de l’IA.
Nightshade représente une réelle menace pour la fiabilité des modèles concernés, car il suffit d’introduire un faible pourcentage d’images altérées dans l’ensemble d’entraînement pour considérablement affecter leurs capacités. Face à la sophistication de cet outil, les experts n’ont pas encore trouvé de solution infaillible pour contrer ces altérations, mais proposent des mécanismes tels que l’élimination des images problématiques lors de l’apprentissage ou la mise en place d’un système de détection en réponse à Nightshade. Les développeurs se retrouvent ainsi constamment engagés dans une lutte pour la sécurité de leurs modèles.
En envisageant de rendre Nightshade accessible en open source, les chercheurs espèrent encourager les concepteurs de modèles d’IA et les détenteurs de contenu à engager un dialogue constructif sur la légitimité et la rémunération de l’utilisation d’images en ligne pour l’entraînement des intelligences artificielles. En conclusion, il est probable que des méthodes d’altération de données telles que Nightshade joueront un rôle crucial à l’avenir, à la fois en tant qu’instrument de défense pour les créateurs de contenu et en tant que facteur de transformation des méthodes d’acquisition de données pour les futures technologies d’IA.
Une nouvelle méthode pour perturber les IA générant des images à partir de textes
La subversion discrète des banques d’images
Une manipulation furtive mais impactante
Défendre l’intégrité des modèles face aux corruptions
Une arme à double tranchant