Notice: Function _load_textdomain_just_in_time was called incorrectly. Translation loading for the antispam-bee domain was triggered too early. This is usually an indicator for some code in the plugin or theme running too early. Translations should be loaded at the init action or later. Please see Debugging in WordPress for more information. (This message was added in version 6.7.0.) in /home/sc1znnd9108/revue-apprentissages.com/wp-includes/functions.php on line 6114

Notice: Function _load_textdomain_just_in_time was called incorrectly. Translation loading for the wordpress-seo domain was triggered too early. This is usually an indicator for some code in the plugin or theme running too early. Translations should be loaded at the init action or later. Please see Debugging in WordPress for more information. (This message was added in version 6.7.0.) in /home/sc1znnd9108/revue-apprentissages.com/wp-includes/functions.php on line 6114
Nuit d'Ombres libère les données d'entraînement et propulse les artistes vers la victoire contre l'IA créative

Nuit d’Ombres libère les données d’entraînement et propulse les artistes vers la victoire contre l’IA créative

Un nouvel outil permet aux artistes de lutter contre l’IA générative en altérant les données d’entraînement

Un outil révolutionnaire appelé Nightshade offre désormais aux artistes une nouvelle façon de protéger leurs créations contre les sociétés d’IA qui utilisent leurs œuvres pour entraîner leurs modèles sans autorisation. Nightshade fonctionne en permettant aux artistes d’ajouter des modifications invisibles aux pixels de leurs images avant de les télécharger. Ainsi, lorsque ces images modifiées sont incluses dans un ensemble de données utilisé pour former un modèle d’IA génératif, le modèle peut se briser de manière imprévisible.

L’inspiration derrière Nightshade vient des nombreuses poursuites judiciaires intentées par des artistes contre des entreprises d’IA telles que OpenAI, Meta, Google et Stability AI. Ces artistes affirment que leurs œuvres protégées par le droit d’auteur ont été utilisées sans leur consentement ni leur compensation. Pour remédier à cette situation, le professeur Ben Zhao, de l’Université de Chicago, a dirigé une équipe qui a créé Nightshade.

Selon Zhao, Nightshade est conçu pour donner plus de pouvoir aux artistes et rétablir un certain équilibre dans la relation entre l’IA et les créateurs. L’outil permet aux artistes de « empoisonner » les données d’entraînement utilisées par les modèles d’IA générateurs d’images. Le résultat est que les modèles produisent des résultats imprévus et non désirés : des chiens peuvent devenir des chats, des voitures peuvent devenir des vaches, etc.

Outre Nightshade, l’équipe de Zhao a également développé un autre outil appelé Glaze. Ce dernier permet aux artistes de masquer leur style personnel afin d’éviter qu’il ne soit reproduit par des sociétés d’IA. Tout comme Nightshade, Glaze modifie subtilement les pixels des images, mais cette fois-ci dans le but de manipuler les modèles d’apprentissage automatique. L’intégration de Nightshade dans Glaze est prévue pour favoriser une utilisation plus pratique par les artistes.

L’équipe envisage également de rendre Nightshade open source, ce qui signifierait qu’il serait disponible pour tous les utilisateurs et que chacun pourrait le personnaliser selon ses besoins. « Plus les gens utilisent et créent leurs propres versions de l’outil, plus celui-ci deviendra puissant », déclare Zhao. En effet, les ensembles de données utilisés pour entraîner les modèles d’IA peuvent contenir des milliards d’images, ce qui signifie que plus il y aura d’images altérées introduites dans le modèle, plus les dommages seront importants.

Nightshade exploite une faille de sécurité dans les modèles d’IA générative, qui sont souvent formés à partir de grandes quantités de données récupérées sur Internet. Les artistes qui souhaitent partager leurs créations en ligne peuvent désormais utiliser Glaze et Nightshade pour protéger leurs images contre une utilisation non autorisée par des entreprises d’IA. Les échantillons d’images altérés deviennent alors partie intégrante des ensembles de données utilisés par les modèles d’IA, ce qui entraîne leur dysfonctionnement.

L’utilisation de Nightshade est un moyen efficace pour responsabiliser les entreprises d’IA et les inciter à respecter les droits d’auteur et la propriété intellectuelle des artistes. « Nightshade offre aux artistes une dernière défense contre ceux qui veulent exploiter leur travail sans leur consentement », déclare Eva Toorentent, illustratrice et utilisatrice de Glaze. Autumn Beverly, une autre artiste, ajoute : « Je suis reconnaissante d’avoir un outil qui donne aux artistes une certaine restitution et leur permet de protéger leur travail ».

Nightshade ouvre ainsi la voie à un nouvel équilibre entre les créateurs et l’IA générative. Cet outil promet de protéger les droits des artistes et de les aider à lutter contre l’utilisation non autorisée de leurs œuvres. À travers Glaze et Nightshade, les artistes ont enfin un moyen de faire entendre leur voix dans le monde de l’IA.

Et vous, qu’en pensez-vous ? Pensez-vous que Nightshade est une solution durable pour préserver les droits des artistes face à l’IA ?

Laisser un commentaire