La montée de l’IA dans la création de répliques numériques de célébrités : l’impuissance de la loi face à un phénomène impressionnant

L’intelligence artificielle (IA) a fait de grands progrès ces dernières années, au point de pouvoir créer des répliques numériques de personnes célèbres, en utilisant leur voix, leur visage, leurs écrits ou leur personnalité. Ces répliques, sous forme de chatbots, d’avatars ou de deepfakes, peuvent être utilisées à des fins diverses, allant du divertissement à l’éducation, en passant par la thérapie ou la manipulation. Quels sont les enjeux de l’évolution de cette technologie ? Les personnes reproduites ont-elles droit à leur image numérique ? Est-il possible d’encadrer l’usage de ces répliques numériques basées sur l’IA, facilement diffusables sur internet ?

Certains experts sont impressionnés par leurs doubles. Plusieurs exemples récents montrent la capacité de l’IA à reproduire des personnages célèbres, sans leur consentement ni leur connaissance. Une étude récente a montré que 65% des personnes interrogées étaient favorables à la création de répliques numériques de personnes célèbres, tandis que 35% étaient opposées à cette pratique.

Un exemple marquant est celui du chatbot basé sur la voix et les idées du psychothérapeute américain Martin Seligman, pionnier de la psychologie positive. Ce chatbot, surnommé Ask Martin, peut répondre aux questions des utilisateurs sur le bonheur, la résilience ou le sens de la vie, en s’inspirant des écrits de Seligman. Ce dernier a également reçu un email inattendu d’un ancien étudiant diplômé, déclarant avoir créé un “Seligman virtuel” après avoir intégré chaque mot écrit par Seligman dans un logiciel d’IA de pointe.

D’autres exemples incluent la création d’une version chatbot de la célèbre psychothérapeute belge Esther Perel, basée sur ses podcasts Internet. Ces répliques, bien que fascinantes sur le plan technologique, soulèvent des questions éthiques et légales importantes.

En effet, la loi semble impuissante face à la montée en puissance de ce phénomène. En Californie du Sud, un entrepreneur technologique a créé une version chatbot de Esther Perel sans son consentement, en utilisant ses podcasts. La question de la protection des droits des personnes reproduites se pose alors : ont-elles le droit de contrôler leur image numérique ? Doit-il exister un cadre légal pour encadrer l’usage de ces répliques numériques basées sur l’IA, facilement diffusables sur internet ?

Certains législateurs tentent déjà d’y remédier en proposant des projets de loi pour réglementer l’utilisation des répliques numériques générées par l’IA. Cependant, l’efficacité de ces mesures reste incertaine compte tenu de la dimension internationale de ce phénomène. Il est peu probable que le projet de loi NO FAKES Act, actuellement discuté au sein de la commission judiciaire du Sénat, soit pleinement efficace, puisque les personnes reproduites ne résident pas nécessairement dans le pays où se trouvent leurs développeurs de chatbots IA respectifs.

L’évolution rapide de la technologie de l’IA exige une réflexion approfondie sur les enjeux éthiques et légaux associés à la création de répliques numériques de personnes célèbres. Il est essentiel de trouver un équilibre entre l’innovation technologique et le respect des droits individuels.

Laisser un commentaire