YouTube, plateforme incontournable de partage de vidéos en ligne, a récemment annoncé une nouvelle règle concernant les contenus générés par l’intelligence artificielle (IA). Désormais, les créateurs devront préciser si un contenu réaliste a été créé ou modifié par l’IA, dans un souci de transparence envers les spectateurs.
Selon un rapport récent, cette décision vise à informer les utilisateurs et à éviter la diffusion de vidéos trompeuses. En effet, avec la démocratisation des outils d’IA, il est devenu facile de créer des contenus réalistes modifiés ou générés par des moyens techniques. YouTube souhaite donc jouer la carte de la transparence en mettant en place des étiquettes signalant clairement l’utilisation de l’IA dans la création d’un contenu.
Cette nouvelle politique s’appliquera à tout contenu réaliste modifié numériquement pour remplacer des visages, modifier des lieux ou créer des événements fictifs. Les créateurs devront répondre à des questions spécifiques pour déterminer si leur contenu doit être signalé comme généré par l’IA. Les vidéos traitant de sujets sensibles comme la santé, l’actualité ou la finance seront particulièrement concernées par cette mesure.
Par ailleurs, YouTube ne demandera pas aux créateurs de divulguer l’utilisation de l’IA pour des tâches de productivité telles que la génération de scripts ou de sous-titres automatiques. La plateforme se concentre principalement sur les contenus réalistes potentiellement trompeurs et travaille sur des mises à jour pour permettre aux utilisateurs de signaler ces contenus.
En résumé, YouTube souhaite garantir la transparence et l’intégrité des contenus partagés sur sa plateforme en demandant aux créateurs de spécifier l’utilisation de l’IA dans la création de vidéos réalistes. Cette mesure vise à protéger les utilisateurs contre les vidéos manipulées et à promouvoir une expérience de visionnage authentique et fiable.