Les derniers mois ont été témoins de la prolifération de contenus truqués sur les réseaux sociaux. Les avancées récentes de l’intelligence artificielle ont démocratisé cette technologie et ont permis la création de nombreux contenus générés de manière confuse. Bien que la plupart de ces vidéos aient été créées dans un but humoristique, la perspective d’une confusion entre contenu authentique et contenu falsifié suscite des inquiétudes.
Les vidéos générées par l’IA ne sont pas un phénomène nouveau. Depuis l’émergence des deepfakes au milieu des années 2010, de nombreux contenus trompeurs ont vu le jour, poussant des personnalités médiatiques à prononcer des propos entièrement fabriqués. En 2018, un deepfake de Barack Obama, créé par le comédien Jordan Peele dans le but de sensibiliser le public, est devenu viral, montrant les possibilités qui découleraient du développement de l’IA. Un an plus tard, la représentante Yvette Clarke a proposé une loi visant à punir les producteurs de deepfakes qui ne mentionnent pas que leur contenu est faux.
Cependant, ces derniers mois ont vu une résurgence des vidéos générées par l’IA, grâce aux avancées de l’IA générative. Des chatbots comme ChatGPT, des générateurs d’images comme Midjourney et des outils de clonage vocal ont ravivé l’intérêt pour les contenus truqués. Les réseaux sociaux sont devenus les principales plateformes pour la diffusion de ces contenus, créés à des fins de divertissement ou, dans certains cas, à des fins malveillantes. À l’approche des élections présidentielles de 2024, Yvette Clarke maintient que la manipulation de masse causée par les contenus générés par l’IA pourrait avoir des conséquences dévastatrices sur la sécurité nationale et électorale.
En France et dans le monde, les vidéos générées par l’IA ont envahi les réseaux sociaux au cours des derniers mois. Peu de plateformes ont été épargnées. Par exemple, sur X (Twitter), de nombreux deepfakes ont été diffusés, trompant les utilisateurs. Une fausse déclaration d’un homme d’affaires en faillite a été largement diffusée, proposant aux victimes de récupérer leur investissement sur une plateforme donnée. Plus récemment, une vidéo mettant en scène un footballeur célèbre menacé par un adulte a fait le tour du réseau social. Ce compte spécialisé dans ce type de vidéos parodiant des personnalités est suivi par plus de 16 000 abonnés.
Sur TikTok, des contenus encore plus problématiques ont été diffusés. Différentes vidéos présentent des avatars de personnages célèbres, retraçant leur histoire à la première personne. Certaines vidéos concernent des personnages historiques ou des figures artistiques, tandis que d’autres mettent en scène des victimes de meurtre ou des meurtriers eux-mêmes. Sur Twitch, un streamer a créé des versions numériques de personnalités politiques qui peuvent répondre aux questions des téléspectateurs en direct. Cependant, cette chaîne a été bannie après que l’avatar de l’actuel président a tenu des propos considérés comme haineux et violents.
Face à cette prolifération de contenus truqués, les plateformes commencent à développer des outils pour lutter contre la désinformation. Sur X (Twitter), les utilisateurs peuvent désormais fournir une note contextuelle sous une publication pour signaler qu’elle a été générée par l’IA. Sur TikTok, un outil de signalement spécifique aux contenus générés par l’IA a été mis en place. YouTube, de son côté, a annoncé un cadre pour l’utilisation de l’IA générative et a souligné son engagement à lutter contre la désinformation, bien que les mesures de protection précises n’aient pas été détaillées.
Ces efforts des plateformes visent en partie à se conformer à la loi sur les services numériques (DSA) en vigueur depuis fin août. La réglementation européenne exige l’utilisation d’un marquage clair pour indiquer que le contenu a été généré par l’IA. Cependant, malgré ces initiatives, de nombreux contenus trompeurs continuent de circuler sur les réseaux sociaux, semant le doute parmi les utilisateurs.
Il est essentiel que les plateformes continuent de développer des outils efficaces pour lutter contre la désinformation et la diffusion de contenus truqués. La bataille contre les deepfakes et les vidéos générées par l’IA ne fait que commencer, mais il est nécessaire d’agir rapidement pour protéger la crédibilité des informations et la sécurité des utilisateurs sur les réseaux sociaux.