Lélection présidentielle américaine de 2024 pourrait être marquée par une vague de désinformation sans précédent, alimentée par le développement de lintelligence artificielle et la dégradation des garde-fous des réseaux sociaux, selon des experts. « Je mattends à un tsunami de désinformation », a déclaré Oren Etzioni, un expert en IA et professeur émérite à lUniversité de Washington. « Je ne peux pas le prouver. Jespère me tromper. Mais les ingrédients sont là, et je suis complètement terrifié. »Un des principaux risques est lié à la diffusion des « deepfakes », des images, des vidéos ou des enregistrements audio truqués grâce à lIA, qui peuvent faire dire ou faire nimporte quoi à nimporte qui. Ces faux contenus sont de plus en plus faciles à produire et à partager, et peuvent avoir un impact dévastateur sur la crédibilité des candidats ou sur la confiance dans le processus électoral. Par exemple, on pourrait voir un candidat politique être transporté à lhôpital, ou un candidat dire des choses quil ou elle na jamais dites.Près de trois ans après que les émeutiers ont pris dassaut le Capitole des États-Unis, les théories du complot à lorigine de cette violente attaque restent répandues sur les réseaux sociaux et dans lactualité par câble : valises remplies de bulletins de vote, dépôts de bulletins de vote tard dans la nuit, des morts qui ont voté.Les experts préviennent que la situation sera probablement pire lors de la prochaine élection présidentielle. Les garde-fous qui ont tenté de contrer les fausses allégations la dernière fois sérodent, tandis que les outils et les systèmes qui les créent et les diffusent ne font que se renforcer.De nombreux Américains, encouragés par lancien président Donald Trump, ont continué à promouvoir lidée, sans fondement, selon laquelle on ne peut pas faire confiance aux élections partout aux États-Unis. Une majorité de républicains (57 %) estiment que le démocrate Joe Biden na pas été légitimement élu président.Parallèlement, les outils dintelligence artificielle générative ont rendu beaucoup moins coûteuse et plus facile la diffusion du type de désinformation susceptible dinduire les électeurs en erreur et potentiellement dinfluencer les élections. Et les sociétés de médias sociaux qui investissaient autrefois massivement dans la correction des faits ont changé leurs priorités.« Je m’attends à un tsunami de désinformation », a déclaré Oren Etzioni, expert en intelligence artificielle et professeur émérite à l’Université de Washington. « Je ne peux pas le prouver. J’espère avoir tort. Mais les ingrédients sont là et je suis complètement terrifié ».Les deepfakes IA deviennent de plus en plus répandusLes images et vidéos manipulées entourant les élections ne sont pas nouvelles, mais 2024 sera la première élection présidentielle américaine au cours de laquelle des outils d’IA sophistiqués capables de produire des contrefaçons convaincantes en quelques secondes ne seront qu’à quelques clics.Les images, vidéos et clips audio fabriqués, connus sous le nom de deepfakes, ont commencé à se frayer un chemin dans les publicités expérimentales de la campagne présidentielle. Des versions plus sinistres pourraient facilement se propager sans étiquette sur les réseaux sociaux et tromper les gens quelques jours avant une élection, a déclaré Etzioni.« On pourrait voir un candidat politique être transporté durgence à lhôpital », a-t-il déclaré. « On pourrait voir un candidat dire des choses quil navait jamais dites. On pourrait assister à une ruée sur les banques. On pouvait voir des bombardements et des violences qui nont jamais eu lieu ».Les contrefaçons de haute technologie ont déjà affecté les élections dans le monde entier, a déclaré Larry Norden, directeur principal des élections et du programme gouvernemental au Brennan Center for Justice. Quelques jours seulement avant les récentes élections en Slovaquie, des enregistrements audio générés par lIA ont usurpé lidentité dun candidat libéral discutant de projets visant à augmenter les prix de la bière et à truquer les élections. Les vérificateurs de faits se sont efforcés de les identifier comme étant faux, mais ils ont malgré tout été partagés comme étant réels sur les réseaux sociaux.Ces outils pourraient également être utilisés pour cibler des communautés spécifiques et affiner les messages trompeurs sur le vote. Cela pourrait ressembler à des messages texte persuasifs, à de fausses annonces sur les processus de vote partagées dans différentes langues sur WhatsApp, ou à de faux sites Web simulés pour ressembler à ceux officiels du gouvernement de votre région, ont déclaré les experts.Face à un contenu conçu pour paraître réel, « tout ce que nous avons été programmés pour faire au cours de l’évolution va entrer en jeu pour nous faire croire à la fabrication plutôt qu’à la réalité réelle », a déclaré Kathleen Hall Jamieson, spécialiste de la désinformation et directeur du Annenberg Public Policy Center de l’Université de Pennsylvanie.Les Républicains et les Démocrates du Congrès et de la Commission électorale fédérale étudient des mesures pour réglementer la technologie, mais ils nont finalisé aucune règle ou législation. Cela laisse aux États le soin dadopter les seules restrictions jusquà présent sur les deepfakes politiques de lIA.Une poignée dÉtats ont adopté des lois exigeant que les deepfakes soient étiquetés ou interdisant ceux qui dénaturent les candidats. Certaines sociétés de médias sociaux, notamment YouTube et Meta, qui possèdent Facebook et Instagram, ont introduit des politiques d’étiquetage de l’IA. Reste à voir sils seront capables darrêter systématiquement les contrevenants. Les protections des médias sociaux s’effondrent : l’exemple de X/TwitterIl y a un peu plus dun an, Elon Musk a racheté Twitter et a commencé à licencier ses dirigeants, à démanteler certaines de ses fonctionnalités principales et à remodeler la plateforme de médias sociaux pour en faire ce que lon appelle désormais X.Depuis lors, il a bouleversé le système de vérification, laissant les agents publics vulnérables aux usurpateurs didentité. Il s’est débarrassé des équipes qui luttaient autrefois contre la désinformation sur la plateforme, laissant la communauté des utilisateurs se modérer. Et il a rétabli les comptes de théoriciens du complot et dextrémistes qui étaient auparavant bannis.Les changements ont été applaudis par de nombreux conservateurs qui affirment que les précédentes tentatives de modération de Twitter équivalaient à une censure de leurs opinions. Mais les partisans des démocrates affirment que cette prise de pouvoir a transformé ce qui était autrefois une ressource imparfaite mais utile en matière dinformation et dinformations électorales en une chambre décho largement non réglementée qui amplifie les discours de haine et la désinformation.Twitter était autrefois l’une des plateformes « les plus responsables », montrant sa volonté de tester des fonctionnalités susceptibles de réduire la désinformation, même au détriment de l’engagement, a déclaré Jesse Lehrich, co-fondateur d’Accountable Tech, un groupe de surveillance à but non lucratif.« De toute évidence, ils se trouvent désormais à l’autre extrémité du spectre », a-t-il déclaré, ajoutant qu’il pensait que les changements apportés par l’entreprise avaient permis à d’autres plateformes d’assouplir leurs propres politiques. X, Meta et YouTube et leurs gestions de la désinformationÀ lapproche de 2024, X, Meta et YouTube ont supprimé ensemble 17 politiques protégeant contre la haine et la désinformation, selon un rapport de Free Press, une organisation à but non lucratif qui défend les droits civil…