Notice: Function _load_textdomain_just_in_time was called incorrectly. Translation loading for the antispam-bee domain was triggered too early. This is usually an indicator for some code in the plugin or theme running too early. Translations should be loaded at the init action or later. Please see Debugging in WordPress for more information. (This message was added in version 6.7.0.) in /home/sc1znnd9108/revue-apprentissages.com/wp-includes/functions.php on line 6114

Notice: Function _load_textdomain_just_in_time was called incorrectly. Translation loading for the wordpress-seo domain was triggered too early. This is usually an indicator for some code in the plugin or theme running too early. Translations should be loaded at the init action or later. Please see Debugging in WordPress for more information. (This message was added in version 6.7.0.) in /home/sc1znnd9108/revue-apprentissages.com/wp-includes/functions.php on line 6114
Un spécialiste de l'IA paniqué par la potentielle marée de désinformation aux élections de 2024 aux États-Unis, avec l'essor des deepfakes et des IA génératives

Un spécialiste de l’IA paniqué par la potentielle marée de désinformation aux élections de 2024 aux États-Unis, avec l’essor des deepfakes et des IA génératives

L’élection présidentielle américaine de 2024 pourrait être marquée par une vague de désinformation sans précédent, alimentée par le développement de l’intelligence artificielle et la dégradation des garde-fous des réseaux sociaux, selon des experts. « Je m’attends à un tsunami de désinformation », a déclaré Oren Etzioni, un expert en IA et professeur émérite à l’Université de Washington. « Je ne peux pas le prouver. J’espère me tromper. Mais les ingrédients sont là, et je suis complètement terrifié. »Un des principaux risques est lié à la diffusion des « deepfakes », des images, des vidéos ou des enregistrements audio truqués grâce à l’IA, qui peuvent faire dire ou faire n’importe quoi à n’importe qui. Ces faux contenus sont de plus en plus faciles à produire et à partager, et peuvent avoir un impact dévastateur sur la crédibilité des candidats ou sur la confiance dans le processus électoral. Par exemple, on pourrait voir un candidat politique être transporté à l’hôpital, ou un candidat dire des choses qu’il ou elle n’a jamais dites.Près de trois ans après que les émeutiers ont pris d’assaut le Capitole des États-Unis, les théories du complot à l’origine de cette violente attaque restent répandues sur les réseaux sociaux et dans l’actualité par câble : valises remplies de bulletins de vote, dépôts de bulletins de vote tard dans la nuit, des morts qui ont voté.Les experts préviennent que la situation sera probablement pire lors de la prochaine élection présidentielle. Les garde-fous qui ont tenté de contrer les fausses allégations la dernière fois s’érodent, tandis que les outils et les systèmes qui les créent et les diffusent ne font que se renforcer.De nombreux Américains, encouragés par l’ancien président Donald Trump, ont continué à promouvoir l’idée, sans fondement, selon laquelle on ne peut pas faire confiance aux élections partout aux États-Unis. Une majorité de républicains (57 %) estiment que le démocrate Joe Biden n’a pas été légitimement élu président.Parallèlement, les outils d’intelligence artificielle générative ont rendu beaucoup moins coûteuse et plus facile la diffusion du type de désinformation susceptible d’induire les électeurs en erreur et potentiellement d’influencer les élections. Et les sociétés de médias sociaux qui investissaient autrefois massivement dans la correction des faits ont changé leurs priorités.« Je m’attends à un tsunami de désinformation », a déclaré Oren Etzioni, expert en intelligence artificielle et professeur émérite à l’Université de Washington. « Je ne peux pas le prouver. J’espère avoir tort. Mais les ingrédients sont là et je suis complètement terrifié ».Les deepfakes IA deviennent de plus en plus répandusLes images et vidéos manipulées entourant les élections ne sont pas nouvelles, mais 2024 sera la première élection présidentielle américaine au cours de laquelle des outils d’IA sophistiqués capables de produire des contrefaçons convaincantes en quelques secondes ne seront qu’à quelques clics.Les images, vidéos et clips audio fabriqués, connus sous le nom de deepfakes, ont commencé à se frayer un chemin dans les publicités expérimentales de la campagne présidentielle. Des versions plus sinistres pourraient facilement se propager sans étiquette sur les réseaux sociaux et tromper les gens quelques jours avant une élection, a déclaré Etzioni.« On pourrait voir un candidat politique être transporté d’urgence à l’hôpital », a-t-il déclaré. « On pourrait voir un candidat dire des choses qu’il n’avait jamais dites. On pourrait assister à une ruée sur les banques. On pouvait voir des bombardements et des violences qui n’ont jamais eu lieu ».Les contrefaçons de haute technologie ont déjà affecté les élections dans le monde entier, a déclaré Larry Norden, directeur principal des élections et du programme gouvernemental au Brennan Center for Justice. Quelques jours seulement avant les récentes élections en Slovaquie, des enregistrements audio générés par l’IA ont usurpé l’identité d’un candidat libéral discutant de projets visant à augmenter les prix de la bière et à truquer les élections. Les vérificateurs de faits se sont efforcés de les identifier comme étant faux, mais ils ont malgré tout été partagés comme étant réels sur les réseaux sociaux.Ces outils pourraient également être utilisés pour cibler des communautés spécifiques et affiner les messages trompeurs sur le vote. Cela pourrait ressembler à des messages texte persuasifs, à de fausses annonces sur les processus de vote partagées dans différentes langues sur WhatsApp, ou à de faux sites Web simulés pour ressembler à ceux officiels du gouvernement de votre région, ont déclaré les experts.Face à un contenu conçu pour paraître réel, « tout ce que nous avons été programmés pour faire au cours de l’évolution va entrer en jeu pour nous faire croire à la fabrication plutôt qu’à la réalité réelle », a déclaré Kathleen Hall Jamieson, spécialiste de la désinformation et directeur du Annenberg Public Policy Center de l’Université de Pennsylvanie.Les Républicains et les Démocrates du Congrès et de la Commission électorale fédérale étudient des mesures pour réglementer la technologie, mais ils n’ont finalisé aucune règle ou législation. Cela laisse aux États le soin d’adopter les seules restrictions jusqu’à présent sur les deepfakes politiques de l’IA.Une poignée d’États ont adopté des lois exigeant que les deepfakes soient étiquetés ou interdisant ceux qui dénaturent les candidats. Certaines sociétés de médias sociaux, notamment YouTube et Meta, qui possèdent Facebook et Instagram, ont introduit des politiques d’étiquetage de l’IA. Reste à voir s’ils seront capables d’arrêter systématiquement les contrevenants. Les protections des médias sociaux s’effondrent : l’exemple de X/TwitterIl y a un peu plus d’un an, Elon Musk a racheté Twitter et a commencé à licencier ses dirigeants, à démanteler certaines de ses fonctionnalités principales et à remodeler la plateforme de médias sociaux pour en faire ce que l’on appelle désormais X.Depuis lors, il a bouleversé le système de vérification, laissant les agents publics vulnérables aux usurpateurs d’identité. Il s’est débarrassé des équipes qui luttaient autrefois contre la désinformation sur la plateforme, laissant la communauté des utilisateurs se modérer. Et il a rétabli les comptes de théoriciens du complot et d’extrémistes qui étaient auparavant bannis.Les changements ont été applaudis par de nombreux conservateurs qui affirment que les précédentes tentatives de modération de Twitter équivalaient à une censure de leurs opinions. Mais les partisans des démocrates affirment que cette prise de pouvoir a transformé ce qui était autrefois une ressource imparfaite mais utile en matière d’information et d’informations électorales en une chambre d’écho largement non réglementée qui amplifie les discours de haine et la désinformation.Twitter était autrefois l’une des plateformes « les plus responsables », montrant sa volonté de tester des fonctionnalités susceptibles de réduire la désinformation, même au détriment de l’engagement, a déclaré Jesse Lehrich, co-fondateur d’Accountable Tech, un groupe de surveillance à but non lucratif.« De toute évidence, ils se trouvent désormais à l’autre extrémité du spectre », a-t-il déclaré, ajoutant qu’il pensait que les changements apportés par l’entreprise avaient permis à d’autres plateformes d’assouplir leurs propres politiques. X, Meta et YouTube et leurs gestions de la désinformationÀ l’approche de 2024, X, Meta et YouTube ont supprimé ensemble 17 politiques protégeant contre la haine et la désinformation, selon un rapport de Free Press, une organisation à but non lucratif qui défend les droits civil…

Laisser un commentaire