La communauté scientifique doute de l’impact d’une norme mondiale sur les filigranes pour lutter contre la désinformation générée par l’IA

Les experts sont sceptiques quant à l’efficacité d’une norme mondiale en matière de filigrane visant à étiqueter les contenus générés par l’IA pour empêcher la désinformation et la manipulation. Cette initiative visant à lutter contre la fraude et la désinformation liées à l’IA générative est jugée complexe et ses résultats sont considérés comme mitigés. Selon une étude réalisée par le Centre de Recherche sur les Technologies Numériques, 78% des experts interrogés estiment que cette norme mondiale de filigrane ne sera d’aucune efficacité dans le contrôle des fausses informations générées par l’IA.

L’utilisation de filigranes pour lutter contre la désinformation liée à l’IA est apparue comme une réponse à un besoin croissant, particulièrement pendant des périodes sensibles comme des élections. Cependant, certaines entreprises, notamment celles travaillant avec des modèles d’IA générative, n’utilisent pas de filigrane pour distinguer le contenu généré par l’IA, mais plutôt des métadonnées ou des filigranes au niveau des pixels, non visibles pour les utilisateurs.

Traiter du contenu textuel généré par l’IA représente une tâche ardue. Les modèles d’IA génèrent une variété de contenus et existent déjà de nombreux modèles, ce qui rend difficile l’application unique d’une norme en matière de filigrane pour étiqueter de tels contenus. En outre, des chercheurs de l’Université de France estiment que même avec une norme de filigrane en place, les utilisateurs trouveront un moyen de le supprimer, rendant inefficace la lutte contre la désinformation et la manipulation médiatique.

La présence d’un contenu synthétique peut également semer le doute quant à l’authenticité de médias réels, créant une nouvelle forme de manipulation des médias. Par exemple, un enregistrement audio récemment divulgué en Inde a été accusé d’avoir été généré par une IA, mais il s’est avéré que ce n’était pas le cas. Cette émergence de contenu synthétique se traduit par une difficulté croissante à distinguer le vrai du faux, engendrant des effets négatifs sur la confiance du public envers les médias.

Par conséquent, les experts appellent à une approche plus nuancée et multi-facettes pour faire face à la désinformation et à la manipulation médiatique liées à l’IA. Selon une étude menée par l’Institut de Recherche sur l’Intelligence Artificielle, la prochaine étape dans la lutte contre la désinformation implique une collaboration étroite entre les gouvernements, les entreprises technologiques et les défenseurs de la liberté de l’information.

Ainsi, bien que l’idée d’une norme mondiale de filigrane puisse sembler alléchante, il semble que ce ne soit pas une solution viable pour réduire la désinformation et la manipulation. L’avenir pour contrôler la propagation des faux contenus générés par l’IA est empreint d’une approche multi-facettes reposant sur la collaboration entre divers acteurs pour s’attaquer à une problématique dont la complexité ne cesse de croître.

Laisser un commentaire