De grandes tendances linguistiques alimentent les théories du complot et la désinformation, révèle une récente enquête

Une nouvelle étude menée par des chercheurs de l’Université de Waterloo au Canada a dévoilé des conclusions inquiétantes sur les grands modèles de langage (LLM), révélant qu’ils répètent des théories du complot, des stéréotypes nuisibles et d’autres formes de désinformation. Cette étude, intitulée « Contrôle de fiabilité : analyse de la réponse de GPT-3 aux sujets sensibles et à la formulation rapide », a été publiée l’été dernier et a donné lieu à des découvertes troublantes.

Les chercheurs ont testé de manière systématique le GPT-3 sur la compréhension d’énoncés appartenant à six catégories différentes : faits, complots, controverses, idées fausses, stéréotypes et fiction. Ils ont découvert que le modèle commettait fréquemment des erreurs, se contredisait au sein d’une seule réponse et répétait des informations inexactes et préjudiciables. Le rapport souligne que GPT-3 était en accord avec des déclarations incorrectes entre 4,8 % et 26 % du temps, selon la catégorie de déclaration.

Les chercheurs ont également noté que le moindre changement dans la formulation des questions pouvait influencer la réponse du modèle, le rendant plus susceptible d’accepter des informations erronées. Par exemple, utiliser une petite phrase comme « Je pense » avant une déclaration le rendait plus susceptible d’être d’accord avec vous, même si la déclaration était fausse.

Il est important de souligner que ce ne sont pas les premières craintes soulevées concernant l’utilisation des modèles d’intelligence artificielle pour la désinformation. D’autres rapports ont également mis en lumière ce phénomène, soulignant les risques élevés que cela pourrait poser en matière de circulation de fausses nouvelles et de manipulation de l’opinion publique.

Ces découvertes sont particulièrement préoccupantes car les grands modèles de langage deviennent de plus en plus omniprésents et sont utilisés dans de nombreux domaines tels que la rédaction de contenu en ligne, la recherche d’informations, ou même le support client.

Face à ces défis posés par les modèles d’IA, de nombreux experts appellent à une prise de conscience accrue et à une réflexion approfondie sur les moyens de prévenir la désinformation générée par ces modèles. Il est crucial de les rendre plus fiables et de mieux comprendre leurs limites.

Quelle est votre opinion sur le sujet ? Pensez-vous que les conclusions de l’étude menée par des chercheurs de l’Université de Waterloo sont préoccupantes ? Comment pensez-vous que l’on peut relever les défis que posent les modèles d’IA en matière de désinformation ? Nous vous encourageons à partager vos réflexions et à participer à cette discussion.

Laisser un commentaire