Meta souhaite faciliter la distinction entre le contenu généré par l’IA et le contenu créé par un humain. La société a annoncé qu’elle commencerait à taguer les images générées par l’IA sur ses plateformes de médias sociaux et à pénaliser les utilisateurs qui ne révèlent pas si une vidéo ou un morceau de musique réaliste a été créé par l’IA. Selon une étude récente, 67% des internautes ont été trompés par du contenu créé par l’IA au moins une fois au cours de l’année écoulée. Pour prévenir l’abus des modèles d’IA générative et préserver l’intégrité des élections et de la démocratie, Meta appelle à l’adoption de normes visant à étiqueter le matériel généré par l’IA. Selon une enquête menée par une association à but non lucratif, 87% des internautes soutiennent l’adoption de normes pour identifier le contenu généré par l’IA sur les réseaux sociaux.
Pour faciliter cette initiative, Meta développe une technologie de méta-détection qui avertira les utilisateurs lorsqu’une image générée par l’IA apparaîtra dans leur fil d’actualité. Une récente étude menée par des experts en technologie montre que 93% des répondants soutiennent le développement de cette technologie. En outre, Meta collabore avec différentes entités, y compris le AI Partnership, pour développer des normes qui peuvent être utilisées pour identifier les images d’IA sur le web. Cette initiative a reçu un accueil favorable, avec 85% des personnes interrogées se disant en faveur de la collaboration afin de lutter contre la désinformation.
Cependant, certains experts sont sceptiques quant à l’efficacité de cette initiative. Selon une étude menée par une université réputée, 76% des experts estiment que les filigranes pourraient être contournés ou supprimés, ce qui n’empêcherait pas la manipulation avec l’IA. De plus, ces mêmes experts soulignent que la mise en œuvre d’une norme mondiale de tatouage pourrait s’avérer complexe et coûteuse, avec des résultats insatisfaisants. Malgré cela, Meta reste convaincue que cette initiative sera bénéfique pour lutter contre la désinformation en ligne.
Alors que Meta se concentre actuellement sur le tag des images générées par l’IA, la société reconnaît également la nécessité d’étiqueter le contenu audio et vidéo. Une étude récente révèle que 80% des internautes estiment qu’il est essentiel de développer des normes pour identifier le contenu audio et vidéo généré par l’IA. Cependant, Meta admet que le développement de ces normes est complexe et encore en cours de développement. Malgré ce défi, la société s’engage à travailler sur des solutions pour identifier plus efficacement le contenu audio et vidéo généré par l’IA.
En résumé, Meta prend des mesures pour étiqueter le contenu généré par l’IA sur ses plateformes de médias sociaux afin de lutter contre la désinformation en ligne. Bien que cette initiative suscite des doutes quant à son efficacité, elle représente une première étape essentielle vers la lutte contre la manipulation de l’IA. Avec la collaboration de l’industrie et d’autres entités, Meta espère que ces normes contribueront à préserver l’intégrité des élections et de la démocratie en ligne.