Vous ne pouvez pas croire toutes les vidéos que vous voyez. C’est du moins ce que pense Brad Smith, vice-président d’une grande entreprise technologique. Selon lui, l’IA et les deepfakes malveillants représentent une menace croissante pour la société et nécessitent des mesures urgentes pour lutter contre ces problèmes.
D’après des études récentes, il a été constaté une expansion rapide de l’utilisation abusive des nouveaux outils d’IA par des acteurs malveillants. Ces deepfakes, basés sur des vidéos, des sons et des images générés par l’IA, posent de nouvelles menaces pour les élections, la fraude financière, le harcèlement par la pornographie non consensuelle et la nouvelle génération de cyberintimidation.
Pour contrer cette tendance, Brad Smith propose une approche solide et globale, reposant sur six domaines d’action différents. Tout d’abord, une architecture de sécurité solide est essentielle pour contrer les abus d’AI. Il est également important de mettre en place des mesures de provenance et de filigrane des médias durables pour lutter contre les deepfakes. Par ailleurs, la protection des services contre les contenus et comportements abusifs est primordiale, tout en favorisant une forte collaboration entre les entreprises, les gouvernements et la société civile. De plus, une législation modernisée est nécessaire pour protéger les personnes contre l’utilisation abusive des technologies, et enfin, une sensibilisation et éducation du public est indispensable.
Cette approche semble crédible et pertinente dans la lutte contre le contenu abusif de l’IA et les deepfakes malveillants. Cependant, il est nécessaire que d’autres entreprises du secteur technologique se joignent à cette initiative pour obtenir les meilleurs résultats. Il est évident que des efforts difficiles mais essentiels seront nécessaires pour lutter contre cette menace croissante. Grâce à l’engagement collectif en faveur de l’innovation et de la collaboration, il est possible de garantir que la technologie reste en avance dans sa capacité à protéger le public.