98 % des deepfakes sont utilisés dans des contenus pornographiques, selon une étude de Home Security Heroes
Les deepfakes, ces vidéos falsifiées grâce à l’intelligence artificielle, sont devenus de plus en plus impressionnants au fil des années. Si les premières vidéos virales de deepfakes étaient relativement inoffensives, comme celles montrant des personnes se faisant passer pour des célébrités, il n’a pas fallu longtemps pour que les aspects plus sombres de cette technologie se révèlent.
Leur utilisation dans la désinformation politique a déjà suscité une grande controverse, mais le véritable danger des deepfakes se trouve ailleurs. Selon l’étude « 2023 State of Deepfakes » réalisée par Home Security Heroes, 98 % de tous les deepfakes appartiennent à un genre spécifique : le contenu explicite.
Il n’est pas surprenant qu’une technologie capable d’imiter parfaitement l’apparence d’une personne soit utilisée pour produire des vidéos à caractère pornographique. Cependant, le fait que la grande majorité des deepfakes soient utilisés dans ce genre est préoccupant. Cette étude révèle que 98 % des personnes dont les images sont utilisées dans des deepfakes explicites sont des femmes, mais 48 % des téléspectateurs sont des hommes. Plus alarmant encore, 74 % des hommes interrogés ont déclaré ne voir aucun problème avec les deepfakes explicites, ou du moins ne pas ressentir de culpabilité.
Une autre statistique inquiétante de ce rapport est l’augmentation de 550 % du nombre de deepfakes en ligne entre 2019 et 2023, la grande majorité étant utilisée dans l’industrie du contenu pour adultes. Les sites spécialisés dans les deepfakes explicites ont enregistré près de 5 millions de visiteurs uniques depuis le début de l’année, et 7 des 10 sites de streaming de vidéos pour adultes les plus populaires en présentaient également.
Si le simple remplacement des actrices par l’IA pourrait être un débat différent, la réalité est que la plupart des deepfakes explicites ne sont pas réalisés avec le consentement des personnes concernées. De nombreuses femmes ont été victimes de chantage à l’aide de deepfakes les représentant dans des situations compromettantes, et beaucoup de ces cas peuvent être considérés comme une forme d’agression. Même les mineurs ne sont pas à l’abri de cette menace, comme en témoigne un récent cas en Espagne impliquant 30 jeunes filles âgées de 12 à 14 ans.
Alors que les femmes sont les principales victimes et que près de trois hommes sur quatre ne réalisent pas à quel point les deepfakes sont contraires à l’éthique, il est plus important que jamais que les gouvernements adoptent des réglementations pour atténuer les dommages psychologiques considérables qu’ils peuvent causer. Malheureusement, presque aucun État n’a encore adopté de lois spécifiques concernant les deepfakes. Encore moins ont fait de la création d’un deepfake explicite sans consentement un délit pénal, obligeant de nombreuses victimes à régler leur affaire devant un tribunal civil.
Les chiffres alarmants de cette étude menée par Home Security Heroes nous rappellent l’urgence de la situation. Il est crucial que des mesures soient prises pour protéger les individus des conséquences néfastes des deepfakes. La sensibilisation du public sur ce problème est également essentielle pour remettre en question l’idée répandue selon laquelle les deepfakes explicites ne sont pas problématiques.
Sources :
– Étude « 2023 State of Deepfakes » de Home Security Heroes