Notice: Function _load_textdomain_just_in_time was called incorrectly. Translation loading for the antispam-bee domain was triggered too early. This is usually an indicator for some code in the plugin or theme running too early. Translations should be loaded at the init action or later. Please see Debugging in WordPress for more information. (This message was added in version 6.7.0.) in /home/sc1znnd9108/revue-apprentissages.com/wp-includes/functions.php on line 6114

Notice: Function _load_textdomain_just_in_time was called incorrectly. Translation loading for the wordpress-seo domain was triggered too early. This is usually an indicator for some code in the plugin or theme running too early. Translations should be loaded at the init action or later. Please see Debugging in WordPress for more information. (This message was added in version 6.7.0.) in /home/sc1znnd9108/revue-apprentissages.com/wp-includes/functions.php on line 6114
Le dérangeant engouement des deepfakes dans l'industrie X, révèle une enquête audacieuse de Gardiens de la Sécurité Domestique

Le dérangeant engouement des deepfakes dans l’industrie X, révèle une enquête audacieuse de Gardiens de la Sécurité Domestique

98 % des deepfakes sont utilisés dans des contenus pornographiques, selon une étude de Home Security Heroes

Les deepfakes, ces vidéos falsifiées grâce à l’intelligence artificielle, sont devenus de plus en plus impressionnants au fil des années. Si les premières vidéos virales de deepfakes étaient relativement inoffensives, comme celles montrant des personnes se faisant passer pour des célébrités, il n’a pas fallu longtemps pour que les aspects plus sombres de cette technologie se révèlent.

Leur utilisation dans la désinformation politique a déjà suscité une grande controverse, mais le véritable danger des deepfakes se trouve ailleurs. Selon l’étude « 2023 State of Deepfakes » réalisée par Home Security Heroes, 98 % de tous les deepfakes appartiennent à un genre spécifique : le contenu explicite.

Il n’est pas surprenant qu’une technologie capable d’imiter parfaitement l’apparence d’une personne soit utilisée pour produire des vidéos à caractère pornographique. Cependant, le fait que la grande majorité des deepfakes soient utilisés dans ce genre est préoccupant. Cette étude révèle que 98 % des personnes dont les images sont utilisées dans des deepfakes explicites sont des femmes, mais 48 % des téléspectateurs sont des hommes. Plus alarmant encore, 74 % des hommes interrogés ont déclaré ne voir aucun problème avec les deepfakes explicites, ou du moins ne pas ressentir de culpabilité.

Une autre statistique inquiétante de ce rapport est l’augmentation de 550 % du nombre de deepfakes en ligne entre 2019 et 2023, la grande majorité étant utilisée dans l’industrie du contenu pour adultes. Les sites spécialisés dans les deepfakes explicites ont enregistré près de 5 millions de visiteurs uniques depuis le début de l’année, et 7 des 10 sites de streaming de vidéos pour adultes les plus populaires en présentaient également.

Si le simple remplacement des actrices par l’IA pourrait être un débat différent, la réalité est que la plupart des deepfakes explicites ne sont pas réalisés avec le consentement des personnes concernées. De nombreuses femmes ont été victimes de chantage à l’aide de deepfakes les représentant dans des situations compromettantes, et beaucoup de ces cas peuvent être considérés comme une forme d’agression. Même les mineurs ne sont pas à l’abri de cette menace, comme en témoigne un récent cas en Espagne impliquant 30 jeunes filles âgées de 12 à 14 ans.

Alors que les femmes sont les principales victimes et que près de trois hommes sur quatre ne réalisent pas à quel point les deepfakes sont contraires à l’éthique, il est plus important que jamais que les gouvernements adoptent des réglementations pour atténuer les dommages psychologiques considérables qu’ils peuvent causer. Malheureusement, presque aucun État n’a encore adopté de lois spécifiques concernant les deepfakes. Encore moins ont fait de la création d’un deepfake explicite sans consentement un délit pénal, obligeant de nombreuses victimes à régler leur affaire devant un tribunal civil.

Les chiffres alarmants de cette étude menée par Home Security Heroes nous rappellent l’urgence de la situation. Il est crucial que des mesures soient prises pour protéger les individus des conséquences néfastes des deepfakes. La sensibilisation du public sur ce problème est également essentielle pour remettre en question l’idée répandue selon laquelle les deepfakes explicites ne sont pas problématiques.

Sources :
– Étude « 2023 State of Deepfakes » de Home Security Heroes

Laisser un commentaire