La Maison Blanche vise à protéger l’intégrité des vidéos de Joe Biden avec une vérification cryptographique, reconnaissant le risque de manipulation par des « deepfakes »

La Maison Blanche veut s’attaquer au problème croissant des deepfakes et de l’IA générative en développant une méthode pour « vérifier cryptographiquement » ses vidéos afin que les téléspectateurs puissent être assurés de leur authenticité. Cette initiative vise à empêcher la confusion entre les vidéos authentiques et les deepfakes malveillants, et à répondre à la préoccupation de « préjudice » exprimée par l’administration.

Avec la prolifération d’outils d’IA générative conviviaux et la montée en puissance des deepfakes, la Maison Blanche reconnaît la nécessité de protéger l’intégrité de ses communications officielles. Alors que les deepfakes deviennent de plus en plus réalistes, il devient de plus en plus difficile pour les téléspectateurs de distinguer les vidéos authentiques de celles qui ont été altérées.

Un expert en intelligence artificielle de l’administration a révélé que des mesures sont en cours pour développer une méthode de « vérification cryptographique » des vidéos officielles. Cette méthode impliquerait l’utilisation d’une clé privée et d’une clé publique pour vérifier l’authenticité des vidéos. L’idée est que tout fichier modifié par un tiers ne contiendrait pas la valeur de hachage originale, ce qui permettrait de vérifier son authenticité.

Cependant, malgré les efforts déployés pour lutter contre les deepfakes, des inquiétudes subsistent quant à l’utilisation potentielle de cette méthode à des fins politiques. Il est possible que la Maison Blanche utilise cette technologie pour revendiquer la « vérité » ou pour éviter de prendre la responsabilité d’erreurs ou de gaffes. Cela soulève la question de savoir si cette méthode pourrait être utilisée à des fins militaires ou politiques.

En Europe, les autorités sont également préoccupées par le risque d’utilisation abusive de contenu généré par l’IA et travaillent à développer des mesures similaires pour lutter contre les deepfakes. Les géants de la technologie sont également appelés à coopérer pour identifier et étiqueter les contenus créés par l’IA générative, de sorte qu’il soit clair qu’ils ne sont pas « réels ». Cette initiative vise à protéger l’intégrité des informations diffusées en ligne et à prévenir la propagation de la désinformation.

En fin de compte, ces initiatives visent à renforcer la confiance du public dans les informations provenant de la Maison Blanche et à lutter contre la prolifération des deepfakes et de la désinformation en ligne. Il reste à voir comment ces mesures seront mises en œuvre et quel impact elles auront sur la lutte contre ce phénomène croissant.

Laisser un commentaire