OpenAI forme une équipe dédiée à l’étude des périls liés à l’IA, y compris les dangers nucléaires

OpenAI crée une équipe chargée d’étudier les risques catastrophiques liés à l’IA, y compris les menaces nucléaires

Dans le cadre de notre mission visant à créer une IA sécurisée, nous prenons au sérieux tous les risques liés à la sécurité de l’IA, des systèmes actuels jusqu’aux confins de la superintelligence. Nous sommes conscients que les avancées de l’intelligence artificielle peuvent présenter des risques, notamment dans le domaine nucléaire. Ainsi, nous mettons en place une nouvelle équipe appelée Preparedness, qui sera chargée d’étudier en profondeur les risques catastrophiques liés à l’IA, y compris l’éventuelle utilisation malveillante de l’IA dans le domaine nucléaire.

Pour minimiser ces risques alors que les modèles d’IA continuent de s’améliorer, l’équipe de préparation sera dirigée par Aleksander Madry, un expert renommé dans le domaine de la sécurité de l’IA. Cette équipe travaillera en étroite collaboration avec des chercheurs de premier plan, des spécialistes en évaluation des capacités et des experts en sécurité. Leur mission sera de surveiller, d’évaluer, de prévoir et de se protéger contre les risques catastrophiques liés à l’IA, en mettant l’accent sur les menaces nucléaires.

L’équipe de préparation abordera également d’autres catégories de risques, notamment la persuasion individualisée, la cyber-sécurité, les menaces chimiques, biologiques, radiologiques et nucléaires (CBRN) ainsi que la reproduction et l’adaptation autonomes (ARA). Ils développeront ainsi une expertise transversale pour répondre efficacement aux défis que pose l’IA dans ces différents domaines.

La création de l’équipe de préparation s’inscrit dans notre politique de développement tenant compte des risques (RDP). Cette politique vise à évaluer et surveiller rigoureusement les capacités des modèles d’IA, à établir des mesures de protection appropriées et à mettre en place une structure de gouvernance pour superviser ce processus de développement. Le RDP sera complémentaire de nos travaux existants visant à atténuer les risques liés à l’IA, afin d’assurer la sécurité et l’alignement des nouveaux systèmes de haute performance, tant avant qu’après leur déploiement.

Si vous êtes intéressé à contribuer à cette mission et à repousser les limites de nos modèles d’IA, nous vous invitons à rejoindre notre équipe de préparation. Nous recherchons des talents exceptionnels issus de divers horizons techniques pour renforcer notre équipe.

Dans le cadre de notre engagement en faveur de la sécurité et de la prévention des risques liés à l’IA, nous lançons également un défi de préparation à l’IA pour la prévention des abus catastrophiques. Ce défi vise à identifier les domaines de préoccupation moins évidents et à encourager l’innovation dans ce domaine critique. Les dix meilleures propositions se verront récompensées par 25 000 $ en crédits API, et nous rechercherons également des candidats de préparation parmi les participants du défi.

OpenAI est engagée à assurer la sécurité de l’IA et à prévenir les risques catastrophiques, y compris les menaces nucléaires. Grâce à notre équipe de préparation et à notre politique de développement tenant compte des risques, nous travaillerons pour garantir que les bénéfices de l’IA puissent être exploités de manière sécurisée et responsable.

Laisser un commentaire