Les États-Unis inaugurent leur propre organe de sécurité en IA pour prévenir les vulnérabilités croissantes des modèles avancés et contrer leurs répercussions prévisibles

Les États-Unis vont lancer leur propre institut de sécurité de l’IA afin d’évaluer les risques émergents des modèles d’IA avancés et de traiter les impacts connus

Le gouvernement américain a récemment annoncé le lancement d’un AI Safety Institute pour évaluer les risques connus et émergents des modèles d’intelligence artificielle (IA) dits « pionniers ». Cette initiative vise à renforcer la sécurité et la confiance dans les applications de l’IA, en mettant l’accent sur l’identification des risques potentiels et le développement de normes de sécurité.

La secrétaire d’État au Commerce, Gina Raimondo, a déclaré lors d’un discours prononcé lors du Sommet sur la sécurité de l’IA en Grande-Bretagne : « Je demanderai certainement à beaucoup d’entre vous qui sont dans le public et qui travaillent dans le monde universitaire et industriel de faire partie de ce consortium. Nous ne pouvons pas y parvenir seuls, le secteur privé doit s’impliquer« . La création de cet institut est un pas important dans la collaboration entre le gouvernement, les universités et l’industrie pour faire face aux défis liés à la sécurité de l’IA.

L’institut américain sera placé sous la responsabilité du National Institute of Standards and Technology (NIST) et dirigera les efforts du gouvernement en matière de sécurité de l’IA. Il aura pour mission d’évaluer les risques émergents liés aux modèles d’IA avancés et de développer des normes de sécurité pour garantir l’authentification du contenu généré par l’IA. De plus, il fournira des environnements de test permettant aux chercheurs d’évaluer les risques inhérents à l’IA émergente et de traiter les impacts connus.

La création de cet institut fait suite à un décret signé par le président Joe Biden, exigeant que les développeurs de systèmes d’IA présentant des risques pour la sécurité nationale partagent les résultats des tests de sécurité avec le gouvernement américain avant de les rendre publics. Ce décret vise à renforcer la sécurité et à protéger les intérêts des États-Unis dans le domaine de l’IA.

L’institut américain collaborera également avec des instituts similaires dans d’autres pays alliés et partenaires pour harmoniser et coordonner les travaux de sécurité de l’IA. Une collaboration formelle avec l’institut de sécurité britannique est déjà envisagée, permettant ainsi un échange de connaissances et d’expériences entre les deux pays.

L’objectif principal de cet institut sera de promouvoir des normes de sécurité robustes dans le domaine de l’IA et de garantir que les systèmes d’IA développés aux États-Unis sont fiables et ne présentent pas de risques pour la sécurité nationale, l’économie, la santé publique ou la cybersécurité.

En conclusion, le lancement de cet institut de sécurité de l’IA par les États-Unis démontre l’importance croissante accordée à la sécurité et à la confiance dans les applications de l’IA. Il s’agit d’une démarche proactive visant à évaluer les risques émergents et à garantir le développement de normes de sécurité pour faire face aux défis futurs de l’IA. Grâce à la collaboration entre le gouvernement, les universités et l’industrie, il est possible de créer un environnement sûr et fiable pour l’innovation et l’utilisation de l’IA.

Laisser un commentaire