Les États-Unis et le Royaume-Uni, accompagnés de 16 autres pays partenaires, ont récemment publié de nouvelles lignes directrices pour le développement de systèmes d’intelligence artificielle (IA) sûrs et sécurisés. Cette initiative vise à prioriser la sécurité des résultats pour les clients, tout en adoptant une approche de transparence et de responsabilité radicales, et en mettant en place des structures organisationnelles où la conception sécurisée est considérée comme une priorité absolue.
Selon des déclarations de l’Agence américaine de cybersécurité et de sécurité des infrastructures (CISA), cette approche vise à accroître les niveaux de cybersécurité de l’IA et à garantir que la technologie est conçue, développée et déployée de manière sécurisée. Le Centre national de cybersécurité (NCSC) a également souligné que l’objectif est de gérer les risques posés par l’IA, en mettant l’accent sur des tests appropriés avant la mise en public des nouveaux outils et en mettant en place des garanties pour lutter contre les préjudices sociétaux, tels que les préjugés, la discrimination et les problèmes de confidentialité.
Les entreprises qui travaillent dans le domaine de l’IA sont également encouragées à permettre un processus plus fluide de découverte et de signalement des vulnérabilités de leurs systèmes grâce à un système de « bug bounty ». Les dernières directives visent à aider les développeurs à s’assurer que la cybersécurité est un prérequis essentiel à la sécurité des systèmes d’IA. Elles encouragent une approche « sécurisée dès la conception » qui implique une conception, un développement, un déploiement, une exploitation et une maintenance sécurisés des systèmes d’IA.
Les agences impliquées soulignent que l’objectif est également de lutter contre les attaques adverses ciblant les systèmes d’IA et d’apprentissage automatique. Cela inclut des comportements involontaires, des actions non autorisées et l’extraction d’informations sensibles. Ces effets peuvent être obtenus par le biais de diverses attaques, telles que l’empoisonnement des données, les attaques par injection rapide dans le domaine des grands modèles de langage, ou la corruption délibérée des données de formation ou des commentaires des utilisateurs.
Ces nouvelles directives suscitent l’opinion publique et font partie d’un mouvement mondial visant à atténuer les risques liés à l’IA, tout en garantissant la transparence et la compétitivité des pays qui y sont impliqués. En outre, diverses discussions sont en cours au niveau européen pour renforcer les réglementations relatives à l’IA, notamment en ce qui concerne l’utilisation de chatbots et des matériaux protégés par le droit d’auteur.
Source : Lignes directrices pour le développement de systèmes d’IA sécurisés, publiées par le NCSC, le CISA et d’autres partenaires internationaux
Et vous, quelle est votre opinion sur le sujet ? Trouvez-vous cette initiative pertinente et cohérente ?