Les entreprises spécialisées dans l’intelligence artificielle (IA) sont sur le point de faire face à de nouvelles obligations de sécurité aux États-Unis. En effet, le gouvernement Biden a décidé de mettre en place une exigence obligeant les développeurs de principaux systèmes d’IA à communiquer leurs tests de sécurité aux autorités fédérales. Cette décision fait suite à un décret signé par le président Joe Biden il y a trois mois, dans le but de superviser la rapide évolution de la technologie.
Cette nouvelle régulation oblige les entreprises d’IA à partager des informations critiques avec le ministère du Commerce, y compris les tests de sécurité réalisés sur leurs systèmes d’IA. Ben Buchanan, conseiller spécial de la Maison Blanche pour l’IA, a souligné que cette mesure vise à « s’assurer que les systèmes d’IA sont sûrs avant de les rendre accessibles au public ». Il a également fait remarquer que le gouvernement est déterminé à ce que les entreprises respectent cette exigence.
Bien que les éditeurs de logiciels se soient engagés à respecter un ensemble de catégories pour les tests de sécurité, il n’existe pas encore de norme commune en la matière. Cependant, l’Institut national des normes et de la technologie du gouvernement est sur le point d’élaborer un cadre uniforme pour évaluer la sécurité des systèmes d’IA, conformément à l’ordonnance signée par le président Biden en octobre.
L’IA étant devenue l’une des principales préoccupations du gouvernement fédéral en matière d’économie et de sécurité nationale, des études ont montré que des investissements et des incertitudes provoqués par le lancement de nouveaux outils d’IA alertent les autorités. Pour cette raison, l’administration Biden envisage également de légiférer au niveau du Congrès et travaille avec d’autres pays et l’Union européenne sur les règles de gestion de la technologie.
Le ministère du Commerce a d’ores et déjà établi des réglementations concernant les sociétés américaines de cloud computing qui fournissent des serveurs aux développeurs étrangers d’IA. En outre, neuf agences fédérales ont réalisé des évaluations des risques concernant l’utilisation de l’IA dans les infrastructures nationales critiques, telles que le réseau électrique.
En parallèle, le gouvernement a rapidement accéléré le recrutement d’experts en IA et de data scientists au sein des agences fédérales. Ces décisions ont été accueillies favorablement par les acteurs de l’industrie de l’IA qui soulignent l’importance de réguler et gérer cette technologie de manière proactive.
Au final, ces mesures prises par le gouvernement américain semblent légitimes et pertinentes pour assurer la sécurité et la régulation de l’IA, un domaine en pleine évolution. En effet, l’application de tests de sécurité et le respect de réglementations définies contribueront à renforcer la confiance du public dans l’utilisation de l’intelligence artificielle et à répondre aux défis liés à son développement.