Plusieurs dirigeants du monde signent une déclaration reconnaissant la nécessité d’atténuer les risques liés à l’intelligence artificielle (IA), mais le document n’est pas juridiquement contraignant et est vivement critiqué.
Le sommet international du Royaume-Uni sur la sécurité de l’IA a connu la signature d’une déclaration dans laquelle les participants s’engagent à œuvrer pour le développement d’une IA responsable. Ils ont promis de travailler ensemble pour tester la sécurité des nouveaux modèles d’IA avant qu’ils ne soient mis sur le marché. L’initiative vise à lutter contre les risques « catastrophiques » que l’IA pourrait présenter. Mais l’accord, qui est signé par des représentants de 28 pays, dont les États-Unis, la France, le Royaume-Uni et la Chine, n’est pas juridiquement contraignant.
Le Premier ministre britannique, Rishi Sunak, a organisé la semaine dernière un sommet international de deux jours sur la sécurité de l’IA à Bletchley Park, en Angleterre. Les représentants de 28 pays, des PDG d’entreprises, des chercheurs, ainsi que des dirigeants d’organisations internationales telles que l’UE et les Nations Unies ont participé au sommet. Les participants ont échangé pendant deux jours sur les perspectives et la sécurité de l’IA. À la fin, ils ont convenu de travailler en faveur d’un accord et d’une responsabilité partagés concernant les risques liés à l’IA, et ont prévu d’organiser d’autres réunions dans les prochains mois, en Corée du Sud et en France.
Dès le premier jour du sommet, qualifié de « première historique » par Rishi Sunak, les participants ont signé la déclaration de Bletchley, une déclaration commune reconnaissant les risques liés à la technologie. Bletchley Park est un site historique reconnu comme étant le berceau de l’informatique moderne. Le site, qui abrite le National Museum of Computing, des bureaux d’entreprise et plusieurs attractions, est le lieu où opérait le célèbre Alan Turing pendant la Seconde Guerre mondiale pour décrypter les codes militaires utilisés par l’Allemagne nazie et ses alliés.
La déclaration de Bletchley reconnaît le potentiel et les dangers potentiels de l’IA. À travers la déclaration de Bletchley, les signataires s’engagent en faveur d’une coopération internationale inclusive pour répondre aux préoccupations en matière de sécurité de l’IA, en proposant des mesures telles que des normes éthiques, la transparence, des tests de sécurité et l’éducation du public. De plus, elle soutient la création d’un réseau international de recherche axé sur la sécurité de l’IA de pointe.
La déclaration de Bletchley repose sur cinq points fondamentaux, à savoir :
1. Insister sur la nécessité d’une IA sûre et responsable : la déclaration de Bletchley souligne l’importance de développer une IA sûre, centrée sur l’être humain, digne de confiance et responsable, en mettant l’accent sur la protection des droits de l’homme et en veillant à ce qu’elle soit largement bénéfique.
2. Reconnaître les opportunités et les risques : la déclaration de Bletchley reconnaît le vaste potentiel de l’IA et les risques qui y sont associés, en particulier dans le cas de l’IA exploratoire, qui possède des capacités puissantes et potentiellement dangereuses qui restent mal comprises et imprévisibles.
3. S’engager en faveur d’une coopération inclusive : la déclaration de Bletchley s’engage à collaborer entre les nations et les parties prenantes, en plaidant pour une coopération inclusive afin d’aborder les risques de sécurité liés à l’IA. Cette collaboration se fera par l’intermédiaire des plateformes internationales existantes et d’autres initiatives pertinentes.
4. Proposer des mesures pour la sécurité de l’IA : la déclaration de Bletchley propose diverses mesures pour garantir la sécurité de l’IA, notamment l’établissement de normes éthiques, la transparence et la responsabilité, des procédures rigoureuses de test et d’évaluation de la sécurité, ainsi que la sensibilisation du public et la promotion de l’éducation sur les questions liées à l’IA.
5. Soutenir la recherche internationale : la déclaration de Bletchley soutient la création d’un réseau international de recherche scientifique axé sur la sécurité de l’IA. Cette recherche fournira des informations précieuses pour l’élaboration des politiques et le bien public, tout en contribuant à des dialogues internationaux plus larges sur l’IA.
La secrétaire d’État britannique à la Science, à l’Innovation et à la Technologie, Michelle Donelan, a déclaré que l’accord était une réalisation historique et jetait les bases des discussions internationales sur la sécurité de l’IA. Cependant, des experts en IA estiment que l’accord ne va pas assez loin. « Réunir les grandes puissances pour approuver des principes éthiques peut être considéré comme un succès, mais l’élaboration de politiques concrètes et de mécanismes de responsabilité doit suivre rapidement », a déclaré Paul Teather, PDG de la société de recherche sur l’IA AMPLYFI. Selon lui, les conclusions ne sont pas à la hauteur des attentes de l’industrie.
Teather a ajouté : « Une terminologie vague laisse place à des interprétations erronées, tandis que le fait de s’appuyer uniquement sur une coopération volontaire est insuffisant pour susciter de meilleures pratiques reconnues sur le plan mondial en matière d’IA ». En outre, les législateurs européens ont mis en garde contre le fait que trop de technologies et de données étaient détenues par un petit nombre d’entreprises dans un seul pays, les États-Unis. Selon eux, cette situation pourrait créer un monopole et empêcher une concurrence équitable dans le secteur. « Le fait qu’un seul pays détienne toutes les technologies, toutes les entreprises privées, tous les appareils et toutes les compétences sera un échec pour nous tous », a déclaré le ministre français de l’Économie et des Finances, Bruno Le Maire.
De plus, des désaccords subsistent quant à la manière exacte de réglementer l’IA et quant à savoir qui dirigera ces efforts. Par exemple, le Royaume-Uni s’est démarqué de l’UE en proposant une approche légère de la réglementation de l’IA, contrairement à la loi de l’UE sur l’IA, qui est en cours de finalisation et contraindra les développeurs d’applications considérées comme haut risque à des contrôles plus stricts. « Je suis venue à ce sommet pour vendre notre loi sur l’IA », a déclar