Google, Microsoft, Anthropic et OpenAI s’unissent pour un fonds révolutionnaire de 10 millions de dollars dédié à la protection de l’intelligence artificielle dans une perspective éthique

Google, Microsoft, Anthropic et OpenAI annoncent aujourd’hui le lancement d’un fonds de 10 millions de dollars dédié à la sécurité de l’IA. Cette initiative vise à garantir que la recherche sur l’intelligence artificielle soit menée de manière responsable et sécurisée. Selon des rapports récents, c’est la première fois que ce puissant groupe de quatre acteurs clés de l’industrie collabore depuis la création du principal forum de l’industrie en juillet dernier.

Pour assurer une gouvernance sécurisée et promouvoir le développement responsable de l’IA, le Forum a nommé Chris Meserole, directeur exécutif du Frontier Model Forum. Meserole apporte une vaste expérience dans le domaine de la politique technologique et sera chargé de se concentrer sur des sujets tels que la gouvernance sécurisée et l’expansion des technologies pour des applications futures.

La sécurité et la sûreté sont des priorités absolues dans le domaine de l’IA. Les avancées technologiques doivent garantir la sécurité à tout moment et rester sous l’observation humaine. Les politiques appropriées et l’intervention humaine sont nécessaires pour utiliser la technologie de l’IA de manière responsable.

Selon OpenAI, certains modèles d’IA peuvent causer des dommages et représenter un risque majeur pour le public. Il est donc essentiel de mieux comprendre ces modèles et de les traiter en toute sécurité.

Le nouveau fonds de sécurité de l’IA, d’une valeur de 10 millions de dollars, soutiendra la recherche indépendante dans les universités, les instituts de recherche et les start-ups du monde entier. Il contribuera également à définir les termes et processus liés à l’IA dans l’industrie.

La première mise à jour du Frontier Model Forum, intitulée « AI Red Teaming », s’appuie sur des études de cas de grandes entreprises technologiques telles que Microsoft et Google. Cette pratique consiste à faire appel à des hackers éthiques pour identifier les failles de sécurité des systèmes d’IA. Cela contribue à éviter les atteintes malveillantes et à renforcer la sécurité des systèmes d’IA.

Le Frontier Model Forum, en collaboration avec Anthropic, Google, Microsoft et OpenAI, annonce également la création d’un conseil consultatif pour orienter sa stratégie et ses priorités. Le conseil sera composé d’experts externes indépendants ainsi que d’experts en IA.

Dans les prochains mois, le fonds lancera un appel à propositions et accordera des subventions pour soutenir le développement de nouvelles techniques d’évaluation de la sécurité des systèmes d’IA. Cette initiative permettra d’améliorer les normes de sûreté et de sécurité et de mieux comprendre les mesures d’atténuation et de contrôle nécessaires pour faire face aux défis posés par les systèmes d’IA.

En conclusion, ce fonds de sécurité de l’IA de 10 millions de dollars lancé par Google, Microsoft, Anthropic et OpenAI est une étape importante pour promouvoir la recherche responsable et sécurisée dans le domaine de l’IA. La sécurité et la gouvernance responsable sont essentielles pour garantir que les avancées technologiques se font de manière sûre et bénéfique pour la société.

Laisser un commentaire