La bataille des géants technologiques contre la réglementation de l’IA en Europe

La nouvelle loi européenne sur l’IA est menacée par le lobbying intense des grandes entreprises technologiques, qui tentent de retirer « les modèles de base » de la réglementation. Les groupes d’intérêt représentant ces entreprises utilisent leur influence politique pour modifier radicalement les règles de l’UE à travers un lobbying intensif. Ils cherchent à empêcher l’inclusion des « modèles de base » dans la législation européenne, ce qui suscite de vives inquiétudes chez de nombreux experts en IA et dans le public.

Selon une étude récente, plus des deux tiers des citoyens européens soutiennent la régulation des modèles de base, mais malheureusement, leur influence sur la législation est limitée.

Cette tentative de lobbying intense vient des grandes entreprises technologiques américaines, ainsi que de certains États membres de l’UE. En effet, la France, l’Allemagne et l’Italie ont récemment décidé de plaider pour l’exclusion des modèles de base de la loi sur l’IA. Leur proposition est que les entreprises d’IA travaillant sur ces modèles s’autorégulent en publiant certaines informations sur leurs modèles et en observant un code de bonne conduite.

Il est également rapporté que des géants technologiques tels que Google, OpenAI et Microsoft font pression sur l’UE pour affaiblir et supprimer les règles relatives aux modèles de base. Ces entreprises cherchent un environnement juridique leur permettant une totale liberté pour développer et déployer ces technologies sans encadrement strict.

Malgré ces pressions, la législation proposée par l’UE est populaire auprès du public, et des experts en IA ont récemment signé une lettre ouverte appelant les États membres de l’UE à réglementer l’IA plutôt que de laisser les entreprises le faire elles-mêmes.

Il est essentiel de se demander si l’autorégulation des entreprises peut vraiment garantir la sécurité publique et répondre aux préoccupations éthiques. De nombreux experts craignent que cela ne mette en danger les droits de l’homme, car cela peut donner la priorité aux profits plutôt qu’à la sécurité publique.

Il est également intéressant de souligner que les projets de règles semblent évoluer outre-Manche, mais aussi outre-Atlantique. L’administration Biden a signé un décret obligeant tout laboratoire développant un modèle de base à grande échelle à effectuer des tests de sécurité et à informer le gouvernement des résultats.

En fin de compte, il est clair que la question de la régulation des modèles de base de l’IA est cruciale et suscite de vives inquiétudes au sein de la communauté de l’IA et du public. Il reste à voir si la lettre récemment adressée à la France, à l’Italie et à l’Allemagne aura un impact sur leur position, mais il est certain que le débat sur cette question est loin d’être clos.

Laisser un commentaire