Une étude révèle que près de 40 % des outils de gouvernance de l’IA présentent des dysfonctionnements

Selon une nouvelle étude du World Privacy Forum, 38 % des outils de gouvernance de l’intelligence artificielle (IA) utilisés sont inefficaces et problématiques. L’IA est un sujet brûlant de débat depuis que le soulèvement de l’IA générative a pris le devant de la scène.

L’étude du World Privacy Forum a soulevé des faits très intéressants sur cette question. Un examen complet des 20 outils de gouvernance clés a révélé que 38 % d’entre eux étaient jugés inadaptés pour évaluer le contenu de l’IA.

Ce constat est d’autant plus préoccupant que les outils censés évaluer l’équité et l’efficacité des systèmes d’IA montrent eux-mêmes des lacunes. Certains des problèmes sont liés à des systèmes d’assurance qualité inadaptés, qui ne sont pas conçus pour être utilisés en dehors de leur usage réel.

De plus, un grand nombre de ces outils ont été lancés par des organisations qui produisent elles-mêmes des systèmes d’IA. Cela soulève des questions sur les conflits d’intérêts potentiels.

Le directeur du World Privacy Forum a souligné que l’absence de protocoles établis pour garantir la qualité de ces outils est l’une des principales raisons de leur inefficacité. Il est également préoccupant de constater que ces outils génèrent un faux sentiment de sécurité auprès du public.

Même depuis l’adoption de l’AI Act par l’UE, suivie du lancement de l’AI Executive Order aux États-Unis, l’augmentation alarmante des recherches de ce type ouvre la voie à la révélation de nombreuses failles du système et de grandes marges d’amélioration.

L’OCDE continue de jouer le rôle de gardien mondial du suivi de ces outils de gouvernance et reconnaît déjà qu’il y a place à l’amélioration.

Cette étude du World Privacy Forum soulève des questions cruciales sur la gestion de l’IA et appelle à une révision approfondie de la gouvernance de l’IA. Les conclusions de cette étude méritent d’être prises au sérieux pour garantir la transparence, la sécurité, l’équité et la responsabilité des systèmes d’IA.

En conclusion, l’inefficacité et les problèmes des outils de gouvernance de l’IA nécessitent une attention particulière de la part des autorités compétentes pour garantir que l’IA est utilisée de manière éthique et responsable dans la société.

Laisser un commentaire