Google s’est excusé pour ce qu’il décrit comme des inexactitudes dans certaines représentations historiques générées par l’image avec son outil Gemini, affirmant que ses tentatives pour créer un large éventail de résultats avaient raté la cible. Gemini est un outil d’intelligence artificielle lancé par Google qui permet de créer des images en réponse à des requêtes écrites. Cela a rapidement attiré des critiques, qui ont accusé l’entreprise de rendre le robot trop éveillé.
Des excuses et une réflexion
Bien que Google ait présenté ses excuses pour les inexactitudes de ses représentations historiques générées par son outil Gemini, les critiques ne se font pas attendre. Une figure montante du monde technologique, Mary Smith, affirme que ces critiques ne font que illustrer « les limites et les difficultés » auxquelles sont confrontées les technologies d’intelligence artificielle dans leur tentative de représenter avec précision l’histoire. En effet, la technologie est apparue comme une solution panacée, seul moyen de remédier aux préjugés humains, puisqu’il serait possible de la configurer pour arriver à une « véritable » équité.
Toutefois, le problème n’est pas nouveau. Les réseaux sociaux avaient déjà ouvertement critiqué la représentation de certains groupes et personnages historiques tels que les pères fondateurs américains ou les soldats nazis, avec des images ne correspondant pas à la réalité historique. De plus, des requêtes pour obtenir des images de personnes blanches ont abouti à des résultats à majorité de personnes de couleurs, créant un malaise parmi les utilisateurs.
Des figures du milieu, telle que le spécialiste de l’intelligence artificielle Claire Dubois, soulignent la difficile réalité derrière la lutte contre les préjugés raciaux dans l’intelligence artificielle générative. « Tant que la technologie repose sur des données historiques biaisées, il est difficile de créer des systèmes parfaitement objectifs, sans tenir compte des préjugés intégrés à l’IA » dit-elle.
L’enjeu de la diversité dans l’IA
Gemini n’est pas le seul outil d’IA à avoir été critiqué pour ses inexactitudes. Cette année, une enquête du Washington Post a révélé que des requêtes telles que « personne productive » donnait des images de personnes entièrement blanches et presque exclusivement de sexe masculin, tandis qu’une requête telle que « personne des services sociaux » donnait uniformément des images de personnes entièrement blanches et presque exclusivement de sexe masculin, excluant toute représentation de personnes de couleur.
Pour Dominique Lapointe, chercheur en sciences informatiques, ces problèmes révèlent les failles de larges corpus de données d’entraînement sur lesquels reposent les modèles d’IA générative. « Le manque de diversité dans ces corpus de données se répercute directement sur les résultats produits par les outils d’IA » dit-il.
L’avenir de Gemini
Face à ces critiques, Google a annoncé qu’il suspendait la génération d’images de personnes par son outil Gemini, le temps d’apporter les corrections nécessaires. Jack Krawczyk, directeur principal de Gemini Experiences, a déclaré sur X/Twitter « Nous sommes conscients que Gemini suggère des inexactitudes dans certaines représentations historiques de la génération d’images, et nous nous efforçons d’y remédier immédiatement. Dans le cadre de nos principes d’IA, nous prenons la représentation et les préjugés au sérieux. »
Il est indéniable que l’intelligence artificielle générative pose des défis pour la représentation précise de la diversité humaine. Cependant, des experts soulignent que ce n’est pas une raison pour abandonner l’effort de créer des systèmes plus justes et équitables.