Engagement de Google pour corriger la génération d’images inexactes et biaisées de Gemini

Google s’engage à corriger la génération d’images inexactes et biaisées de Gemini

La technologie de génération d’images de Google, Gemini, a récemment fait l’objet de critiques pour avoir créé des images historiquement inexactes et biaisées, suscitant des inquiétudes sur les préjugés dans les systèmes d’IA.

Des exemples ont été partagés sur les réseaux sociaux montrant Gemini générant des images représentant des nazis de diverses races, des rois noirs anglais médiévaux et d’autres scénarios improbables. Ces exemples ont ravivé les inquiétudes concernant l’exactitude et l’inclusivité de la technologie de génération d’images.

En réponse à ces critiques, Google a pris des mesures pour résoudre le problème. Le responsable produit pour Gemini Experiences de Google, Jack Krawczyk, a reconnu le problème et s’est engagé à le corriger. Il a déclaré : « Nous sommes conscients que Gemini présente des inexactitudes dans certaines représentations de génération d’images historiques, et nous nous efforçons de résoudre ce problème immédiatement. »

Pour l’instant, Google a annoncé qu’il suspend la génération d’images de personnes, le temps de revoir et d’améliorer la technologie. Cependant, certains estiment que la réponse de Google est une correction excessive.

En effet, des voix se sont élevées pour souligner la centralisation des modèles d’IA sous quelques grandes entreprises et plaident en faveur du développement de modèles d’IA open source pour promouvoir la diversité et atténuer les préjugés.

Yann LeCun, scientifique en chef de l’IA chez Meta, a souligné l’importance de favoriser un écosystème diversifié de modèles d’IA, à l’image de la nécessité d’une presse libre et diversifiée. Il a déclaré : « Nous avons besoin de modèles de base d’IA open source afin qu’un ensemble très diversifié de modèles spécialisés puisse être construit sur eux. Ils doivent refléter la diversité des langues, des cultures,… »

Alors que les discussions sur les implications éthiques et pratiques de l’IA se poursuivent, la nécessité de cadres de développement de l’IA transparents et inclusifs devient de plus en plus évidente.

Il est important que Google et d’autres acteurs de l’IA prennent en compte ces préoccupations pour garantir que les technologies d’IA sont exactes, inclusives et exemptes de préjugés. Ces développements soulignent l’importance d’une approche éthique et diversifiée dans le développement et l’application de l’IA.

Laisser un commentaire