Un expert en IA dévoile les failles de sécurité de DALL-E 3, la technologie de Microsoft permettant la création de contenus sensibles

Un rapport récent a fait état d’un ingénieur en intelligence artificielle de l’une des plus grandes entreprises technologiques au monde, affirmant que l’entreprise avait tenté de faire taire ses préoccupations concernant un générateur de contenu appelé DALL-E 3. L’ingénieur, un dénommé Shane Jones, aurait découvert des problèmes de sécurité avec DALL-E 3 qui auraient permis aux utilisateurs de contourner les barrières de sécurité et de créer des images violentes et explicites.

Ces allégations ont émergé après la diffusion en ligne de fausses images explicites de personnalités publiques, dont certaines auraient été créées à l’aide de l’outil Designer de Microsoft, basé sur le modèle DALL-E 3 AI d’OpenAI. Cette situation a provoqué une onde de choc dans la communauté, suscitant des préoccupations quant à la sécurité des outils d’IA utilisés pour générer des contenus visuels.

Shane Jones a envoyé une lettre aux législateurs américains, dans laquelle il a déclaré avoir découvert des failles de sécurité avec DALL-E 3, mais que sa tentative d’attirer l’attention sur le problème avait été bloquée par l’équipe juridique de l’entreprise pour laquelle il travaille, lui demandant de supprimer un message d’avertissement qu’il avait posté sur LinkedIn.

L’ultimatum aurait eu lieu après que Jones ait rapporté à Microsoft avoir également signalé le problème à OpenAI, sans obtenir de réponse de la part de cette dernière. Selon lui, cette situation fait office de cas d’école illustrant la nécessité de la mise en place de mécanismes de signalement et de suivi des risques liés à l’IA pour que les employés des entreprises développant ces technologies se sentent libres de s’exprimer sans craindre de représailles.

Microsoft a nié les allégations d’intimidation, affirmant disposé de solides canaux de reporting internes pour enquêter et résoudre tout problème soulevé par ses employés. La société aurait également enquêté sur le rapport de Jones et partagé ses commentaires avec OpenAI, qui aurait confirmé qu’aucune manipulation de sécurité n’avait été contournée par les techniques que l’ingénieur avait partagées.

D’un autre côté, Jones a appelé les législateurs et le gouvernement à examiner les risques associés à DALL-E 3 et à d’autres technologies d’imagerie IA, ainsi que la gouvernance d’entreprise et les pratiques de gestion responsable des entreprises développant et commercialisant ces produits. Il attire l’attention sur la nécessité de garantir la sécurité publique en encadrant le développement et l’utilisation de ces technologies émergentes.

Ces allégations mettent en évidence la nécessité d’une surveillance et d’une régulation accrues des activités des entreprises développant des outils d’IA et de génération de contenu. Il apparaît clairement que des questions de sécurité éthique se posent, et qu’il est impératif d’instaurer des mécanismes de signalement et de contrôle pour veiller à ce que les préoccupations des employés soient prises en compte et que des mesures appropriées soient prises pour garantir la sécurité des produits basés sur l’IA.

Laisser un commentaire