OpenAI en difficulté : ChatGPT sous le feu des projecteurs pour des résultats inexacts et des affabulations – les utilisateurs attendent des réponses

OpenAI doit défendre les affabulations de son chatbot après que celui-ci a été accusé de diffamation. Les utilisateurs pourraient bientôt savoir si les résultats inexacts de l’IA seront tolérés.

L’IA est l’une des avancées technologiques les plus radicales et débattues. Bien qu’elle offre la perspective d’un avenir caractérisé par une efficacité accrue, une sécurité renforcée et une précision inégalée, elle soulève également des préoccupations. Elle doit faire face à un procès en diffamation suite à des hallucinations générées par son chatbot. Un juge a rejeté la demande de rejet de l’affaire, ouvrant la voie à un examen plus approfondi. Plusieurs individus ont accusé le chatbot d’avoir ruiné leur réputation en générant de fausses accusations.

Au cours des derniers mois, le chatbot a généré de manière erronée des récits impliquant de nombreuses personnes à travers le monde, allant parfois jusqu’à citer des sources fictives pour appuyer ses histoires. Un exemple illustre la création d’un scandale de harcèlement sexuel attribué à tort à un professeur de droit. De telles narrations mensongères se propagent sur Internet. Dans une affaire judiciaire inhabituelle, un avocat a été sanctionné pour avoir cité six affaires fictives générées par le chatbot. Le chatbot a causé des ennuis à un avocat qui l’a utilisé pour citer des affaires imaginaires dans un document juridique.

OpenAI est confronté à un problème majeur : la FTC a mis une demande d’information exhaustive de 20 pages. Cette requête exige des documents sur les modèles de langage, les données personnelles, les informations vérifiées et corrigées, ainsi que les risques pour les consommateurs, notamment en matière de diffamation.

Certains des plus prestigieux éditeurs de revues universitaires mondiaux ont pris des mesures pour restreindre l’utilisation de ce chatbot par leurs auteurs. En raison du fait que le chatbot utilise des informations en ligne pour générer des réponses claires aux questions, les éditeurs craignent l’inclusion de travaux inexacts ou plagiés dans la littérature académique.

Dans une récente affaire judiciaire, un résident a engagé des poursuites contre une entreprise d’IA, affirmant avoir subi des pertes financières considérables et une atteinte à sa réputation. La question de la responsabilité des entreprises d’IA dans la diffusion de contenus diffamatoires générés par leurs chatbots est au cœur des débats juridiques actuels.

En définitive, l’issue de ce procès contre OpenAI pourrait déterminer la responsabilité des entreprises d’IA dans la diffusion de contenus potentiellement diffamatoires. Les législateurs, les chercheurs et les entreprises du secteur suivent de près l’évolution de cette affaire qui pourrait avoir des répercussions majeures sur l’utilisation future de chatbots et d’autres technologies d’IA.

Laisser un commentaire