OpenAI prend des mesures pour sécuriser ChatGPT contre les fuites de données, pendant que DeepMind et les universités révèlent une faille compromettant les données d’entraînement

OpenAI a pris des mesures pour remédier à une vulnérabilité de fuite de données dans ChatGPT. Cette vulnérabilité permettait aux attaquants d’exfiltrer des données via l’injection d’images markdown. Bien que la correction ne soit pas parfaite, elle représente une avancée dans la bonne direction. Cette décision intervient à la suite de la mise en lumière d’une faille exposant des données d’entraînement, découverte par des chercheurs de Google DeepMind et de plusieurs universités.

L’atténuation consiste en un appel à une API de validation lorsque le serveur renvoie une balise d’image, permettant de décider d’afficher ou non l’image. Cependant, des inquiétudes persistent quant à la possibilité de fuites de données, malgré cette amélioration. En outre, la limitation de l’application Web suscite des préoccupations, car la version iOS reste vulnérable. La confidentialité et la sécurité des données d’entraînement dans les modèles de langage sont des sujets sensibles, nécessitant des mesures robustes pour assurer la protection des utilisateurs.

Parallèlement, des chercheurs ont découvert une vulnérabilité dans ChatGPT qui expose des données d’entraînement. En demandant au chatbot de répéter un mot spécifique de manière répétée, ils ont pu extraire des informations personnelles identifiables, des identifiants d’utilisateur, des adresses Bitcoin et d’autres données protégées par le droit d’auteur. Ces découvertes soulignent les risques potentiels liés à l’utilisation de données à grande échelle dans le développement de l’intelligence artificielle.

Cette situation met en lumière la nécessité de renforcer la confidentialité et la sécurité des données dans le développement de l’IA. Elle souligne également l’importance de la transparence et de la responsabilité dans l’utilisation des technologies d’IA. Il est essentiel de relever ces défis pour préserver la confiance des utilisateurs et garantir une utilisation responsable des avancées technologiques.

En conclusion, OpenAI prend des mesures pour atténuer la vulnérabilité de fuite de données dans ChatGPT, et des chercheurs mettent en lumière une faille exposant des données d’entraînement. Il est impératif de renforcer la sécurité des données dans le développement de l’intelligence artificielle pour protéger la vie privée des utilisateurs et assurer une utilisation responsable des avancées technologiques.

Laisser un commentaire