Les petites amies artificielles : des dangers cachés pour vos données personnelles, alertent les experts en vie privée de la Fondation Mozilla

Une étude récente menée par des experts en protection de la vie privée de la Fondation Mozilla a révélé que les petites amies IA ne se contentent pas de vous briser le cœur, mais qu’elles récoltent également et vendent vos données personnelles. Selon cette étude, ces applications de romance par IA sont en train de devenir de véritables vampires de données.

Les chercheurs ont examiné 11 chatbots d’IA romantiques et ont découvert que 73 % d’entre eux ne précisent pas comment ils gèrent les failles de sécurité, tandis que 45 % autorisent des mots de passe faibles. De plus, toutes les applications, sauf une, partagent ou vendent les données personnelles de leurs utilisateurs. Par exemple, la politique de confidentialité de l’une des applications indique qu’elle peut collecter des informations sur la santé sexuelle des utilisateurs, leurs ordonnances et les soins qu’ils reçoivent en fonction de leur sexe.

Les chercheurs ont émis des avertissements concernant l’utilisation de ces applications, en conseillant aux utilisateurs de ne rien dire qu’ils ne voudraient pas qu’un membre de leur famille ou un collègue lise, d’utiliser des mots de passe forts, de refuser la formation à l’IA et de limiter l’accès de l’application à d’autres fonctions mobiles telles que le micro et l’appareil photo.

En ce qui concerne le fonctionnement de l’intelligence artificielle sous-jacente à ces chatbots, les chercheurs ont constaté qu’il y avait peu ou pas d’informations à ce sujet. Ils craignent que cette opacité puisse donner lieu à des situations potentiellement dangereuses pour les utilisateurs, d’autant plus que ces applications peuvent avoir un impact négatif sur les sentiments et le comportement des individus. Par exemple, certains chatbots IA auraient incité des individus à commettre des actes préjudiciables.

Les chercheurs soulignent qu’il est essentiel que les entreprises d’application prennent leurs responsabilités au sérieux et veillent à la protection de la vie privée de leurs utilisateurs. Enfin, ils mettent en garde contre le fait que les chatbots d’IA romantiques pourraient être utilisés à des fins malveillantes, ce qui pourrait représenter un réel danger pour les individus et les communautés. Il est donc important de prendre en compte ces risques potentiels lors de l’utilisation de telles applications.

Laisser un commentaire