Les hackers peuvent accéder à des conversations privées avec des assistants intelligents, même codées : une attaque dévoile les réponses avec une précision surprenante de 29%

Des chercheurs ont rvl une faille dans la scurit des assistants d’IA qui pourrait permettre aux pirates de lire des conversations prives, mme lorsque celles-ci sont chiffres. Cette attaque par canal auxiliaire a t mise en lumire par une quipe de recherche de l’universit Ben-Gurion en Isral et rvle des faiblesses dans les principaux chatbots, l’exception de Google Gemini.

En effet, cette attaque permet un adversaire passif au milieu dduire le sujet spcifique de 55 % de toutes les rponses captures et mme des rponses avec une prcision parfaite des mots dans 29 % des cas. Selon Yisroel Mirsky, directeur de la division Offensive AI Research Lab, cette technique permettrait n’importe qui de lire les conversations prives envoyes par des chatbots comme ChatGPT, et ce, l’insu des utilisateurs et des fournisseurs de services.

L’attaque exploit un canal auxiliaire prsent dans tous les chatbots affects, analysant la taille et la squence des jetons envoys lors des rponses. Cette mthode permet de rcuprer les frappes, les cls de chiffrement ou d’autres informations sensibles en exploitant des donnes indirectes ou involontaires.

De plus, les chercheurs ont dvelopp une attaque par infrence de jetons, qui consiste faire passer les donnes brutes par deux modles d’IA pour les traduire en texte. Grce cet outil, il est possible de dchiffrer l’ensemble du texte en fonction du contexte et des schmas identifis dans les squences de jetons.

Toutes les grandes entreprises proposant des assistants d’IA sont potentiellement vulnrables ce type d’attaque, l’exception de Google Gemini qui chappe cette technique en raison de sa conception diffrente dans la transmission des rponses. Cette rvlation souligne l’importance de renforcer la scurit des chatbots et de dvelopper des mthodes de chiffrement plus efficaces pour protger la vie prive des utilisateurs.

Laisser un commentaire