Les entreprises doivent encadrer l’utilisation de l’IA générative, d’après Ray Canzanese, Threat Research Director du Threat Labs de Netskope. Selon lui, bien que les applications d’IA générative offrent de nombreux avantages, elles exposent également les données sensibles et les organisations à des risques de compromission et de non-conformité.
Selon les recherches de Ray Canzanese, pour 10 000 utilisateurs, les entreprises subissent chaque mois environ 183 incidents de partage de données sensibles avec l’application ChatGPT. Les codes sources sont les données les plus partagées avec un taux mensuel de 158 incidents pour 10 000 utilisateurs. Les données financières, médicales et personnelles identifiables sont également exposées. Il est donc crucial que les organisations prennent des contre-mesures sérieuses pour protéger la confidentialité et la sécurité de leurs données sensibles. Cela implique de surveiller l’utilisation et les abus potentiels des applications d’IA générative, de limiter l’exposition des informations sensibles et de sécuriser les documents confidentiels contre la perte et le vol.
Pour relever ce défi, la visibilité sera essentielle. Les équipes de sécurité doivent s’appuyer sur des outils automatisés capables de surveiller en permanence les applications telles que ChatGPT utilisées par les employés de l’entreprise, en se concentrant sur le quand, le comment, le d’où et la fréquence d’utilisation. De plus, il est essentiel de comprendre les différents niveaux de risque que chaque outil représente pour l’organisation et d’avoir la capacité de définir des politiques de contrôle d’accès granulaires en temps réel.
Bien que les applications malveillantes doivent être bloquées, la responsabilité de l’utilisation des applications d’IA générative doit incomber aux utilisateurs. L’objectif est de permettre, mais de restreindre leur usage à des activités définies et pertinentes. Les équipes de sécurité doivent également sensibiliser les employés aux applications et aux activités à risque, en utilisant des alertes en temps réel et des formations automatisées, impliquant les utilisateurs dans les décisions d’accès après avoir identifié les risques.
Les utilisateurs peuvent commettre des erreurs et mettre involontairement en danger des données sensibles. Il est donc essentiel de limiter le téléchargement et la publication de données hautement sensibles via ChatGPT et d’autres outils similaires. Seules les techniques modernes de prévention des pertes de données (DLP) sont capables d’identifier automatiquement les flux de données critiques et de catégoriser les messages sensibles avec un très haut niveau de précision.
En conclusion, l’utilisation de l’IA générative présente des risques pour les entreprises. Il est donc primordial que les organisations mettent en place des mesures de sécurité et de protection des données pour encadrer son utilisation. En surveillant et en limitant l’accès ainsi qu’en sensibilisant les utilisateurs aux risques potentiels, les entreprises pourront profiter des avantages de l’IA générative tout en protégeant leurs données sensibles.