Les entreprises peinent à faire face aux implications en matière de sécurité de l’IA générative
Une étude récente de la société de détection et de réponse réseau native au cloud, ExtraHop, a révélé une tendance préoccupante: les entreprises ont du mal à faire face aux implications de sécurité liées à l’utilisation par les employés de l’IA générative.
Dans leur nouveau rapport de recherche, intitulé « Le point de bascule de l’IA générative », ExtraHop met en lumière les défis auxquels sont confrontées les organisations à mesure que la technologie de l’IA générative devient de plus en plus répandue sur le lieu de travail.
Le rapport explore la manière dont les organisations gèrent l’utilisation des outils d’IA générative, révélant une dissonance cognitive significative entre les responsables informatiques et de sécurité. Étonnamment, 73% de ces responsables ont avoué que leurs employés utilisent fréquemment des outils d’IA générative ou des modèles de langage volumineux (LLM) au travail. Malgré cela, une majorité stupéfiante a admis ne pas savoir comment aborder efficacement les risques de sécurité associés.
Interrogés sur leurs préoccupations, les responsables informatiques et de sécurité ont exprimé plus de craintes concernant la possibilité de réponses inexactes ou non-sens (40%) que des problèmes de sécurité critiques tels que l’exposition des informations d’identification personnelles des clients et des employés (PII) (36%) ou la perte financière (25%).
Raja Mukerji, co-fondateur et scientifique en chef d’ExtraHop, a déclaré: « En combinant innovation et fortes protections, l’IA générative continuera d’être une force qui propulsera des industrie entières dans les années à venir ».
l’une des révélations stupéfiantes de l’étude était l’inefficacité des interdictions d’IA générative. Environ 32% des personnes interrogées ont déclaré que leurs organisations avaient interdit l’utilisation de ces outils. Cependant, seuls 5% ont déclaré que les employés n’utilisaient jamais ces outils, ce qui indique que les interdictions seules ne suffisent pas à freiner leur utilisation.
L’étude a également mis en évidence un désir clair de conseils, en particulier de la part des organismes gouvernementaux. 90% des personnes interrogées ont exprimé le besoin d’une intervention gouvernementale, dont 60% ont plaidé en faveur de réglementations obligatoires et 30% soutenant des normes gouvernementales que les entreprises pourraient adopter volontairement.
Malgré un sentiment de confiance dans leur infrastructure de sécurité actuelle, l’étude a révélé des lacunes dans les pratiques de sécurité de base.
Alors que 82% des personnes interrogées se sentaient confiantes dans la capacité de leur pile de sécurité à se protéger contre les menaces de l’IA générative, moins de la moitié avaient investi dans des technologies pour surveiller l’utilisation de l’IA générative. De manière alarmante, seuls 46% avaient mis en place des politiques régissant l’utilisation acceptable, et seulement 42% offraient une formation aux utilisateurs sur l’utilisation sécurisée de ces outils.
Ces résultats surviennent après l’adoption rapide de technologies telles que ChatGPT, qui sont devenues une partie intégrante des entreprises modernes. Les dirigeants d’entreprise sont invités à comprendre l’utilisation de l’IA générative par leurs employés afin de détecter les éventuelles vulnérabilités de sécurité.
Vous pouvez consulter une copie complète du rapport ici.
(Photo par Hennie Stander sur Unsplash)
Tags:
- ai
- intelligence artificielle
- cybersécurité
- sécurité informatique
- entreprise
- genai
- IA générative
- rapport
- recherche
- sécurité
- étude
Sources:
Articles connexes:
En savoir plus sur l’IA et le big data auprès des leaders de l’industrie:
Consultez le AI & Big Data Expo qui se déroule à Amsterdam, en Californie et à Londres. Cet événement complet est co-organisé avec Digital Transformation Week.
Découvrez d’autres événements et webinaires à venir sur les technologies d’entreprise propulsés par TechForge ici.