La peur de l’IA chez les informaticiens augmente de 17 points selon Ivanti

Une récente étude a révélé que 36% des professionnels de l’informatique se sentent menacés par l’intelligence artificielle, par crainte que leur emploi ne soit pris par des outils d’IA générative. Cette préoccupation est 17 points plus élevée que celle exprimée par les autres employés de bureau. Cela d’après un rapport récent.
L’étude montre également que les employés de bureau sont six fois plus susceptibles que les professionnels de l’informatique de dire que l’IA générative profite davantage aux employeurs qu’aux employés.

Alors que les chefs d’entreprise sont très optimistes quant aux promesses de l’intelligence artificielle, affirmant que les principaux avantages de l’IA en entreprise sont l’automatisation des tâches banales (62 %) et l’augmentation de la productivité des employés (60 %), les professionnels de l’informatique, eux, sont plus sceptiques.

Selon le Dr Srinivas Mukkamala, directeur des produits chez Ivanti, cette étude montre que les employés sont divisés sur ce que cela signifie pour leur carrière. Il ajoute : « Les entreprises ne peuvent pas se permettre d’éviter ce sujet et il ne suffit pas de prêcher tous les avantages de l’IA. Les dirigeants doivent communiquer clairement la stratégie d’IA et son impact sur l’avenir de l’expérience des employés, de la productivité et de la progression de carrière. Sans le soutien des employés et la surveillance de l’IA générative, les entreprises mettront du temps à réaliser des gains et pourraient avoir des conséquences inattendues sans la surveillance humaine nécessaire. »

Les raisons pour lesquelles les professionnels de la technologie ne sont pas aussi enthousiastes incluent des niveaux élevés de stress, la crainte que l’IA ne débauche leur emploi et la crainte que l’IA générative n’augmente les résultats à leurs dépens. Mukkamala souligne également que toutes les organisations doivent garantir la sécurité, la sûreté et la confidentialité des données collectées et introduites dans les systèmes d’IA. Cela doit être pris au sérieux, et la protection des données contre les abus, les acteurs menaçants ou les intentions malveillantes n’est pas négociable.

Il est donc important que les entreprises construisent des garde-fous pour éviter les biais de l’IA, des données, des modèles/algorithmes – et surtout des biais humains et instaurent une confiance globale grâce à une sécurité proactive et à la résilience du système d’IA.

Laisser un commentaire