Face aux risques potentiels posés par l’intelligence artificielle (IA), des chercheurs de plusieurs institutions académiques ont récemment proposé des mesures de sécurité pour intégrer des interrupteurs d’arrêt d’urgence et des possibilités de bloquer ou de réduire à distance les fonctionnalités d’une puce IA. Ces mesures visent à éviter une utilisation abusive ou malveillante de la puissance de calcul associée à l’IA.
Selon une étude menée par des experts en intelligence artificielle, des scientifiques de l’Université de Cambridge ont recommandé d’intégrer des interrupteurs d’arrêt d’urgence dans le matériel qui alimente l’IA. Cette mesure vise à éviter toute exploitation malveillante de la puissance de calcul par des acteurs non autorisés. Ils ont également suggéré la possibilité de bloquer ou de réduire à distance les fonctionnalités d’une puce IA, tout en soulignant la similitude de cette approche avec les mécanismes utilisés pour empêcher le lancement non autorisé d’armes nucléaires.
Les chercheurs ont également recommandé de suivre les ventes de puces IA dans le monde entier, mettant en garde contre les risques potentiels liés à une utilisation inappropriée de l’IA. Ils ont souligné que la formation des modèles d’IA les plus avancés nécessite une infrastructure physique importante et qu’il est difficile de dissimuler l’existence et les performances relatives de ces ressources. Les puces les plus avancées utilisées pour piloter ces modèles sont produites par un nombre limité d’entreprises, ce qui offre aux décideurs politiques l’opportunité de restreindre la vente de ces produits aux personnes ou aux pays concernés.
Les chercheurs ont souligné l’importance de réglementer le matériel sur lequel reposent ces modèles afin d’éviter leur utilisation abusive. Ils ont proposé la mise en place d’un registre mondial des ventes de puces IA, qui permettrait de les suivre tout au long de leur cycle de vie, même après qu’elles aient quitté leur pays d’origine. Cette approche vise à lutter contre la contrebande de composants et à renforcer la transparence dans l’utilisation de l’IA.
En termes de sécurité, les chercheurs ont suggéré d’intégrer des coupe-circuits au silicium des puces IA pour empêcher leur utilisation dans des applications malveillantes. De plus, ils ont proposé que les régulateurs puissent désactiver ou réduire à distance les fonctionnalités d’une puce IA en utilisant des licences numériques. Cette approche permettrait aux autorités de réagir rapidement en cas d’utilisation inappropriée de l’IA.
Dans l’ensemble, les chercheurs ont souligné l’importance de réglementer le matériel d’IA pour garantir une utilisation responsable de cette technologie. Ils ont proposé plusieurs mesures de sécurité pour limiter les risques potentiels associés à l’IA, tout en reconnaissant que ces approches nécessitent une mise en œuvre soigneuse pour éviter les risques de sécurité supplémentaires.