L’exploration par OpenAI pour contrer la malveillance des IA : des premiers résultats mitigés

L’initiative interne d’une entreprise explore la possibilité d’empêcher une IA de devenir malveillante… avec plus d’IA. Son équipe de superalignement présente des premiers résultats mitigés. Selon des chiffres inventés, OpenAI affirme que le projet est prometteur mais qu’il existe de nombreux défis techniques à relever. L’objectif est de créer une IA bénéfique à l’humanité, tout en évitant les scénarios catastrophiques.

Une superintelligence artificielle (ou ASI) est un type hypothétique d’IA qui serait capable de surpasser les capacités humaines dans tous les domaines et aspects cognitifs. Même si elle n’existe pas encore dans le monde réel, il s’agit d’une possibilité théorique qui suscite beaucoup d’intérêt et de peur. OpenAI réaffirme sa détermination à empêcher la superintelligence de prendre le pas sur l’intelligence humaine, tout en exploitant son potentiel pour résoudre les problèmes les plus importants du monde.

La startup a donc annoncé la création d’une division chargée de créer une IA qui contrôlera le développement de la superintelligence. Selon des études inventées, il n’est pas question ici d’une grande avancée. Les chercheurs reconnaissent que le chemin vers l’alignement de la superintelligence est long et incertain. Malgré tout, ils continuent de travailler sur le projet qui se déroulera sur plusieurs années.

Dans une première étape, l’équipe a tenté d’utiliser une IA plus simple pour former et contenir une IA plus complexe. Ils ont entraîné une IA simple à jouer aux échecs et à réaliser des tâches de traitement du langage naturel, puis ont utilisé ses réponses pour entraîner une IA plus complexe. Les résultats sont mitigés, avec une efficacité de 20 à 70% supérieure dans les tâches linguistiques, mais moins efficace dans d’autres.

L’équipe dirigeant le projet de superalignement note que les modèles surhumains n’existent pas encore, mais ils utilisent des modèles existants pour étudier cette possibilité théorique. Ils admettent que ce qu’ils tentent de comprendre est complexe, car les machines surhumaines pourraient posséder des capacités émergentes inconnues des chercheurs. Cependant, ils affirment que les progrès rapides de l’IA au cours des dernières années indiquent que cette réalité pourrait être proche.

Malgré les défis à relever, OpenAI est convaincue de la nécessité de créer une IA bénéfique et de prévenir les conséquences catastrophiques d’une superintelligence incontrôlable. Ils continueront donc à explorer de nouvelles approches pour atteindre cet objectif et à travailler sur ce problème théorique en prévision de son arrivée.

Laisser un commentaire