Certains scientifiques estiment que l’intelligence artificielle présente un risque de provoquer l’extinction de l’humanité. Selon une enquête menée auprès de 2 700 chercheurs en intelligence artificielle parus lors de six des principales conférences sur l’IA, près de 58% d’entre eux estiment qu’il y a 5% de chances que cette perspective se réalise.
De plus, il est prédit que d’ici la prochaine décennie, les systèmes d’IA auront au moins 50 % de chances de réussir la plupart des 39 exemples de tâches répertoriés dans l’enquête, telles que l’écriture de nouvelles chansons, le codage complet d’un site web, ou le traitement des paiements à partir de zéro.
En outre, après avoir interrogé un grand nombre de chercheurs en IA, il semblerait qu’il y ait un consensus pour dire que les préoccupations liées à l’IA sont plus immédiates, sans rapport avec la possibilité d’atteindre le stade de l’IA super-intelligente. Près de 70 % des chercheurs en IA citent des scénarios potentiels basés sur l’IA impliquant des deepfakes, la manipulation de l’opinion publique, les armes artificielles, et le contrôle autoritaire des populations.
Cependant, toutes les personnes interrogées ne partagent pas ce point de vue. Yann LeCun, responsable scientifique du pôle dédié à l’IA chez Meta, estime que l’IA n’est pas du tout capable de conquérir le monde, car elle n’est pas réellement intelligente. Selon lui, les systèmes d’intelligence artificielle actuels sont encore très limités, car ils n’ont aucune compréhension de la réalité sous-jacente du monde réel.
Il rejette également l’idée selon laquelle les robots pourraient conquérir le monde, en soulignant qu’il n’y a aucune corrélation entre être intelligent et vouloir conquérir le monde.
Ainsi, le débat sur les dangers potentiels de l’IA fait toujours rage, et il semble y avoir des avis divergents quant à la capacité réelle de l’intelligence artificielle à menacer l’humanité. Que pensez-vous de cette question ? Avez-vous une opinion sur la position de Yann LeCun ?