L’AGI pourrait voir le jour d’ici 2028 : une menace imminente pour l’humanité ?

L’un des fondateurs de DeepMind, Shane Legg, estime qu’il existe une probabilité de 50% que l’intelligence artificielle générale (AGI) existe d’ici 2028. L’AGI est une forme théorique d’IA qui serait capable de résoudre une variété de problèmes complexes dans différents domaines de connaissances, surpassant ainsi l’intelligence humaine.

L’AGI est également appelée IA forte ou IA générale et s’oppose à l’IA faible, qui est spécialisée dans des tâches spécifiques. Pour évaluer l’AGI, Legg suggère de chercher des tâches cognitives spécifiques qui ne sont pas couvertes par les références existantes, ou de créer de nouvelles catégories de références.

L’IA créative et générative est une forme d’IA qui permet aux machines de créer du contenu et d’effectuer des tâches qui nécessitaient auparavant l’ingéniosité humaine. Par exemple, elle peut générer du texte, des images, des vidéos et de la musique. Les premiers systèmes d’IA étaient spécialisés dans une seule tâche, mais grâce aux réseaux neuronaux profonds, on a pu accomplir des tâches de perception et de décision automatiques difficiles.

Certains experts estiment que l’AGI représente un risque existentiel pour l’humanité. Paul Christiano, ancien chercheur d’OpenAI, affirme qu’il y a une probabilité de catastrophe de 50/50 peu de temps après la mise en place de systèmes impliquant des humains. Masayoshi Son, PDG de SoftBank, prédit que l’AGI sera dix fois plus intelligente que l’intelligence humaine.

Cependant, certains chercheurs estiment qu’il faudra encore plusieurs décennies avant que l’AGI ne soit reconnue comme une véritable forme d’intelligence artificielle. Ils soulignent que les modèles d’IA actuels présentent encore de nombreux défauts.

Shane Legg a estimé que l’AGI sera au niveau humain en 2028, en se basant sur la croyance que la puissance de calcul et la quantité de données augmentent de façon exponentielle. Il s’attend également à voir un proto-AGI impressionnant dans les 8 prochaines années.

Il est important de poursuivre les travaux sur les systèmes d’IA de manière responsable afin de mieux les comprendre avant de passer à une autre étape. Il est également nécessaire de prendre en compte les risques potentiels de l’AGI et de mettre en place des mesures de précaution adéquates.

Laisser un commentaire