Les experts de Google contredisent l’idée d’une IA plus intelligente que l’homme, repoussant l’arrivée imminente de l’AGI

Les experts en intelligence artificielle ont longtemps spéculé sur le moment où la technologie atteindra le niveau de l’intelligence humaine, voire la surpassera. Cependant, de nouvelles recherches menées par une équipe de scientifiques remettent en question cette idée, jetant des doutes sur la perspective imminente de l’intelligence artificielle générale (AGI).

Selon un article soumis par une équipe de chercheurs et publié dans une revue scientifique, les modèles de langage utilisant des transformateurs, qui alimentent de nombreux outils d’IA, rencontrent des difficultés à généraliser leurs compétences. Lorsqu’ils sont confrontés à des tâches en dehors de leur domaine de formation, ces transformateurs rencontrent des problèmes de capacité d’extrapolation, ce qui compromet leur capacité à accomplir même des tâches simples.

Ces résultats suggèrent que l’IA actuelle excelle dans des tâches spécifiques, mais a du mal à transférer des compétences d’un domaine à un autre. Cette limite remet en question les aspirations à atteindre une AGI capable de rivaliser avec les dispositions humaines dans divers domaines, et éloigne ainsi la perspective imminente de son développement.

Cette recherche fait écho aux propos de plusieurs experts, dont Pedro Domingos, professeur d’informatique à l’Université de Washington, qui estime qu’il est prématuré d’être trop optimiste quant à l’arrivée imminente de l’IA généralisée. Les résultats de cette étude révèlent donc les limites actuelles des modèles de langage, incitant à une réévaluation des attentes à l’égard de l’IA et soulignant la nécessité de comprendre plus précisément ses véritables capacités.

Les chercheurs utilisant les exemples de fonction en gras ont également souligné la nécessité de revoir les approches pour parvenir à une IA plus avancée et plus polyvalente. En mettant en lumière les défis liés à la formation de modèles de langage parlé, ils attirent l’attention sur l’importance de mieux comprendre les émotions et la modélisation du langage pour améliorer la compréhension de la puissance de l’apprentissage automatique et de sa mise en œuvre efficace.

Ces conclusions remettent en question les attentes des investisseurs et des techniciens qui consacrent du temps et des ressources à la réalisation de l’AGI. Il semble que nous soyons encore loin d’atteindre un niveau de développement de l’IA à la hauteur de l’intelligence humaine, laissant ainsi des perspectives incertaines sur l’avenir de cette technologie.

En définitive, cette nouvelle recherche met en évidence les limites actuelles de l’IA et souligne l’importance de comprendre les capacités réelles des modèles de langage avant d’envisager le développement d’une AGI. Cela remet en question la course effrénée vers une IA de plus en plus avancée et soulève des questions sur l’impact de la perception du grand public à l’égard de l’IA et de ses capacités.

Laisser un commentaire