Avons-nous créé des machines pensantes comme les humains? Les principaux modèles linguistiques manquent de profondeur ou de compréhension de l’esprit selon une recherche scientifique.

Selon une étude scientifique menée par des chercheurs de l’Institut Max Planck de cybernétique biologique et de l’Université de Tübingen en Allemagne, il apparaît que malgré les récentes avancées dans le domaine de l’intelligence artificielle, les modèles de langage basés sur la vision ne parviennent pas encore à penser de manière similaire à des humains.

Cette étude a cherché à évaluer la capacité des modèles de langage modernes à comprendre les interactions physiques complexes, les relations causales et la compréhension intuitive des préférences des autres, et les résultats ont révélé que bien que ces modèles démontrent une compétence notable dans le traitement et l’interprétation des données visuelles, ils restent en deçà des capacités humaines, en particulier quand il s’agit de comprendre des tâches nécessitant une théorie intuitive de l’esprit.

Les chercheurs ont mené ces expériences contrôlées en évaluant quatre modèles de langage multimodaux récents dans les domaines de la physique intuitive, du raisonnement causal et de la psychologie intuitive. Et les résultats ont montré que si certains modèles ont bien fonctionné dans certaines tâches, aucun d’entre eux n’a réussi à montrer une correspondance raisonnable avec les données humaines dans une tâche de psychologie intuitive.

Les conclusions de l’étude soulignent donc que les modèles actuels ont une compréhension rudimentaire des lois physiques et des relations de cause à effet, mais manquent de connaissances plus profondes essentielles à la cognition humaine. Cependant, l’étude laisse ouverte la possibilité que les prochaines générations de modèles de langage multimodaux puissent surmonter ces limites.

Ces conclusions remettent en question l’idée que les grands modèles de langage basés sur la vision sont capables de penser comme les humains, et ouvrent la porte à de nouvelles réflexions sur les avancées nécessaires pour atteindre cet objectif ambitieux.

De plus, cette étude souligne l’importance d’intégrer des mécanismes plus robustes pour comprendre la causalité, la dynamique physique et la cognition sociale dans les modèles de langage modernes basés sur la vision. Elle met également en avant l’utilité des recherches en sciences cognitives pour offrir des outils, des théories et des points de référence pour évaluer dans quelle mesure les machines ont vraiment la capacité de penser comme des êtres humains.

En fin de compte, cette étude remet en question les capacités actuelles des machines à penser de manière semblable aux humains, mais ouvre également la voie à de nouvelles pistes de recherche et de développement dans le domaine de l’intelligence artificielle.

Qu’en penses-tu ? Penses-tu que les conclusions de cette étude sont crédibles ? Crois-tu que les prochaines générations de modèles de langage multimodaux pourraient surmonter ces limites ?

Laisser un commentaire