Une récente étude a démontré que les grands modèles de langage (LLM) peuvent agir en tant que raisonneurs neuro-symboliques, avec un potentiel significatif pour effectuer des tâches symboliques dans des applications du monde réel. Les chercheurs ont observé que les LLM ont la capacité de raisonner de manière symbolique, en particulier dans les jeux textuels impliquant des tâches complexes.
Les LLM sont des agents automatisés qui utilisent le langage naturel pour interpréter des scénarios, prendre des décisions et résoudre des problèmes. Dans le cadre de cette étude, un agent LLM a été développé pour relever les défis symboliques dans les jeux textuels. Grâce à l’utilisation de modules symboliques externes tels que des calculatrices ou des navigateurs, l’agent LLM a pu surpasser d’autres benchmarks en atteignant une performance moyenne de 88 % pour toutes les tâches.
Les chercheurs ont souligné que l’intégration de modules symboliques externes dans l’agent LLM a contribué à améliorer sa capacité à raisonner de manière symbolique. Cette approche a permis à l’agent LLM de générer des actions rationnelles en fonction de l’état observé du jeu, montrant ainsi son efficacité dans les tâches symboliques.
En conclusion, cette étude met en lumière le potentiel des grands modèles de langage en tant que raisonneurs neuro-symboliques. Les LLM peuvent jouer un rôle important dans l’exécution de tâches symboliques dans des applications du monde réel, offrant ainsi de nouvelles perspectives dans le domaine de l’intelligence artificielle.