Une nouvelle étude menée par des chercheurs de l’Université de Tokyo révèle que le GPT-4, un modèle d’IA, est sur le point de révolutionner la manière dont les textes brouillés ou tronqués sont traités.
D’après les résultats, ce modèle d’intelligence artificielle est capable de reconstruire presque parfaitement des phrases originales à partir de versions brouillées, réduisant ainsi la « distance d’édition » – une mesure du nombre de modifications nécessaires pour transformer une chaîne de texte en une autre – de près de 95%.
Il est vraiment impressionnant de constater que malgré d’importantes perturbations dans le flux normal et la structure du langage, le GPT-4 est toujours capable de comprendre le sens. Cette capacité pourrait avoir des applications dans divers domaines, tels que la cybersécurité, la compréhension de langues difficiles à déchiffrer ou la reconstruction de textes historiques endommagés.
L’étude propose une suite conçue pour mesurer la capacité du GPT-4 à traiter des entrées brouillées, ce qui permet de mieux comprendre le fonctionnement interne de ces modèles de langage. Les chercheurs ont constaté que le GPT-4 est presque parfait dans la gestion d’erreurs non naturelles dans des conditions extrêmes, une tâche qui pose des défis importants aux autres LLM et souvent même aux humains.
Ces résultats soulignent l’importance et les implications de ces avancées, ouvrant la voie à de nouvelles opportunités dans le domaine de l’intelligence artificielle. Avec cette capacité à traiter des textes brouillés, le GPT-4 pourrait apporter des changements significatifs dans la manière dont nous interagissons avec les données textuelles dans de nombreux domaines.
Qu’en pensez-vous ? Pensez-vous que cette étude est crédible ou pertinente ? Quelle est votre opinion sur le sujet ?