Les grands modèles de langage sont en plein essor, mais certaines voix s’élèvent pour mettre en garde contre les implications de l’utilisation aveugle de ces modèles. Mattsi Jansky, développeur de logiciels, a récemment publié un billet de blog dans lequel il explore les limites des LLM et critique l’engouement actuel pour ces technologies.
A l’ère d’Alan Turing, la question de la pensée artificielle a été abordée de manière sérieuse et organisée pour la première fois. Depuis lors, le domaine de l’IA a connu de nombreuses avancées remarquables, allant de la reconnaissance d’image à la traduction automatique en passant par la robotique. Les LLM sont l’une des avancées les plus récentes dans ce domaine, mais selon Jansky, ils ne sont pas des intelligences artificielles à part entière. Ils sont plutôt des algorithmes d’apprentissage automatique capables de générer du texte humain sans avoir une réelle capacité de raisonnement autonome.
Les LLM sont entraînés sur d’énormes ensembles de données pour reconnaître et interpréter le langage humain. Ils utilisent l’apprentissage profond pour analyser des données non structurées et reconnaître les éléments de contenu sans intervention humaine. Cependant, malgré leur capacité à générer un texte qui ressemble à celui d’un humain, les LLM ne sont pas capables de penser ou de raisonner comme un être humain.
Beren Millidge, responsable de la recherche IA chez Conjecture, met en garde contre la confusion entre la capacité des LLM à générer du texte humain et une réelle intelligence artificielle. Il compare le comportement des LLM à celui des humains souffrant de troubles de la mémoire, soulignant que les LLM agissent de manière incohérente et confabulent des informations plausibles en réponse à des requêtes.
En fin de compte, bien que les LLM puissent sembler impressionnants en surface, il est important de garder à l’esprit leurs limitations intrinsèques. Ils ne sont pas des intelligences artificielles au sens traditionnel du terme, mais plutôt des outils d’apprentissage automatique capables de générer du texte humain. Il est crucial de ne pas surestimer leurs capacités et de rester conscient des implications de leur utilisation massive dans divers domaines.
L’engouement actuel pour les LLM peut conduire à des investissements disproportionnés et à des attentes irréalistes. Il est essentiel de garder à l’esprit que malgré leur apparence de sophistication, les LLM restent des algorithmes d’apprentissage automatique et non des intelligences artificielles dotées de pensée autonome. Il est donc important de rester critique et informé lorsqu’il s’agit de ces technologies émergentes.