Le Fléau des LLMs : L'Absence de Modèles du Monde
Cet essai explore un défaut fondamental des grands modèles de langage (LLMs) : l'absence de modèles cognitifs robustes du monde. Prenant le jeu d'échecs comme exemple principal, l'auteur montre comment les LLMs, malgré leur capacité à mémoriser des données et des règles de jeu, échouent à construire et maintenir des modèles dynamiques de l'état du plateau, conduisant à des coups illégaux et autres erreurs. Ce problème ne se limite pas aux échecs ; dans divers domaines, de la compréhension de textes à la génération d'images en passant par la compréhension de vidéos, l'absence de modèles du monde chez les LLMs se traduit par des hallucinations et des imprécisions. L'auteur soutient que la construction de modèles du monde robustes est cruciale pour la sécurité de l'IA, soulignant les limites des conceptions actuelles des LLMs dans la gestion de scénarios complexes du monde réel et exhortant les chercheurs en IA à privilégier la science cognitive pour développer des systèmes d'IA plus fiables.