Les LLM ne sont pas des modèles du monde : un argument contre-intuitif
2025-08-13
Cet article soutient que les grands modèles de langage (LLM) ne comprennent pas vraiment le monde, mais excellent dans la prédiction de séquences de texte. À travers des exemples tels que les échecs, les modes de fusion d'images et la programmation multithread en Python, l'auteur montre que les LLM peuvent générer des réponses apparemment raisonnables, mais manquent de compréhension de la logique et des règles sous-jacentes. Même avec des corrections, les LLM ont du mal avec les concepts de base. L'auteur postule que le succès des LLM provient des efforts d'ingénierie, et non d'une compréhension authentique du monde, et prédit des avancées dans les « modèles du monde » qui mèneront à une véritable IA générale.
IA