Un article d'Apple met à mal les LLM : la tour de Hanoï révèle leurs limites
Un nouvel article d'Apple a fait des vagues au sein de la communauté IA. L'article démontre que même la dernière génération de « modèles de raisonnement » échoue à résoudre de manière fiable le problème classique de la tour de Hanoï, exposant une faille critique dans les capacités de raisonnement des grands modèles de langage (LLM). Cela rejoint les critiques de longue date de chercheurs comme Gary Marcus et Subbarao Kambhampati, qui ont mis en évidence les capacités de généralisation limitées des LLM. L'article montre que même lorsqu'on leur fournit l'algorithme de solution, les LLM échouent toujours à résoudre le problème efficacement, suggérant que leur « processus de raisonnement » n'est pas un raisonnement logique véritable. Cela indique que les LLM ne constituent pas une voie directe vers l'intelligence artificielle générale (AGI), et leurs applications nécessitent une attention particulière.