Un article d'Apple remet en question le raisonnement de l'IA : pas un « vrai » raisonnement ?

2025-06-09

Un article récent d'Apple, « L'illusion de la pensée », teste les capacités de raisonnement des grands modèles de langage sur des casse-têtes de la tour de Hanoï. Les résultats montrent que les modèles fonctionnent moins bien que les modèles non-raisonnants sur les problèmes simples ; mieux sur les problèmes de difficulté moyenne ; mais sur les problèmes complexes, les modèles abandonnent, même lorsque l'algorithme est fourni. Les auteurs remettent en question les capacités de raisonnement généralisables des modèles. Cependant, cet article soutient que l'utilisation du casse-tête de la tour de Hanoï dans l'article est défectueuse comme test. L'« abandon » des modèles peut provenir de l'évitement de nombreuses étapes, et non d'une capacité de raisonnement limitée. Abandonner après un certain nombre d'étapes ne signifie pas que les modèles manquent de raisonnement ; cela reflète le comportement humain face à des problèmes complexes.

IA