Appleの論文がLLMに疑問を投げかける:大規模推論モデルは根本的に制限されているか?

2025-06-16

Appleの最近の論文は、大規模推論モデル(LRM)が正確な計算において限界があり、明示的なアルゴリズムを使用せず、パズル全体で矛盾した推論を行うと主張しています。これは、LLMとLRMをAGIの基礎として使用する現在の試みへの大きな打撃と見なされています。arXivにある反論論文はAppleの知見に対抗しようとしますが、欠陥があります。数学的な誤りがあり、機械的な実行と推論の複雑さを混同し、独自のデータが結論と矛盾しています。重要なことに、反論論文は、Appleの主要な発見である、より難しい問題に直面した際にモデルが計算努力を体系的に削減するという点を無視しており、現在のLRMアーキテクチャにおける根本的なスケーリングの限界を示唆しています。