アップル、大規模言語モデルの推論能力の限界を明らかに

2025-06-16
アップル、大規模言語モデルの推論能力の限界を明らかに

アップルの新しい論文「思考の幻想」は、大規模言語モデル(LLM)に関する多くの仮定に疑問を投げかけています。制御された実験を通じて、最先端のLLMでさえ、複雑な問題では特定の閾値を超えると完全に失敗することが明らかになりました。パフォーマンスは徐々に低下するのではなく、突然崩壊します。モデルは十分なリソースがあっても試行を止め、能力不足ではなく行動の失敗を示しています。懸念すべきは、完全に間違っていても、モデルの出力が説得力のあるように見えることで、エラーの検出が困難になることです。この研究は、真に推論するシステムの必要性と、現在のモデルの限界をより明確に理解することの重要性を強調しています。

AI