LLMはなぜ電卓を使わないのか? 推論のギャップへの深層探求
2025-02-20

大規模言語モデル(LLM)は、驚くべきことに基本的な数学で失敗します。計算が必要であること、電卓が存在することを認識していても、精度を上げるために電卓を使用しません。この記事ではこの行動を分析し、LLMは真の理解と推論能力を欠いており、単に言語パターンに基づいて予測しているという主張をしています。著者は、LLMの成功が本質的な欠陥を隠蔽しており、重要なタスクでLLMに頼る際には人間の検証が重要であることを強調しています。記事では「トワイライトゾーン」のクリップを寓話として使用し、人工汎用知能(AGI)に対するナイーブな楽観主義への警告を発しています。
AI