大規模言語モデルの幻覚:欠けているのは記憶

著者は、Rubyライブラリを使った自身の経験を通して、人間と大規模言語モデル(LLM)の情報処理の違いを対比しています。人間は堆積的な記憶を持っており、知識の起源と信頼性を感知することで、でたらめな推測を避けることができます。一方、LLMはこのような経験に基づく記憶を欠いており、その知識は習得したスキルではなく、遺伝子情報のようなものなので、幻覚を起こしやすいのです。著者は、LLMの幻覚問題を解決するには、現実世界で「生きて」経験を積むことができる新しいAIモデルが必要だと主張しています。
続きを読む