OpenAIが認める:AIの「幻覚」は根本的なトレーニングミスに起因
2025-09-18
OpenAIは、大規模言語モデルにおける「幻覚」は偶然ではなく、トレーニング方法の根本的な欠陥が原因であることを示す論文を発表しました。モデルは、知らないことを認めるよりも推測を優先するように訓練されており、これは現在の評価システムでより高いスコアにつながります。論文では、研究者の誕生日を探す例を用いて、トレーニングメカニズムがどのように間違った回答につながるかを示しています。OpenAIは、主流の評価方法がこの「幻覚」行動を促進していることを認め、モデルがより頻繁に「わかりません」と答えるようにするなど、トレーニングメカニズムの改善に取り組んでいると述べていますが、問題を完全に解決することは依然として課題となっています。
AI