モデル崩壊:AIの自己食い込みリスク
2025-05-17
大規模言語モデル(LLM)の普及に伴い、「モデル崩壊」と呼ばれるリスクが注目を集めています。LLMが自身で生成したテキストを用いて訓練されることで、訓練データが現実世界のデータから乖離し、モデルの出力品質低下や意味不明な結果につながる可能性があります。この問題はLLMに限らず、反復的に訓練される生成モデルすべてにリスクとして存在することが研究で示されています。データの蓄積は劣化を遅らせるものの、計算コストを増大させます。現在、研究者たちはデータのキュレーションやモデルの自己評価などを用いて合成データの質を向上させ、モデル崩壊を防ぎ、その結果生じる多様性の問題に対処する方法を探っています。
AI
モデル崩壊