AIモデル崩壊:データ汚染の差し迫った脅威
2025-06-15

2022年のOpenAIによるChatGPTの発表は、原子爆弾のような衝撃でAI研究の世界を変えました。今では、研究者たちは「AIモデル崩壊」を警告しています。これは、AIモデルが他のAIモデルによって生成された合成データで訓練されることで、信頼性の低い結果につながる現象です。これは、核実験による金属の汚染になぞらえられ、「低バックグラウンド」の素材が必要とされます。研究者たちは、2022年以前に収集された「クリーン」と見なされるデータへのアクセスを提唱し、この崩壊を防ぎ、競争を維持しようとしています。データ汚染と独占のリスクを軽減するために、AI生成コンテンツの強制的なラベル付けやフェデレーテッドラーニングの促進などの政策的解決策が提案されています。