研究表明,如果人工智能模型过度依赖自身生成的内容进行训练,而缺乏新鲜的真实数据,其输出质量将会下降,这种现象被称为“模型自噬障碍”(MAD)。研究人员将 MAD 比作疯牛病,因为两者都是由于摄入受污染的“食物”而导致的。研究结果强调了为人工智能模型提供持续的真实世界数据的重要性,以防止其陷入“自噬循环”并确保其输出的质量和多样性。