研究人员警告,由于可供训练的人类书面数据即将耗尽,OpenAI和谷歌等公司的人工智能模型的性能提升速度可能很快就会遇到瓶颈。研究显示,人工智能模型训练所需文本数据的增长速度约为每年2.5倍,而计算能力的增长速度则高达每年4倍,这意味着像Meta的Llama 3或OpenAI的GPT-4这样的大型语言模型最早可能在2026年就将面临新鲜数据的枯竭。届时,人工智能公司可能会尝试使用人工智能生成的数据来训练模型,但这是否有效还有待观察。