AI模型的普适性:通往鲸鱼语言解码之路?

2025-07-18
AI模型的普适性:通往鲸鱼语言解码之路?

研究者发现大型语言模型在学习过程中趋向于收敛到一个共享的潜在表征空间,这被称为“柏拉图式表征假设”。这一假设意味着不同模型学习到的是相同的特征,即使模型架构不同。 文章以“墨索里尼或面包”游戏为例解释了这种共享表征的可能性,并通过压缩理论和模型泛化能力进行论证。 更重要的是,基于这一假设,研究者开发了一种名为vec2vec的方法,可以无监督地转换不同模型的嵌入空间,甚至实现了高精度文本嵌入反演。这项技术未来可能应用于解码古代文字(例如线性A)或翻译鲸鱼语言,为跨语言理解和人工智能发展带来新的可能性。

阅读更多

用强化学习和下一个token预测,在网络规模上训练推理模型

2025-07-13
用强化学习和下一个token预测,在网络规模上训练推理模型

作者认为,强化学习(RL)是构建前沿AI模型的下一种训练技术。当前同时扩展多个环境的方法混乱且复杂。作者提出了一种新方法:利用RL对网络数据进行下一个token预测,从而从通用的网络数据中学习推理,而不是仅仅从数学和代码中学习。这种方法将RL与下一个token预测相结合,在网络规模的数据集上进行训练,有望克服当前RL训练数据有限的瓶颈,从而构建更强大的推理模型。

阅读更多
AI

AI进步的瓶颈:数据而非算法?

2025-06-30
AI进步的瓶颈:数据而非算法?

近年来AI飞速发展,但进步速度似乎正在放缓。文章指出,过去几大AI突破(深度神经网络、Transformer、RLHF、推理模型)并非源于全新算法,而是解锁了新的数据源(ImageNet、互联网文本、人类反馈、验证器)。作者认为,未来的AI突破可能并非来自算法创新,而是来自对视频、机器人传感器等全新数据源的有效利用,因为现有数据可能已接近其所能提供的知识上限。

阅读更多