大型语言模型并非世界模型:一个反直觉的论点
2025-08-13
本文作者通过多个例子论证大型语言模型(LLM)并非真正理解世界,而只是擅长预测文本序列。作者以国际象棋、图像混合模式和Python多线程编程为例,指出LLM虽然能生成看似合理的答案,但却缺乏对底层逻辑和规则的理解。即使在被反复纠正后,LLM仍然难以掌握基本概念。作者认为,LLM的成功更多依赖于工程努力,而非对世界的真正理解,并预测未来机器学习领域将出现关于“世界模型”的突破,从而真正实现通用人工智能。
AI