大型推理模型的局限性:复杂性崩溃与非直觉式扩展
2025-06-08
最新一代的大型语言模型(LLM)衍生出了大型推理模型(LRM),它们在给出答案前会生成详细的思考过程。虽然这些模型在推理基准测试中表现有所提升,但其根本能力、扩展特性和局限性仍未被充分理解。本研究通过可控的谜题环境,系统地研究了LRM的推理能力。结果表明,LRM在超过一定复杂度后会完全崩溃,并且表现出一种反直觉的扩展限制:它们的推理努力会随着问题复杂度的增加而增加,直到达到某一点后,即使有足够的令牌预算,也会下降。研究还发现,LRM在精确计算方面存在局限性,它们无法使用显式算法,并且在不同谜题中的推理不一致。这项工作揭示了LRM的优势、局限性和其真正推理能力的关键问题。
AI