大型语言模型长上下文能力的局限性研究
2025-07-15
这项研究挑战了大型语言模型(LLM)在长上下文任务中性能一致的普遍假设。研究人员通过扩展“大海捞针”任务,并引入语义匹配和干扰项等变量,发现即使在简化的实验条件下,模型性能也会随着输入长度的增加而下降。这在会话问答和重复单词任务中也得到了证实,表明LLM的长上下文能力并非完美无缺,实际应用中可能面临更大挑战。
阅读更多
AI