SaySelf: 教导大型语言模型通过自我反思的推理来表达置信度

2024-06-04

大型语言模型 (LLM) 经常生成不准确或虚构的信息,并且通常无法表明其置信度,这限制了它们的广泛应用。这篇论文介绍了 SaySelf,一个训练框架,可以教导 LLM 表达更准确的细粒度置信度估计。除了置信度得分之外,SaySelf 还启动了指导 LLM 生成自我反思性推理的过程,这些推理可以清楚地识别其参数知识中的差距并解释其不确定性。

59