牛津大学的研究人员发现了一种简单的方法来识别大型语言模型(LLM)何时可能在虚构内容。LLM在接受过大量文本数据训练后,倾向于根据训练数据中的一致性来呈现信息,而当训练数据有限或不一致时,LLM可能会生成听起来合理但不正确的答案。研究人员通过语义熵来评估LLM所有可能的答案,如果语义相似的答案数量较多,则LLM可能在措辞上不确定但答案是正确的;反之,则LLM可能在虚构内容。