大型语言模型如 ChatGPT 不会像人类那样,记住在对话中你说过的所有内容并用以更新自身的知识。它们更像是无状态函数,根据输入的文本预测接下来的内容,每次新对话都是独立的,不会记住所谓的“训练”内容。虽然一些模型提供记忆功能,但这只是将部分信息记录在当前对话上下文中,并非真正记住。过度担心模型会记住所有输入并泄露隐私,实际上是基于对技术原理的误解。