大型语言模型代码生成中的“包幻觉”漏洞
2025-04-29

研究人员发现大型语言模型(LLM)在生成代码时存在“包幻觉”问题,即生成不存在的软件包引用。该现象并非随机错误,而是可重复的,某些不存在的包名被反复生成。这使得攻击者可以利用此漏洞,发布恶意软件,并等待开发人员访问这些不存在的包,从而发起供应链攻击。开源LLM的“包幻觉”比例高于商业模型,Python代码的“包幻觉”比例低于JavaScript代码。
AI