大型语言模型的数据控制路径不安全
2024-05-18
本文探讨了大型语言模型(LLM)的安全漏洞问题,将其类比于上世纪80年代之前的电话系统,指出LLM将数据和指令混合在一起,导致容易受到提示注入攻击。作者认为,虽然可以通过输入清理和访问控制机制来增强LLM的安全性,但根本问题在于数据和指令的混合。文章还讨论了LLM的应用风险,建议在某些情况下,使用更专业的AI模型可能比通用的LLM更安全。
45
未分类
提示注入攻击