图像缩放攻击:AI系统的新安全漏洞

2025-08-21
图像缩放攻击:AI系统的新安全漏洞

研究人员发现了一种新型AI安全漏洞:通过向大型语言模型(LLM)发送看似无害的图像,即可实现数据泄露。攻击者利用图像缩放过程中模型对图像进行缩小的特性,在缩小后的图像中隐藏恶意提示注入,从而绕过用户察觉,访问用户数据。该漏洞已在Google Gemini CLI等多个AI系统中得到验证。研究人员开发了开源工具Anamorpher,用于生成和分析此类攻击图像,并建议在AI系统中避免图像缩放,或为用户提供模型实际处理的图像预览,以最大限度地降低风险。

AI