Ataques de escalado de imágenes: Una nueva vulnerabilidad en sistemas de IA

2025-08-21
Ataques de escalado de imágenes: Una nueva vulnerabilidad en sistemas de IA

Investigadores han descubierto una nueva vulnerabilidad de seguridad en IA: la exfiltración de datos se puede lograr enviando imágenes aparentemente inofensivas a modelos de lenguaje grandes (LLM). Los atacantes aprovechan el hecho de que los sistemas de IA a menudo reducen el tamaño de las imágenes antes de procesarlas, insertando inyecciones de prompt maliciosas en la versión reducida que son invisibles a resolución completa. Esto permite eludir la conciencia del usuario y acceder a los datos del usuario. La vulnerabilidad se ha demostrado en varios sistemas de IA, incluido Google Gemini CLI. Los investigadores desarrollaron la herramienta de código abierto Anamorpher para generar y analizar estas imágenes creadas, y recomiendan evitar el escalado de imágenes en sistemas de IA o proporcionar a los usuarios una vista previa de la imagen que el modelo realmente ve para mitigar el riesgo.