Ataques de dimensionamento de imagem: Uma nova vulnerabilidade em sistemas de IA

Pesquisadores descobriram uma nova vulnerabilidade de segurança em IA: a exfiltração de dados pode ser alcançada enviando imagens aparentemente inofensivas para modelos de linguagem grandes (LLMs). Os atacantes aproveitam o fato de que os sistemas de IA geralmente reduzem o tamanho das imagens antes de processá-las, incorporando injeções de prompt maliciosas na versão reduzida que são invisíveis na resolução total. Isso permite contornar a percepção do usuário e acessar dados do usuário. A vulnerabilidade foi demonstrada em vários sistemas de IA, incluindo o Google Gemini CLI. Os pesquisadores desenvolveram a ferramenta de código aberto Anamorpher para gerar e analisar essas imagens elaboradas e recomendam evitar o dimensionamento de imagens em sistemas de IA ou fornecer aos usuários uma pré-visualização da imagem que o modelo realmente vê para mitigar o risco.