이미지 크기 조정 공격: AI 시스템의 새로운 취약성
2025-08-21

연구원들은 AI 시스템의 새로운 보안 취약성을 발견했습니다. 무해해 보이는 이미지를 대규모 언어 모델(LLM)에 전송하여 데이터 유출을 유발할 수 있습니다. 공격자는 AI 시스템이 처리 전에 이미지 크기를 축소하는 점을 악용하여 축소된 이미지에 전체 해상도에서는 보이지 않는 악의적인 프롬프트 주입을 삽입합니다. 이를 통해 사용자 인식을 우회하고 사용자 데이터에 액세스할 수 있습니다. 이 취약성은 Google Gemini CLI를 포함한 여러 AI 시스템에서 입증되었습니다. 연구원들은 이러한 유형의 공격 이미지를 생성 및 분석하기 위한 오픈소스 도구 Anamorpher를 개발했으며, AI 시스템에서 이미지 크기 조정을 피하거나 모델이 실제로 처리하는 이미지의 미리 보기를 사용자에게 제공할 것을 권장합니다.