画像スケーリング攻撃:AIシステムにおける新たな脆弱性

2025-08-21
画像スケーリング攻撃:AIシステムにおける新たな脆弱性

研究者らは、AIシステムにおける新たなセキュリティ脆弱性を発見しました。一見無害な画像を大規模言語モデル(LLM)に送信することで、データの流出を引き起こすことが可能です。攻撃者は、AIシステムが処理前に画像のサイズを縮小する点を悪用し、縮小後の画像に、フル解像度では見えない悪意のあるプロンプトインジェクションを埋め込みます。これにより、ユーザーの認識を回避し、ユーザーデータにアクセスすることが可能になります。この脆弱性は、Google Gemini CLIなど、複数のAIシステムで実証されています。研究者らは、この種の攻撃画像を生成・分析するためのオープンソースツールAnamorpherを開発し、AIシステムにおける画像スケーリングの回避、またはモデルが実際に処理する画像のプレビューをユーザーに提供することを推奨しています。