Attaques par mise à l'échelle d'images : une nouvelle vulnérabilité dans les systèmes d'IA
Des chercheurs ont découvert une nouvelle vulnérabilité de sécurité dans l'IA : l'exfiltration de données peut être réalisée en envoyant des images apparemment inoffensives à de grands modèles de langage (LLM). Les attaquants tirent parti du fait que les systèmes d'IA réduisent souvent la taille des images avant de les traiter, en intégrant des injections de prompt malveillantes dans la version réduite, invisibles en résolution complète. Cela permet de contourner la vigilance de l'utilisateur et d'accéder à ses données. La vulnérabilité a été démontrée sur plusieurs systèmes d'IA, notamment Google Gemini CLI. Les chercheurs ont développé l'outil open source Anamorpher pour générer et analyser ces images conçues, et recommandent d'éviter la mise à l'échelle des images dans les systèmes d'IA ou de fournir aux utilisateurs un aperçu de l'image réellement traitée par le modèle pour atténuer le risque.