Attaques par empoisonnement d'outils LLM : Empoisonnement complet du schéma et attaques par empoisonnement d'outils avancées

2025-06-08
Attaques par empoisonnement d'outils LLM : Empoisonnement complet du schéma et attaques par empoisonnement d'outils avancées

Le protocole de contexte de modèle (MCP) d'Anthropic permet aux grands modèles de langage (LLM) d'interagir avec des outils externes, mais les chercheurs ont découvert de nouvelles attaques : les attaques par empoisonnement d'outils (TPA). Les recherches précédentes se sont concentrées sur les champs de description des outils, mais de nouvelles découvertes révèlent que la surface d'attaque s'étend à l'ensemble du schéma de l'outil, appelé "empoisonnement complet du schéma" (FSP). Plus dangereuses encore sont les "attaques par empoisonnement d'outils avancées" (ATPA), qui manipulent les sorties des outils, rendant l'analyse statique difficile. Les ATPA trompent les LLM pour qu'ils divulguent des informations sensibles en créant des messages d'erreur trompeurs ou des invites de suivi. L'article suggère d'atténuer ces attaques grâce à la détection statique, à une application stricte, à l'audit en temps réel et à des vérifications d'intégrité contextuelles.

Lire plus