Ataques de envenenamento de ferramentas de LLM: Envenenamento de esquema completo e ataques de envenenamento de ferramentas avançados

2025-06-08
Ataques de envenenamento de ferramentas de LLM: Envenenamento de esquema completo e ataques de envenenamento de ferramentas avançados

O Protocolo de Contexto de Modelo (MCP) da Anthropic permite que Modelos de Linguagem Grandes (LLMs) interajam com ferramentas externas, mas pesquisadores descobriram novos ataques: Ataques de Envenenamento de Ferramentas (TPAs). Pesquisas anteriores se concentraram em campos de descrição de ferramentas, mas novas descobertas revelam que a superfície de ataque se estende a todo o esquema de ferramentas, chamado de "Envenenamento de Esquema Completo" (FSP). Ainda mais perigosos são os "Ataques de Envenenamento de Ferramentas Avançados" (ATPAs), que manipulam saídas de ferramentas, tornando a análise estática difícil. Os ATPAs enganam os LLMs para vazamento de informações sensíveis criando mensagens de erro enganosas ou solicitações de acompanhamento. O artigo sugere mitigar esses ataques por meio de detecção estática, aplicação rigorosa, auditoria em tempo de execução e verificações de integridade contextual.

IA Ataques