Ataque da Câmara de Eco: Uma Nova Falha de Segurança para LLMs

2025-06-27
Ataque da Câmara de Eco: Uma Nova Falha de Segurança para LLMs

Um pesquisador de IA da Neural Trust descobriu uma nova técnica de jailbreak, chamada de 'Ataque da Câmara de Eco', que ignora os mecanismos de segurança dos principais modelos de linguagem grandes (LLMs). Este método usa envenenamento de contexto e raciocínio de várias etapas para sutilmente orientar os modelos para gerar conteúdo prejudicial sem prompts explicitamente perigosos. Ao plantar prompts aparentemente inócuos que se constroem uns sobre os outros em várias etapas, o ataque gradualmente molda o estado interno do modelo, levando a respostas que violam as políticas. Avaliações mostraram taxas de sucesso superiores a 90% em vários modelos, destacando uma vulnerabilidade crítica na segurança atual do LLM.

IA