Modelos de Linguagem Grandes Alucinam Pacotes de Software Inexistentes: Uma Vulnerabilidade na Cadeia de Suprimentos
2025-04-29

Pesquisadores descobriram uma vulnerabilidade preocupante em grandes modelos de linguagem (LLMs): a alucinação de pacotes de software inexistentes durante a geração de código. Isso não é aleatório; nomes específicos de pacotes inexistentes são gerados repetidamente, criando um padrão repetível. Atacadores poderiam explorar isso publicando malware sob esses nomes alucinados, esperando que os desenvolvedores acessem eles, lançando assim um ataque à cadeia de suprimentos. LLMs de código aberto exibiram uma taxa maior dessa “alucinação de pacotes” do que modelos comerciais, e o código Python mostrou menos instâncias do que o JavaScript.