Assistentes de Codificação de IA sob Ataque: A 'Backdoor' de Arquivo de Regras

Pesquisadores da Pillar Security descobriram um novo e perigoso vetor de ataque de cadeia de suprimentos, chamado de "Backdoor de Arquivo de Regras". Essa técnica permite que hackers comprometam silenciosamente o código gerado por IA injetando instruções maliciosas em arquivos de configuração aparentemente inócuos usados por editores de código de IA como Cursor e GitHub Copilot. Explorando caracteres Unicode ocultos e técnicas de evasão sofisticadas, os atacantes manipulam a IA para inserir código malicioso, contornando as revisões de código. Esse ataque é virtualmente invisível, propagando silenciosamente o código malicioso. Usando a própria IA como arma, esse ataque transforma os assistentes confiáveis dos desenvolvedores em cúmplices involuntários, potencialmente afetando milhões de usuários.