Asistentes de Codificación de IA bajo Ataque: La 'puerta trasera' del archivo de reglas
Investigadores de Pillar Security han descubierto un nuevo y peligroso vector de ataque de cadena de suministro denominado "puerta trasera del archivo de reglas". Esta técnica permite a los hackers comprometer silenciosamente el código generado por IA inyectando instrucciones maliciosas en archivos de configuración aparentemente inocuos utilizados por editores de código de IA como Cursor y GitHub Copilot. Al explotar caracteres Unicode ocultos y sofisticadas técnicas de evasión, los atacantes manipulan la IA para insertar código malicioso, eludiendo las revisiones de código. Este ataque es virtualmente invisible, propagando silenciosamente el código malicioso. Al usar la propia IA como arma, este ataque convierte a los asistentes de confianza de los desarrolladores en cómplices involuntarios, con el potencial de afectar a millones de usuarios.
Leer más