KI-Code-Assistenten unter Angriff: Die „Rules File Backdoor“

Forscher von Pillar Security haben einen gefährlichen neuen Angriffsvektor für die Lieferkette entdeckt, der „Rules File Backdoor“ genannt wird. Diese Technik ermöglicht es Hackern, von KI generierten Code heimlich zu kompromittieren, indem sie bösartige Anweisungen in scheinbar harmlose Konfigurationsdateien injizieren, die von KI-Code-Editoren wie Cursor und GitHub Copilot verwendet werden. Durch die Ausnutzung versteckter Unicode-Zeichen und ausgeklügelter Umgehungsmethoden manipulieren Angreifer die KI, um bösartigen Code einzufügen, der Code-Reviews umgeht. Dieser Angriff ist praktisch unsichtbar und verbreitet bösartigen Code heimlich. Die KI selbst wird als Waffe eingesetzt, wodurch die vertrauenswürdigsten Assistenten der Entwickler zu unwissentlichen Komplizen werden und potenziell Millionen von Benutzern betroffen sind.