AI 코딩 어시스턴트 공격: '규칙 파일 백도어'
2025-04-14
Pillar Security 연구원들은 "규칙 파일 백도어"라고 불리는 새로운 위험한 공급망 공격 벡터를 발견했습니다. 이 기법을 통해 해커는 Cursor 및 GitHub Copilot과 같은 AI 코드 편집기에서 사용하는 겉보기에는 무해한 구성 파일에 악의적인 명령어를 삽입하여 AI 생성 코드를 은밀하게 손상시킬 수 있습니다. 숨겨진 유니코드 문자와 정교한 회피 기술을 활용하여 공격자는 AI를 조작하여 코드 검토를 우회하는 악성 코드를 삽입합니다. 이 공격은 사실상 눈에 보이지 않으며 악성 코드를 은밀하게 전파합니다. AI 자체를 무기화하여 개발자의 신뢰할 수 있는 어시스턴트를 자신도 모르는 공범으로 만들어 수백만 명의 사용자에게 영향을 미칠 수 있습니다.
AI
규칙 파일