AIコーディングアシスタントへの攻撃:「ルールファイルバックドア」
2025-04-14
Pillar Securityの研究者たちは、「ルールファイルバックドア」と呼ばれる危険な新しいサプライチェーン攻撃ベクトルを発見しました。この手法により、ハッカーは、CursorやGitHub CopilotなどのAIコードエディターで使用される一見無害な設定ファイルに悪意のある命令を挿入することで、AI生成コードを密かに侵害することができます。隠されたUnicode文字と高度な回避技術を利用して、攻撃者はAIを操作し、コードレビューを回避する悪意のあるコードを挿入します。この攻撃は事実上目に見えず、悪意のあるコードを密かに伝播させます。AI自体を武器化することで、この攻撃は開発者の信頼できるアシスタントを不本意な共犯者に変え、数百万人のユーザーに影響を与える可能性があります。
AI
ルールファイル