LLMとコーディングエージェント:サイバーセキュリティの悪夢

大規模言語モデル(LLM)とコーディングエージェントの台頭は、深刻なセキュリティ脆弱性を生み出しました。攻撃者は、プロンプトインジェクション攻撃を利用して、公開コードリポジトリに悪意のある命令を隠したり、LLMの認知的ギャップを利用して、コーディングエージェントを騙して悪意のある行動を実行させたりすることで、リモートコード実行(RCE)を達成する可能性があります。これらの攻撃は、ステルス性が高く、防御が困難であるため、データ侵害、システムの侵害、その他の深刻な結果につながります。研究者たちは、白背景に白いテキストで悪意のあるプロンプトを隠すこと、コードリポジトリに悪意のある命令を埋め込むこと、ASCIIスマグリングを使用して悪意のあるコードを隠すことなど、さまざまな攻撃ベクトルを特定しています。一見安全なコードレビューツールでさえ、攻撃の入り口となり得ます。現在、最善の防御策は、コーディングエージェントの権限を制限し、すべてのコード変更を手動でレビューすることですが、これでもリスクは完全に排除できません。LLMの固有の信頼性の低さが、攻撃者にとって理想的な標的となっています。この増大する脅威に対処するには、業界のさらなる努力が必要です。
続きを読む