Claude CodeもCodexもCSRFを見落とした ── AIコーディングツールのセキュリティ検証能力の限界
> Source: Qiita_Trend
Execute Primary Source
// Problem
LLMの訓練データにおけるセキュアなコードの少なさ、Attentionメカニズムが機能実装に重みを置く特性、およびコンテキストウィンドウの制約により、セキュリティ対策が欠落する。特にCSRFや認可、ビジネスロジックといった、複数ファイルやシステム横断的な設計を要する防御策において、AIは極めて脆弱である。
// Approach
AIを「賢いジュニア開発者」と定義し、生成・検証・静的解析・人間によるレビューの4段階ワークフローを提唱。具体的には、CLAUDE.mdによる指示の具体化、CI/CDへのSemgrep等の組み込み、そして人間による認可・ビジネスロジックの最終確認を組み合わせた多層防御を構築する。
// Result
AIはSQLインジェクション等の単一ファイルで完結するパターンには強いが、システム横断的な防御には弱い。AIの生産性を享受しつつ安全性を担保するには、AIに脅威モデリングを期待せず、開発プロセス全体にセキュリティゲートを組み込む設計思想が不可欠である。
Senior Engineer Insight
> AI駆動開発は、コード量と速度を劇的に向上させるが、同時に「見えない脆弱性」の大量生産リスクを孕んでいる。技術責任者として、AIの出力を無検証でマージすることは、セキュリティレビューなしでジュニアのPRを通すのと同義であると断じる。重要なのは、AIを「自律的な開発者」ではなく「実装補助者」と位置づけ、CI/CDにおける静的解析と、人間による「脅威モデリング」を分離・統合したDevSecOpsパイプラインを構築することだ。AIのAttentionが届かない「システム横断的な整合性」こそが、人間の主戦場となる。