
OWASP LLM Top 10
OWASP LLM Top 10は、大規模言語モデル上に構築されたアプリケーションにおける10の最も重要なセキュリティおよび安全性リスクの業界標準リストであり、プロンプトインジェクション、安全でない出力処理、トレーニングデータポイズニング、モデルサービス拒否、およびその他6つのカテゴリをカバーしています。...

LLMセキュリティは、プロンプトインジェクション、ジェイルブレイク、データ流出、RAGポイズニング、モデル悪用などのAI固有の脅威から大規模言語モデルのデプロイメントを保護するために使用される実践、技術、制御を包含します。
LLMセキュリティは、大規模言語モデル上に構築されたアプリケーションを、従来のソフトウェアセキュリティには存在しなかった独特の脅威クラスから保護する専門分野です。組織がAIチャットボット、自律エージェント、LLM駆動のワークフローを大規模に展開するにつれて、LLM固有の脆弱性を理解し対処することが重要な運用要件となります。
従来のアプリケーションセキュリティは、コード(命令)とデータ(ユーザー入力)の間に明確な境界があることを前提としています。入力検証、パラメータ化クエリ、出力エンコーディングは、この境界を構造的に強制することで機能します。
大規模言語モデルはこの境界を崩壊させます。開発者の命令、ユーザーメッセージ、取得されたドキュメント、ツールの出力など、すべてを統一された自然言語トークンのストリームとして処理します。モデルは、システムプロンプトと、システムプロンプトのように見えるように設計された悪意のあるユーザー入力を確実に区別することができません。この基本的な特性により、従来のソフトウェアには同等物のない攻撃面が生まれます。
さらに、LLMは有能なツール使用エージェントです。脆弱なチャットボットは単なるコンテンツリスクではなく、データの流出、不正なAPI呼び出しの実行、接続されたシステムの操作のための攻撃ベクトルになり得ます。
Open Worldwide Application Security Project(OWASP)は、重大なLLMセキュリティリスクの業界標準リファレンスであるLLM Top 10を公開しています:
LLM01 — プロンプトインジェクション: 悪意のある入力または取得されたコンテンツがLLMの命令を上書きします。プロンプトインジェクション を参照してください。
LLM02 — 安全でない出力処理: LLMが生成したコンテンツが検証なしに下流システム(Webレンダリング、コード実行、SQLクエリ)で使用され、XSS、SQLインジェクション、その他の二次攻撃を可能にします。
LLM03 — 訓練データポイズニング: 訓練データセットに注入された悪意のあるデータがモデルの動作劣化を引き起こしたり、バックドアを導入したりします。
LLM04 — モデルサービス拒否: 計算コストの高い入力が過度なリソース消費を引き起こし、サービスの可用性を低下させます。
LLM05 — サプライチェーンの脆弱性: 侵害された事前訓練済みモデル、プラグイン、または訓練データが、デプロイメント前に脆弱性を導入します。
LLM06 — 機密情報の開示: LLMが訓練データ、システムプロンプト、または取得されたドキュメントから機密データを漏洩します。データ流出(AIコンテキスト) を参照してください。
LLM07 — 安全でないプラグイン設計: LLMに接続されたプラグインまたはツールが適切な認可を欠いており、エスカレーション攻撃を可能にします。
LLM08 — 過度な権限: 過度な権限や能力を付与されたLLMは、操作されたときに重大な損害を引き起こす可能性があります。
LLM09 — 過度の依存: 組織がLLMの出力を批判的に評価せず、エラーや捏造された情報が意思決定に影響を与えることを可能にします。
LLM10 — モデル盗難: 独自のLLM重みまたは能力への不正アクセスまたは複製。
最も影響力のある単一の制御:LLMがアクセスおよび実行できることを制限します。カスタマーサービスチャットボットは、HRデータベース、決済処理システム、または管理者APIへのアクセスを必要としません。最小権限の原則を適用することで、攻撃が成功した場合の影響範囲を劇的に制限します。
システムプロンプトはチャットボットの動作を定義し、多くの場合ビジネス上機密性の高い命令を含んでいます。セキュリティ上の考慮事項には以下が含まれます:
完璧なフィルタは存在しませんが、入力を検証することで攻撃面を削減できます:
検索拡張生成は新しい攻撃面を導入します。安全なRAGデプロイメントには以下が必要です:
階層化されたランタイムガードレールは、モデルレベルのアライメントを超えた多層防御を提供します:
LLM攻撃技術は急速に進化しています。AIペネトレーションテスト およびAIレッドチーム は定期的に実施すべきです — 最低でも主要な変更前と年次ベースライン評価として。
LLMは自然言語の命令とデータを同じチャネルで処理するため、コードとコンテンツを構造的に分離することが不可能です。入力検証やパラメータ化クエリなどの従来の防御には直接的な同等物がありません。プロンプトインジェクション、ジェイルブレイク、RAGポイズニングなどの新しい攻撃クラスには、専門的なセキュリティ実践が必要です。
OWASP LLM Top 10は最も重大なリスクを定義しています:プロンプトインジェクション、安全でない出力処理、訓練データポイズニング、モデルサービス拒否、サプライチェーンの脆弱性、機密情報の開示、安全でないプラグイン設計、過度な権限、過度の依存、モデル盗難。
LLMセキュリティには多層防御が必要です:安全なシステムプロンプト設計、入出力検証、ランタイムガードレール、権限分離、監視と異常検出、定期的なペネトレーションテスト、AI固有のリスクに関する従業員のセキュリティ意識。
OWASP LLM Top 10の全カテゴリをカバーする専門的なLLMセキュリティ評価。AIチャットボットの脆弱性の明確な全体像と優先順位付けされた修復計画を取得します。

OWASP LLM Top 10は、大規模言語モデル上に構築されたアプリケーションにおける10の最も重要なセキュリティおよび安全性リスクの業界標準リストであり、プロンプトインジェクション、安全でない出力処理、トレーニングデータポイズニング、モデルサービス拒否、およびその他6つのカテゴリをカバーしています。...

OWASP LLM Top 10の完全技術ガイド — 実際の攻撃例、深刻度の背景、LLM駆動アプリケーションを構築・保護するチームのための具体的な修復ガイダンスを含む、10のすべての脆弱性カテゴリをカバーします。...

LLM APIは従来のAPIセキュリティを超えた独自の不正利用シナリオに直面しています。認証の不正利用、レート制限のバイパス、APIパラメータを介したプロンプトインジェクション、モデルサービス拒否攻撃に対するLLM APIデプロイメントの保護方法を学びます。...