LLMセキュリティ

LLMセキュリティは、大規模言語モデル上に構築されたアプリケーションを、従来のソフトウェアセキュリティには存在しなかった独特の脅威クラスから保護する専門分野です。組織がAIチャットボット、自律エージェント、LLM駆動のワークフローを大規模に展開するにつれて、LLM固有の脆弱性を理解し対処することが重要な運用要件となります。

LLMが新しいセキュリティアプローチを必要とする理由

従来のアプリケーションセキュリティは、コード(命令)とデータ(ユーザー入力)の間に明確な境界があることを前提としています。入力検証、パラメータ化クエリ、出力エンコーディングは、この境界を構造的に強制することで機能します。

大規模言語モデルはこの境界を崩壊させます。開発者の命令、ユーザーメッセージ、取得されたドキュメント、ツールの出力など、すべてを統一された自然言語トークンのストリームとして処理します。モデルは、システムプロンプトと、システムプロンプトのように見えるように設計された悪意のあるユーザー入力を確実に区別することができません。この基本的な特性により、従来のソフトウェアには同等物のない攻撃面が生まれます。

さらに、LLMは有能なツール使用エージェントです。脆弱なチャットボットは単なるコンテンツリスクではなく、データの流出、不正なAPI呼び出しの実行、接続されたシステムの操作のための攻撃ベクトルになり得ます。

OWASP LLM Top 10

Open Worldwide Application Security Project(OWASP)は、重大なLLMセキュリティリスクの業界標準リファレンスであるLLM Top 10を公開しています:

LLM01 — プロンプトインジェクション: 悪意のある入力または取得されたコンテンツがLLMの命令を上書きします。プロンプトインジェクション を参照してください。

LLM02 — 安全でない出力処理: LLMが生成したコンテンツが検証なしに下流システム(Webレンダリング、コード実行、SQLクエリ)で使用され、XSS、SQLインジェクション、その他の二次攻撃を可能にします。

LLM03 — 訓練データポイズニング: 訓練データセットに注入された悪意のあるデータがモデルの動作劣化を引き起こしたり、バックドアを導入したりします。

LLM04 — モデルサービス拒否: 計算コストの高い入力が過度なリソース消費を引き起こし、サービスの可用性を低下させます。

LLM05 — サプライチェーンの脆弱性: 侵害された事前訓練済みモデル、プラグイン、または訓練データが、デプロイメント前に脆弱性を導入します。

LLM06 — 機密情報の開示: LLMが訓練データ、システムプロンプト、または取得されたドキュメントから機密データを漏洩します。データ流出(AIコンテキスト) を参照してください。

LLM07 — 安全でないプラグイン設計: LLMに接続されたプラグインまたはツールが適切な認可を欠いており、エスカレーション攻撃を可能にします。

LLM08 — 過度な権限: 過度な権限や能力を付与されたLLMは、操作されたときに重大な損害を引き起こす可能性があります。

LLM09 — 過度の依存: 組織がLLMの出力を批判的に評価せず、エラーや捏造された情報が意思決定に影響を与えることを可能にします。

LLM10 — モデル盗難: 独自のLLM重みまたは能力への不正アクセスまたは複製。

Logo

ビジネスを成長させる準備はできましたか?

今日から無料トライアルを開始し、数日で結果を確認しましょう。

コアLLMセキュリティ制御

権限分離と最小権限

最も影響力のある単一の制御:LLMがアクセスおよび実行できることを制限します。カスタマーサービスチャットボットは、HRデータベース、決済処理システム、または管理者APIへのアクセスを必要としません。最小権限の原則を適用することで、攻撃が成功した場合の影響範囲を劇的に制限します。

システムプロンプトセキュリティ

システムプロンプトはチャットボットの動作を定義し、多くの場合ビジネス上機密性の高い命令を含んでいます。セキュリティ上の考慮事項には以下が含まれます:

  • システムプロンプトにシークレット、APIキー、または資格情報を含めない
  • 上書き試行に耐性のあるプロンプトを設計する
  • プロンプトの内容を明かさないようモデルに明示的に指示する
  • 定期的なセキュリティ評価の一環としてプロンプトの機密性をテストする(システムプロンプト抽出 を参照)

入出力検証

完璧なフィルタは存在しませんが、入力を検証することで攻撃面を削減できます:

  • ユーザー入力における一般的なインジェクションパターンや命令のようなフレーズをフラグ付けしてブロックする
  • モデルの出力を下流システムに渡す前に検証する
  • 構造化された出力フォーマット(JSONスキーマ)を使用してモデルの応答を制約する

RAGパイプラインセキュリティ

検索拡張生成は新しい攻撃面を導入します。安全なRAGデプロイメントには以下が必要です:

  • インデックス化されたナレッジベースにコンテンツを追加できる人に対する厳格な制御
  • インデックス化前のコンテンツ検証
  • 取得されたすべてのコンテンツを潜在的に信頼できないものとして扱う
  • RAGポイズニング の試みの監視

ランタイムガードレール

階層化されたランタイムガードレールは、モデルレベルのアライメントを超えた多層防御を提供します:

  • 入力と出力の両方に対するコンテンツモデレーションフィルタ
  • 行動異常検出
  • レート制限と悪用防止
  • フォレンジック分析のための監査ログ

定期的なセキュリティテスト

LLM攻撃技術は急速に進化しています。AIペネトレーションテスト およびAIレッドチーム は定期的に実施すべきです — 最低でも主要な変更前と年次ベースライン評価として。

関連用語

よくある質問

LLMセキュリティは従来のアプリケーションセキュリティとどう違うのですか?

LLMは自然言語の命令とデータを同じチャネルで処理するため、コードとコンテンツを構造的に分離することが不可能です。入力検証やパラメータ化クエリなどの従来の防御には直接的な同等物がありません。プロンプトインジェクション、ジェイルブレイク、RAGポイズニングなどの新しい攻撃クラスには、専門的なセキュリティ実践が必要です。

最も重大なLLMセキュリティリスクは何ですか?

OWASP LLM Top 10は最も重大なリスクを定義しています:プロンプトインジェクション、安全でない出力処理、訓練データポイズニング、モデルサービス拒否、サプライチェーンの脆弱性、機密情報の開示、安全でないプラグイン設計、過度な権限、過度の依存、モデル盗難。

組織はLLMセキュリティにどのようにアプローチすべきですか?

LLMセキュリティには多層防御が必要です:安全なシステムプロンプト設計、入出力検証、ランタイムガードレール、権限分離、監視と異常検出、定期的なペネトレーションテスト、AI固有のリスクに関する従業員のセキュリティ意識。

LLMセキュリティ態勢を評価する

OWASP LLM Top 10の全カテゴリをカバーする専門的なLLMセキュリティ評価。AIチャットボットの脆弱性の明確な全体像と優先順位付けされた修復計画を取得します。

詳しく見る

OWASP LLM Top 10
OWASP LLM Top 10

OWASP LLM Top 10

OWASP LLM Top 10は、大規模言語モデル上に構築されたアプリケーションにおける10の最も重要なセキュリティおよび安全性リスクの業界標準リストであり、プロンプトインジェクション、安全でない出力処理、トレーニングデータポイズニング、モデルサービス拒否、およびその他6つのカテゴリをカバーしています。...

1 分で読める
OWASP LLM Top 10 AI Security +3
OWASP LLM Top 10:AI開発者とセキュリティチームのための完全ガイド
OWASP LLM Top 10:AI開発者とセキュリティチームのための完全ガイド

OWASP LLM Top 10:AI開発者とセキュリティチームのための完全ガイド

OWASP LLM Top 10の完全技術ガイド — 実際の攻撃例、深刻度の背景、LLM駆動アプリケーションを構築・保護するチームのための具体的な修復ガイダンスを含む、10のすべての脆弱性カテゴリをカバーします。...

2 分で読める
OWASP LLM Top 10 AI Security +3
LLM APIセキュリティ:レート制限、認証、および不正利用防止
LLM APIセキュリティ:レート制限、認証、および不正利用防止

LLM APIセキュリティ:レート制限、認証、および不正利用防止

LLM APIは従来のAPIセキュリティを超えた独自の不正利用シナリオに直面しています。認証の不正利用、レート制限のバイパス、APIパラメータを介したプロンプトインジェクション、モデルサービス拒否攻撃に対するLLM APIデプロイメントの保護方法を学びます。...

2 分で読める
AI Security API Security +3