
OWASP LLM 十大风险
OWASP LLM 十大风险是行业标准列表,涵盖基于大型语言模型构建的应用程序的10个最关键的安全和安全风险,包括提示注入、不安全的输出处理、训练数据投毒、模型拒绝服务以及另外6个类别。...

LLM安全涵盖用于保护大语言模型部署免受一类独特的人工智能特定威胁的实践、技术和控制措施,包括提示注入、越狱、数据泄露、RAG投毒和模型滥用。
LLM安全是保护基于大语言模型构建的应用程序免受传统软件安全中不存在的一类独特威胁的专门学科。随着组织大规模部署人工智能聊天机器人、自主代理和LLM驱动的工作流程,理解和解决LLM特定漏洞成为关键的运营要求。
传统应用安全假设代码(指令)和数据(用户输入)之间有明确的边界。输入验证、参数化查询和输出编码通过在结构上强制执行此边界来工作。
大语言模型打破了这一边界。它们将所有内容——开发人员指令、用户消息、检索到的文档、工具输出——作为统一的自然语言令牌流进行处理。模型无法可靠地区分系统提示和设计成看起来像系统提示的恶意用户输入。这一基本属性创造了传统软件中没有等效物的攻击面。
此外,LLM是具有能力的、使用工具的代理。易受攻击的聊天机器人不仅仅是内容风险——它可以成为泄露数据、执行未经授权的API调用和操纵连接系统的攻击载体。
开放式Web应用程序安全项目(OWASP)发布了LLM十大风险——关键LLM安全风险的行业标准参考:
LLM01 — 提示注入: 恶意输入或检索到的内容覆盖LLM指令。参见提示注入 。
LLM02 — 不安全的输出处理: LLM生成的内容在下游系统(Web渲染、代码执行、SQL查询)中使用时未经验证,从而导致XSS、SQL注入和其他次要攻击。
LLM03 — 训练数据投毒: 注入训练数据集的恶意数据导致模型行为退化或引入后门。
LLM04 — 模型拒绝服务: 计算开销大的输入导致过度资源消耗,降低服务可用性。
LLM05 — 供应链漏洞: 受损的预训练模型、插件或训练数据在部署前引入漏洞。
LLM06 — 敏感信息泄露: LLM从训练数据、系统提示或检索到的文档中泄露机密数据。参见数据泄露(人工智能上下文) 。
LLM07 — 不安全的插件设计: 连接到LLM的插件或工具缺乏适当的授权,导致权限提升攻击。
LLM08 — 过度代理: 被授予过多权限或能力的LLM在被操纵时可能造成重大损害。
LLM09 — 过度依赖: 组织未能批判性地评估LLM输出,导致错误或虚构信息影响决策。
LLM10 — 模型盗窃: 未经授权访问或复制专有LLM权重或能力。
最具影响力的单一控制措施:限制您的LLM可以访问和执行的操作。客户服务聊天机器人不需要访问人力资源数据库、支付处理系统或管理员API。应用最小权限原则可以显著限制成功攻击的影响范围。
系统提示定义聊天机器人行为,通常包含业务敏感指令。安全考虑包括:
虽然没有过滤器是万无一失的,但验证输入可以减少攻击面:
检索增强生成引入了新的攻击面。安全的RAG部署需要:
分层运行时护栏提供超越模型级对齐的纵深防御:
LLM攻击技术快速演变。应定期进行人工智能渗透测试 和人工智能红队演练 ——至少在重大变更前和每年作为基线评估。
LLM通过同一通道处理自然语言指令和数据,使得在结构上无法分离代码和内容。传统防御措施(如输入验证和参数化查询)没有直接等效物。提示注入、越狱和RAG投毒等新攻击类别需要专门的安全实践。
OWASP LLM十大风险定义了最关键的风险:提示注入、不安全的输出处理、训练数据投毒、模型拒绝服务、供应链漏洞、敏感信息泄露、不安全的插件设计、过度代理、过度依赖和模型盗窃。
LLM安全需要纵深防御:安全的系统提示设计、输入/输出验证、运行时护栏、权限分离、监控和异常检测、定期渗透测试,以及关于人工智能特定风险的员工安全意识。

OWASP LLM 十大风险是行业标准列表,涵盖基于大型语言模型构建的应用程序的10个最关键的安全和安全风险,包括提示注入、不安全的输出处理、训练数据投毒、模型拒绝服务以及另外6个类别。...

OWASP LLM Top 10完整技术指南——涵盖所有10个漏洞类别,包含真实攻击示例、严重性分析以及针对构建和保护LLM驱动应用程序团队的具体修复指导。...

LLM API 面临超越传统 API 安全的独特滥用场景。了解如何保护 LLM API 部署免受身份验证滥用、速率限制绕过、通过 API 参数的提示注入以及模型拒绝服务攻击。...