
OWASP LLM Top 10
O OWASP LLM Top 10 é a lista padrão da indústria dos 10 riscos de segurança e proteção mais críticos para aplicações construídas sobre modelos de linguagem gran...

A segurança de LLM abrange as práticas, técnicas e controles usados para proteger implementações de modelos de linguagem grandes contra uma classe única de ameaças específicas de IA, incluindo injeção de prompt, jailbreaking, exfiltração de dados, envenenamento de RAG e abuso de modelo.
A segurança de LLM é a disciplina especializada de proteger aplicações construídas sobre modelos de linguagem grandes contra uma classe única de ameaças que não existia na segurança de software tradicional. À medida que as organizações implementam chatbots de IA, agentes autônomos e fluxos de trabalho alimentados por LLM em escala, compreender e abordar vulnerabilidades específicas de LLM torna-se um requisito operacional crítico.
A segurança de aplicações tradicionais assume uma fronteira clara entre código (instruções) e dados (entrada do usuário). Validação de entrada, consultas parametrizadas e codificação de saída funcionam ao impor essa fronteira estruturalmente.
Modelos de linguagem grandes colapsam essa fronteira. Eles processam tudo — instruções do desenvolvedor, mensagens do usuário, documentos recuperados, saídas de ferramentas — como um fluxo unificado de tokens de linguagem natural. O modelo não pode distinguir confiavelmente um prompt de sistema de uma entrada maliciosa do usuário projetada para parecer um. Esta propriedade fundamental cria superfícies de ataque sem equivalente no software tradicional.
Além disso, os LLMs são agentes capazes de usar ferramentas. Um chatbot vulnerável não é apenas um risco de conteúdo — pode ser um vetor de ataque para exfiltrar dados, executar chamadas de API não autorizadas e manipular sistemas conectados.
O Open Worldwide Application Security Project (OWASP) publica o LLM Top 10 — a referência padrão da indústria para riscos críticos de segurança de LLM:
LLM01 — Injeção de Prompt: Entradas maliciosas ou conteúdo recuperado substituem instruções do LLM. Veja Injeção de Prompt .
LLM02 — Tratamento Inseguro de Saída: Conteúdo gerado por LLM é usado em sistemas downstream (renderização web, execução de código, consultas SQL) sem validação, permitindo XSS, injeção SQL e outros ataques secundários.
LLM03 — Envenenamento de Dados de Treinamento: Dados maliciosos injetados em conjuntos de dados de treinamento causam degradação do comportamento do modelo ou introduzem backdoors.
LLM04 — Negação de Serviço de Modelo: Entradas computacionalmente caras causam consumo excessivo de recursos, degradando a disponibilidade do serviço.
LLM05 — Vulnerabilidades de Cadeia de Suprimentos: Modelos pré-treinados comprometidos, plugins ou dados de treinamento introduzem vulnerabilidades antes da implementação.
LLM06 — Divulgação de Informações Sensíveis: LLMs revelam dados confidenciais de dados de treinamento, prompts de sistema ou documentos recuperados. Veja Exfiltração de Dados (Contexto de IA) .
LLM07 — Design Inseguro de Plugin: Plugins ou ferramentas conectadas a LLMs carecem de autorização adequada, permitindo ataques de escalação.
LLM08 — Agência Excessiva: LLMs com permissões ou capacidades excessivas podem causar danos significativos quando manipulados.
LLM09 — Dependência Excessiva: Organizações falham em avaliar criticamente as saídas do LLM, permitindo que erros ou informações fabricadas afetem decisões.
LLM10 — Roubo de Modelo: Acesso não autorizado ou replicação de pesos ou capacidades proprietárias do LLM.
O controle único mais impactante: limite o que seu LLM pode acessar e fazer. Um chatbot de atendimento ao cliente não precisa de acesso ao banco de dados de RH, sistemas de processamento de pagamentos ou APIs de administração. Aplicar princípios de menor privilégio limita drasticamente o raio de impacto de um ataque bem-sucedido.
Prompts de sistema definem o comportamento do chatbot e frequentemente contêm instruções sensíveis ao negócio. Considerações de segurança incluem:
Embora nenhum filtro seja infalível, validar entradas reduz a superfície de ataque:
A geração aumentada por recuperação introduz novas superfícies de ataque. Implementações seguras de RAG requerem:
Barreiras de proteção em tempo de execução em camadas fornecem defesa em profundidade além do alinhamento no nível do modelo:
As técnicas de ataque a LLM evoluem rapidamente. Testes de penetração de IA e red teaming de IA devem ser realizados regularmente — no mínimo antes de mudanças importantes e anualmente como avaliações de linha de base.
Avaliação profissional de segurança de LLM cobrindo todas as categorias do OWASP LLM Top 10. Obtenha uma visão clara das vulnerabilidades do seu chatbot de IA e um plano de remediação priorizado.

O OWASP LLM Top 10 é a lista padrão da indústria dos 10 riscos de segurança e proteção mais críticos para aplicações construídas sobre modelos de linguagem gran...

O guia técnico completo do OWASP LLM Top 10 — cobrindo todas as 10 categorias de vulnerabilidades com exemplos reais de ataques, contexto de severidade e orient...

APIs LLM enfrentam cenários de abuso únicos além da segurança tradicional de API. Aprenda como proteger implantações de API LLM contra abuso de autenticação, by...