
OWASP LLM Top 10: O Guia Completo para Desenvolvedores de IA e Equipes de Segurança
O guia técnico completo do OWASP LLM Top 10 — cobrindo todas as 10 categorias de vulnerabilidades com exemplos reais de ataques, contexto de severidade e orient...

A segurança de LLM abrange as práticas, técnicas e controles usados para proteger implementações de modelos de linguagem grandes contra uma classe única de ameaças específicas de IA, incluindo injeção de prompt, jailbreaking, exfiltração de dados, envenenamento de RAG e abuso de modelo.
A segurança de LLM é a disciplina especializada de proteger aplicações construídas sobre modelos de linguagem grandes contra uma classe única de ameaças que não existia na segurança de software tradicional. À medida que as organizações implementam chatbots de IA, agentes autônomos e fluxos de trabalho alimentados por LLM em escala, compreender e abordar vulnerabilidades específicas de LLM torna-se um requisito operacional crítico.
A segurança de aplicações tradicionais assume uma fronteira clara entre código (instruções) e dados (entrada do usuário). Validação de entrada, consultas parametrizadas e codificação de saída funcionam ao impor essa fronteira estruturalmente.
Modelos de linguagem grandes colapsam essa fronteira. Eles processam tudo — instruções do desenvolvedor, mensagens do usuário, documentos recuperados, saídas de ferramentas — como um fluxo unificado de tokens de linguagem natural. O modelo não pode distinguir confiavelmente um prompt de sistema de uma entrada maliciosa do usuário projetada para parecer um. Esta propriedade fundamental cria superfícies de ataque sem equivalente no software tradicional.
Além disso, os LLMs são agentes capazes de usar ferramentas. Um chatbot vulnerável não é apenas um risco de conteúdo — pode ser um vetor de ataque para exfiltrar dados, executar chamadas de API não autorizadas e manipular sistemas conectados.
O Open Worldwide Application Security Project (OWASP) publica o LLM Top 10 — a referência padrão da indústria para riscos críticos de segurança de LLM:
LLM01 — Injeção de Prompt: Entradas maliciosas ou conteúdo recuperado substituem instruções do LLM. Veja Injeção de Prompt .
LLM02 — Tratamento Inseguro de Saída: Conteúdo gerado por LLM é usado em sistemas downstream (renderização web, execução de código, consultas SQL) sem validação, permitindo XSS, injeção SQL e outros ataques secundários.
LLM03 — Envenenamento de Dados de Treinamento: Dados maliciosos injetados em conjuntos de dados de treinamento causam degradação do comportamento do modelo ou introduzem backdoors.
LLM04 — Negação de Serviço de Modelo: Entradas computacionalmente caras causam consumo excessivo de recursos, degradando a disponibilidade do serviço.
LLM05 — Vulnerabilidades de Cadeia de Suprimentos: Modelos pré-treinados comprometidos, plugins ou dados de treinamento introduzem vulnerabilidades antes da implementação.
LLM06 — Divulgação de Informações Sensíveis: LLMs revelam dados confidenciais de dados de treinamento, prompts de sistema ou documentos recuperados. Veja Exfiltração de Dados (Contexto de IA) .
LLM07 — Design Inseguro de Plugin: Plugins ou ferramentas conectadas a LLMs carecem de autorização adequada, permitindo ataques de escalação.
LLM08 — Agência Excessiva: LLMs com permissões ou capacidades excessivas podem causar danos significativos quando manipulados.
LLM09 — Dependência Excessiva: Organizações falham em avaliar criticamente as saídas do LLM, permitindo que erros ou informações fabricadas afetem decisões.
LLM10 — Roubo de Modelo: Acesso não autorizado ou replicação de pesos ou capacidades proprietárias do LLM.
O controle único mais impactante: limite o que seu LLM pode acessar e fazer. Um chatbot de atendimento ao cliente não precisa de acesso ao banco de dados de RH, sistemas de processamento de pagamentos ou APIs de administração. Aplicar princípios de menor privilégio limita drasticamente o raio de impacto de um ataque bem-sucedido.
Prompts de sistema definem o comportamento do chatbot e frequentemente contêm instruções sensíveis ao negócio. Considerações de segurança incluem:
Embora nenhum filtro seja infalível, validar entradas reduz a superfície de ataque:
A geração aumentada por recuperação introduz novas superfícies de ataque. Implementações seguras de RAG requerem:
Barreiras de proteção em tempo de execução em camadas fornecem defesa em profundidade além do alinhamento no nível do modelo:
As técnicas de ataque a LLM evoluem rapidamente. Testes de penetração de IA e red teaming de IA devem ser realizados regularmente — no mínimo antes de mudanças importantes e anualmente como avaliações de linha de base.
Os LLMs processam instruções e dados em linguagem natural através do mesmo canal, tornando impossível separar estruturalmente código de conteúdo. Defesas tradicionais como validação de entrada e consultas parametrizadas não têm equivalente direto. Novas classes de ataque como injeção de prompt, jailbreaking e envenenamento de RAG requerem práticas de segurança especializadas.
O OWASP LLM Top 10 define os riscos mais críticos: injeção de prompt, tratamento inseguro de saída, envenenamento de dados de treinamento, negação de serviço de modelo, vulnerabilidades de cadeia de suprimentos, divulgação de informações sensíveis, design inseguro de plugin, agência excessiva, dependência excessiva e roubo de modelo.
A segurança de LLM requer defesa em profundidade: design seguro de prompt de sistema, validação de entrada/saída, barreiras de proteção em tempo de execução, separação de privilégios, monitoramento e detecção de anomalias, testes de penetração regulares e conscientização de segurança dos funcionários sobre riscos específicos de IA.
Avaliação profissional de segurança de LLM cobrindo todas as categorias do OWASP LLM Top 10. Obtenha uma visão clara das vulnerabilidades do seu chatbot de IA e um plano de remediação priorizado.

O guia técnico completo do OWASP LLM Top 10 — cobrindo todas as 10 categorias de vulnerabilidades com exemplos reais de ataques, contexto de severidade e orient...

O OWASP LLM Top 10 é a lista padrão da indústria dos 10 riscos de segurança e proteção mais críticos para aplicações construídas sobre modelos de linguagem gran...

APIs LLM enfrentam cenários de abuso únicos além da segurança tradicional de API. Aprenda como proteger implantações de API LLM contra abuso de autenticação, by...