
OWASP LLM Top 10
El OWASP LLM Top 10 es la lista estándar de la industria de los 10 riesgos de seguridad y protección más críticos para aplicaciones construidas sobre modelos de...

La seguridad de LLM abarca las prácticas, técnicas y controles utilizados para proteger las implementaciones de modelos de lenguaje grandes de una clase única de amenazas específicas de IA, incluyendo inyección de prompts, jailbreaking, exfiltración de datos, envenenamiento RAG y abuso del modelo.
La seguridad de LLM es la disciplina especializada de proteger las aplicaciones construidas sobre modelos de lenguaje grandes de una clase única de amenazas que no existían en la seguridad de software tradicional. A medida que las organizaciones implementan chatbots de IA, agentes autónomos y flujos de trabajo impulsados por LLM a escala, comprender y abordar las vulnerabilidades específicas de LLM se convierte en un requisito operativo crítico.
La seguridad de aplicaciones tradicional asume un límite claro entre código (instrucciones) y datos (entrada del usuario). La validación de entrada, las consultas parametrizadas y la codificación de salida funcionan al hacer cumplir este límite estructuralmente.
Los modelos de lenguaje grandes colapsan este límite. Procesan todo — instrucciones del desarrollador, mensajes del usuario, documentos recuperados, salidas de herramientas — como un flujo unificado de tokens de lenguaje natural. El modelo no puede distinguir de manera confiable un prompt del sistema de una entrada maliciosa del usuario diseñada para parecer uno. Esta propiedad fundamental crea superficies de ataque sin equivalente en el software tradicional.
Además, los LLM son agentes capaces que utilizan herramientas. Un chatbot vulnerable no es solo un riesgo de contenido — puede ser un vector de ataque para exfiltrar datos, ejecutar llamadas API no autorizadas y manipular sistemas conectados.
El Open Worldwide Application Security Project (OWASP) publica el LLM Top 10 — la referencia estándar de la industria para riesgos críticos de seguridad de LLM:
LLM01 — Inyección de Prompts: Entradas maliciosas o contenido recuperado anulan las instrucciones del LLM. Ver Inyección de Prompts .
LLM02 — Manejo Inseguro de Salida: El contenido generado por LLM se utiliza en sistemas posteriores (renderizado web, ejecución de código, consultas SQL) sin validación, habilitando XSS, inyección SQL y otros ataques secundarios.
LLM03 — Envenenamiento de Datos de Entrenamiento: Datos maliciosos inyectados en conjuntos de datos de entrenamiento causan degradación del comportamiento del modelo o introducen puertas traseras.
LLM04 — Denegación de Servicio del Modelo: Entradas computacionalmente costosas causan consumo excesivo de recursos, degradando la disponibilidad del servicio.
LLM05 — Vulnerabilidades de la Cadena de Suministro: Modelos preentrenados, plugins o datos de entrenamiento comprometidos introducen vulnerabilidades antes del despliegue.
LLM06 — Divulgación de Información Sensible: Los LLM revelan datos confidenciales de los datos de entrenamiento, prompts del sistema o documentos recuperados. Ver Exfiltración de Datos (Contexto IA) .
LLM07 — Diseño Inseguro de Plugins: Los plugins o herramientas conectados a LLM carecen de autorización adecuada, habilitando ataques de escalación.
LLM08 — Agencia Excesiva: Los LLM con permisos o capacidades excesivas pueden causar daños significativos cuando son manipulados.
LLM09 — Dependencia Excesiva: Las organizaciones no logran evaluar críticamente las salidas de LLM, permitiendo que errores o información fabricada afecten las decisiones.
LLM10 — Robo del Modelo: Acceso no autorizado o replicación de pesos o capacidades de LLM propietarios.
El control individual más impactante: limitar a qué puede acceder y qué puede hacer su LLM. Un chatbot de servicio al cliente no necesita acceso a la base de datos de recursos humanos, sistemas de procesamiento de pagos o APIs de administración. Aplicar principios de mínimo privilegio limita dramáticamente el radio de explosión de un ataque exitoso.
Los prompts del sistema definen el comportamiento del chatbot y a menudo contienen instrucciones sensibles para el negocio. Las consideraciones de seguridad incluyen:
Si bien ningún filtro es infalible, validar las entradas reduce la superficie de ataque:
La generación aumentada por recuperación introduce nuevas superficies de ataque. Las implementaciones RAG seguras requieren:
Las barreras de protección en tiempo de ejecución en capas proporcionan defensa en profundidad más allá de la alineación a nivel de modelo:
Las técnicas de ataque a LLM evolucionan rápidamente. Las pruebas de penetración de IA y el red teaming de IA deben realizarse regularmente — como mínimo antes de cambios importantes y anualmente como evaluaciones de referencia.
Los LLM procesan instrucciones en lenguaje natural y datos a través del mismo canal, haciendo imposible separar estructuralmente el código del contenido. Las defensas tradicionales como la validación de entrada y las consultas parametrizadas no tienen un equivalente directo. Nuevas clases de ataques como la inyección de prompts, el jailbreaking y el envenenamiento RAG requieren prácticas de seguridad especializadas.
El OWASP LLM Top 10 define los riesgos más críticos: inyección de prompts, manejo inseguro de salida, envenenamiento de datos de entrenamiento, denegación de servicio del modelo, vulnerabilidades de la cadena de suministro, divulgación de información sensible, diseño inseguro de plugins, agencia excesiva, dependencia excesiva y robo del modelo.
La seguridad de LLM requiere defensa en profundidad: diseño seguro de prompts del sistema, validación de entrada/salida, barreras de protección en tiempo de ejecución, separación de privilegios, monitoreo y detección de anomalías, pruebas de penetración regulares y concienciación de seguridad de los empleados sobre riesgos específicos de IA.
Evaluación profesional de seguridad LLM que cubre todas las categorías del OWASP LLM Top 10. Obtenga una imagen clara de las vulnerabilidades de su chatbot de IA y un plan de remediación priorizado.

El OWASP LLM Top 10 es la lista estándar de la industria de los 10 riesgos de seguridad y protección más críticos para aplicaciones construidas sobre modelos de...

La guía técnica completa del OWASP LLM Top 10 — cubriendo las 10 categorías de vulnerabilidades con ejemplos reales de ataques, contexto de severidad y orientac...

Las API LLM enfrentan escenarios de abuso únicos más allá de la seguridad tradicional de API. Aprenda cómo asegurar implementaciones de API LLM contra abuso de ...