
OWASP LLM Top 10
L'OWASP LLM Top 10 est la liste standard de l'industrie des 10 risques de sécurité et de sûreté les plus critiques pour les applications construites sur de gran...

La sécurité des LLM englobe les pratiques, techniques et contrôles utilisés pour protéger les déploiements de modèles de langage contre une classe unique de menaces spécifiques à l’IA, notamment l’injection de prompt, le jailbreaking, l’exfiltration de données, l’empoisonnement RAG et l’abus de modèle.
La sécurité des LLM est la discipline spécialisée de protection des applications construites sur des modèles de langage contre une classe unique de menaces qui n’existait pas dans la sécurité logicielle traditionnelle. Alors que les organisations déploient des chatbots IA, des agents autonomes et des flux de travail alimentés par LLM à grande échelle, comprendre et traiter les vulnérabilités spécifiques aux LLM devient une exigence opérationnelle critique.
La sécurité applicative traditionnelle suppose une frontière claire entre le code (instructions) et les données (entrée utilisateur). La validation d’entrée, les requêtes paramétrées et l’encodage de sortie fonctionnent en appliquant cette frontière de manière structurelle.
Les modèles de langage effondrent cette frontière. Ils traitent tout — instructions du développeur, messages utilisateur, documents récupérés, sorties d’outils — comme un flux unifié de tokens en langage naturel. Le modèle ne peut pas distinguer de manière fiable un prompt système d’une entrée utilisateur malveillante conçue pour ressembler à un tel prompt. Cette propriété fondamentale crée des surfaces d’attaque sans équivalent dans les logiciels traditionnels.
De plus, les LLM sont des agents capables et utilisant des outils. Un chatbot vulnérable n’est pas seulement un risque de contenu — il peut être un vecteur d’attaque pour exfiltrer des données, exécuter des appels API non autorisés et manipuler des systèmes connectés.
L’Open Worldwide Application Security Project (OWASP) publie le LLM Top 10 — la référence standard de l’industrie pour les risques critiques de sécurité LLM :
LLM01 — Injection de prompt : Des entrées malveillantes ou du contenu récupéré remplacent les instructions du LLM. Voir Injection de prompt .
LLM02 — Gestion non sécurisée des sorties : Le contenu généré par le LLM est utilisé dans des systèmes en aval (rendu web, exécution de code, requêtes SQL) sans validation, permettant des attaques XSS, injection SQL et autres attaques secondaires.
LLM03 — Empoisonnement des données d’entraînement : Des données malveillantes injectées dans les ensembles de données d’entraînement provoquent une dégradation du comportement du modèle ou introduisent des portes dérobées.
LLM04 — Déni de service du modèle : Des entrées coûteuses en calcul provoquent une consommation excessive de ressources, dégradant la disponibilité du service.
LLM05 — Vulnérabilités de la chaîne d’approvisionnement : Des modèles pré-entraînés, plugins ou données d’entraînement compromis introduisent des vulnérabilités avant le déploiement.
LLM06 — Divulgation d’informations sensibles : Les LLM révèlent des données confidentielles provenant des données d’entraînement, des prompts système ou des documents récupérés. Voir Exfiltration de données (contexte IA) .
LLM07 — Conception non sécurisée de plugins : Les plugins ou outils connectés aux LLM manquent d’autorisation appropriée, permettant des attaques par escalade.
LLM08 — Agence excessive : Les LLM dotés de permissions ou de capacités excessives peuvent causer des dommages importants lorsqu’ils sont manipulés.
LLM09 — Dépendance excessive : Les organisations ne parviennent pas à évaluer de manière critique les sorties du LLM, permettant aux erreurs ou informations fabriquées d’affecter les décisions.
LLM10 — Vol de modèle : Accès non autorisé ou réplication de poids ou capacités LLM propriétaires.
Le contrôle unique le plus impactant : limitez ce que votre LLM peut accéder et faire. Un chatbot de service client n’a pas besoin d’accéder à la base de données RH, aux systèmes de traitement des paiements ou aux API d’administration. L’application des principes de moindre privilège limite considérablement le rayon d’impact d’une attaque réussie.
Les prompts système définissent le comportement du chatbot et contiennent souvent des instructions sensibles pour l’entreprise. Les considérations de sécurité incluent :
Bien qu’aucun filtre ne soit infaillible, la validation des entrées réduit la surface d’attaque :
La génération augmentée par récupération introduit de nouvelles surfaces d’attaque. Les déploiements RAG sécurisés nécessitent :
Des garde-fous d’exécution en couches fournissent une défense en profondeur au-delà de l’alignement au niveau du modèle :
Les techniques d’attaque LLM évoluent rapidement. Les tests de pénétration IA et le red teaming IA doivent être effectués régulièrement — au minimum avant les changements majeurs et annuellement comme évaluations de référence.
Les LLM traitent les instructions en langage naturel et les données via le même canal, rendant impossible la séparation structurelle du code et du contenu. Les défenses traditionnelles comme la validation d'entrée et les requêtes paramétrées n'ont pas d'équivalent direct. De nouvelles classes d'attaques comme l'injection de prompt, le jailbreaking et l'empoisonnement RAG nécessitent des pratiques de sécurité spécialisées.
L'OWASP LLM Top 10 définit les risques les plus critiques : injection de prompt, gestion non sécurisée des sorties, empoisonnement des données d'entraînement, déni de service du modèle, vulnérabilités de la chaîne d'approvisionnement, divulgation d'informations sensibles, conception non sécurisée de plugins, agence excessive, dépendance excessive et vol de modèle.
La sécurité des LLM nécessite une défense en profondeur : conception sécurisée du prompt système, validation des entrées/sorties, garde-fous d'exécution, séparation des privilèges, surveillance et détection d'anomalies, tests de pénétration réguliers et sensibilisation à la sécurité des employés concernant les risques spécifiques à l'IA.
Évaluation professionnelle de la sécurité LLM couvrant toutes les catégories OWASP LLM Top 10. Obtenez une vision claire des vulnérabilités de votre chatbot IA et un plan de remédiation priorisé.

L'OWASP LLM Top 10 est la liste standard de l'industrie des 10 risques de sécurité et de sûreté les plus critiques pour les applications construites sur de gran...

Les API LLM sont confrontées à des scénarios d'abus uniques au-delà de la sécurité traditionnelle des API. Découvrez comment sécuriser les déploiements d'API LL...

Le guide technique complet sur l'OWASP LLM Top 10 — couvrant les 10 catégories de vulnérabilités avec des exemples d'attaques réelles, un contexte de gravité et...