
OWASP LLM Top 10
De OWASP LLM Top 10 is de industriestandaard lijst van de 10 meest kritieke beveiligings- en veiligheidsrisico's voor applicaties gebouwd op large language mode...

LLM-beveiliging omvat de praktijken, technieken en controles die worden gebruikt om large language model implementaties te beschermen tegen een unieke klasse van AI-specifieke bedreigingen, waaronder prompt injection, jailbreaking, data-exfiltratie, RAG-poisoning en misbruik van modellen.
LLM-beveiliging is de gespecialiseerde discipline van het beschermen van applicaties die zijn gebouwd op large language models tegen een unieke klasse van bedreigingen die niet bestonden in traditionele softwarebeveiliging. Naarmate organisaties AI-chatbots, autonome agents en LLM-aangedreven workflows op grote schaal implementeren, wordt het begrijpen en aanpakken van LLM-specifieke kwetsbaarheden een kritieke operationele vereiste.
Traditionele applicatiebeveiliging gaat uit van een duidelijke grens tussen code (instructies) en data (gebruikersinvoer). Inputvalidatie, geparametriseerde queries en output-encoding werken door deze grens structureel af te dwingen.
Large language models laten deze grens vervallen. Ze verwerken alles — ontwikkelaarsinstructies, gebruikersberichten, opgehaalde documenten, tool-outputs — als een uniforme stroom van natuurlijke taaltokens. Het model kan niet betrouwbaar onderscheid maken tussen een systeem prompt en een kwaadaardige gebruikersinvoer die is ontworpen om erop te lijken. Deze fundamentele eigenschap creëert aanvalsoppervlakken zonder equivalent in traditionele software.
Bovendien zijn LLM’s capabele, tool-gebruikende agents. Een kwetsbare chatbot is niet alleen een inhoudsrisico — het kan een aanvalsvector zijn voor het exfiltreren van data, het uitvoeren van ongeautoriseerde API-aanroepen en het manipuleren van verbonden systemen.
Het Open Worldwide Application Security Project (OWASP) publiceert de LLM Top 10 — de industriestandaard referentie voor kritieke LLM-beveiligingsrisico’s:
LLM01 — Prompt Injection: Kwaadaardige invoer of opgehaalde inhoud overschrijft LLM-instructies. Zie Prompt Injection .
LLM02 — Onveilige output-verwerking: Door LLM gegenereerde inhoud wordt gebruikt in downstream systemen (webrendering, code-executie, SQL-queries) zonder validatie, waardoor XSS, SQL-injection en andere secundaire aanvallen mogelijk worden.
LLM03 — Poisoning van trainingsdata: Kwaadaardige data geïnjecteerd in trainingsdatasets veroorzaakt degradatie van modelgedrag of introduceert backdoors.
LLM04 — Model Denial of Service: Rekenintensieve invoer veroorzaakt buitensporig resourceverbruik, waardoor de beschikbaarheid van de dienst afneemt.
LLM05 — Supply chain kwetsbaarheden: Gecompromitteerde voorgetrainde modellen, plugins of trainingsdata introduceren kwetsbaarheden vóór implementatie.
LLM06 — Openbaarmaking van gevoelige informatie: LLM’s onthullen vertrouwelijke data uit trainingsdata, systeem prompts of opgehaalde documenten. Zie Data-exfiltratie (AI-context) .
LLM07 — Onveilig plugin-ontwerp: Plugins of tools verbonden met LLM’s missen de juiste autorisatie, waardoor escalatie-aanvallen mogelijk worden.
LLM08 — Buitensporige bevoegdheden: LLM’s met buitensporige machtigingen of mogelijkheden kunnen aanzienlijke schade veroorzaken wanneer ze worden gemanipuleerd.
LLM09 — Overmatig vertrouwen: Organisaties falen in het kritisch evalueren van LLM-outputs, waardoor fouten of gefabriceerde informatie beslissingen kunnen beïnvloeden.
LLM10 — Modeldiefstal: Ongeautoriseerde toegang tot of replicatie van propriëtaire LLM-gewichten of -mogelijkheden.
De meest impactvolle enkele controle: beperk waartoe uw LLM toegang heeft en wat het kan doen. Een klantenservice chatbot heeft geen toegang nodig tot de HR-database, betalingsverwerkingssystemen of admin-API’s. Het toepassen van least-privilege principes beperkt de blast radius van een succesvolle aanval dramatisch.
Systeem prompts definiëren chatbotgedrag en bevatten vaak bedrijfsgevoelige instructies. Beveiligingsoverwegingen omvatten:
Hoewel geen enkel filter onfeilbaar is, vermindert het valideren van invoer het aanvalsoppervlak:
Retrieval-augmented generation introduceert nieuwe aanvalsoppervlakken. Veilige RAG-implementaties vereisen:
Gelaagde runtime guardrails bieden defense-in-depth naast alignment op modelniveau:
LLM-aanvalstechnieken evolueren snel. AI-penetratietesten en AI red teaming moeten regelmatig worden uitgevoerd — minimaal vóór grote wijzigingen en jaarlijks als baseline beoordelingen.
LLM's verwerken natuurlijke taalinstructies en data via hetzelfde kanaal, waardoor het onmogelijk is om code structureel te scheiden van inhoud. Traditionele verdedigingsmechanismen zoals inputvalidatie en geparametriseerde queries hebben geen direct equivalent. Nieuwe aanvalsklassen zoals prompt injection, jailbreaking en RAG-poisoning vereisen gespecialiseerde beveiligingspraktijken.
De OWASP LLM Top 10 definieert de meest kritieke risico's: prompt injection, onveilige output-verwerking, poisoning van trainingsdata, model denial of service, supply chain kwetsbaarheden, openbaarmaking van gevoelige informatie, onveilig plugin-ontwerp, buitensporige bevoegdheden, overmatig vertrouwen en modeldiefstal.
LLM-beveiliging vereist defense-in-depth: veilig systeem prompt ontwerp, input/output validatie, runtime guardrails, privilege separation, monitoring en anomaliedetectie, regelmatige penetratietesten en bewustzijn van medewerkers over AI-specifieke risico's.
Professionele LLM-beveiligingsbeoordeling die alle OWASP LLM Top 10 categorieën omvat. Krijg een helder beeld van de kwetsbaarheden van uw AI-chatbot en een geprioriteerd herstelplan.

De OWASP LLM Top 10 is de industriestandaard lijst van de 10 meest kritieke beveiligings- en veiligheidsrisico's voor applicaties gebouwd op large language mode...

De complete technische gids voor OWASP LLM Top 10 — met alle 10 kwetsbaarheidscategorieën, echte aanvalsvoorbeelden, ernstcontext en concrete herstelrichtlijnen...

LLM API's worden geconfronteerd met unieke misbruikscenario's die verder gaan dan traditionele API-beveiliging. Leer hoe u LLM API-implementaties kunt beveilige...