
OWASP LLM Top 10
OWASP LLM Top 10 er branchestandardlisten over de 10 mest kritiske sikkerheds- og sikkerhedsrisici for applikationer bygget på store sprogmodeller, der dækker p...

LLM-sikkerhed omfatter de praksisser, teknikker og kontrolforanstaltninger, der bruges til at beskytte implementeringer af store sprogmodeller mod en unik klasse af AI-specifikke trusler, herunder prompt injection, jailbreaking, dataeksfiltrering, RAG-forgiftning og modelmisbrug.
LLM-sikkerhed er den specialiserede disciplin, der handler om at beskytte applikationer bygget på store sprogmodeller mod en unik klasse af trusler, som ikke eksisterede i traditionel softwaresikkerhed. Efterhånden som organisationer implementerer AI-chatbots, autonome agenter og LLM-drevne arbejdsgange i stor skala, bliver forståelse og håndtering af LLM-specifikke sårbarheder et kritisk operationelt krav.
Traditionel applikationssikkerhed antager en klar grænse mellem kode (instruktioner) og data (brugerinput). Inputvalidering, parameteriserede forespørgsler og outputkodning fungerer ved at håndhæve denne grænse strukturelt.
Store sprogmodeller ophæver denne grænse. De behandler alt — udviklerinstruktioner, brugermeddelelser, hentede dokumenter, værktøjsoutput — som en samlet strøm af naturlige sprogtokens. Modellen kan ikke pålideligt skelne en systemprompt fra et ondsindet brugerinput designet til at ligne en. Denne grundlæggende egenskab skaber angrebsflader uden tilsvarende i traditionel software.
Derudover er LLM’er kapable agenter, der bruger værktøjer. En sårbar chatbot er ikke kun en indholdsrisiko — den kan være en angrebsvektor til at eksfiltere data, udføre uautoriserede API-kald og manipulere tilsluttede systemer.
Open Worldwide Application Security Project (OWASP) udgiver LLM Top 10 — industristandarden for kritiske LLM-sikkerhedsrisici:
LLM01 — Prompt Injection: Ondsindede input eller hentet indhold tilsidesætter LLM-instruktioner. Se Prompt Injection .
LLM02 — Usikker outputhåndtering: LLM-genereret indhold bruges i downstream-systemer (webrendering, kodeudførelse, SQL-forespørgsler) uden validering, hvilket muliggør XSS, SQL injection og andre sekundære angreb.
LLM03 — Forgiftning af træningsdata: Ondsindet data injiceret i træningsdatasæt forårsager forringelse af modeladfærd eller introducerer bagdøre.
LLM04 — Model Denial of Service: Beregningsintensive input forårsager overdreven ressourceforbrug, hvilket forringer tjenestens tilgængelighed.
LLM05 — Sårbarheder i forsyningskæden: Kompromitterede prætrænede modeller, plugins eller træningsdata introducerer sårbarheder før implementering.
LLM06 — Afsløring af følsomme oplysninger: LLM’er afslører fortrolige data fra træningsdata, systemprompts eller hentede dokumenter. Se Dataeksfiltrering (AI-kontekst) .
LLM07 — Usikkert plugin-design: Plugins eller værktøjer tilsluttet LLM’er mangler korrekt autorisation, hvilket muliggør eskaleringangreb.
LLM08 — Overdreven handlefrihed: LLM’er, der får overdrevne tilladelser eller kapaciteter, kan forårsage betydelig skade, når de manipuleres.
LLM09 — Overafhængighed: Organisationer undlader at evaluere LLM-output kritisk, hvilket gør det muligt for fejl eller fabrikerede oplysninger at påvirke beslutninger.
LLM10 — Modeltyveri: Uautoriseret adgang til eller replikering af proprietære LLM-vægte eller -kapaciteter.
Den mest effektfulde enkeltforanstaltning: begræns, hvad din LLM kan få adgang til og gøre. En kundeservicechatbot behøver ikke adgang til HR-databasen, betalingsbehandlingssystemer eller admin-API’er. Anvendelse af princippet om mindste privilegium reducerer dramatisk omfanget af et vellykket angreb.
Systemprompts definerer chatbot-adfærd og indeholder ofte forretningsfølsomme instruktioner. Sikkerhedshensyn omfatter:
Selvom intet filter er idiotsikkert, reducerer validering af input angrebsfladen:
Retrieval-augmented generation introducerer nye angrebsflader. Sikre RAG-implementeringer kræver:
Lagdelte runtime-sikkerhedsforanstaltninger giver forsvar i dybden ud over alignment på modelniveau:
LLM-angrebsteknikker udvikler sig hurtigt. AI-penetrationstest og AI red teaming bør udføres regelmæssigt — minimum før større ændringer og årligt som baseline-vurderinger.
LLM'er behandler naturlige sproginstruktioner og data gennem den samme kanal, hvilket gør det umuligt strukturelt at adskille kode fra indhold. Traditionelle forsvar som inputvalidering og parameteriserede forespørgsler har ingen direkte ækvivalent. Nye angrebsklasser som prompt injection, jailbreaking og RAG-forgiftning kræver specialiserede sikkerhedspraksisser.
OWASP LLM Top 10 definerer de mest kritiske risici: prompt injection, usikker outputhåndtering, forgiftning af træningsdata, model denial of service, sårbarheder i forsyningskæden, afsløring af følsomme oplysninger, usikkert plugin-design, overdreven handlefrihed, overafhængighed og modeltyveri.
LLM-sikkerhed kræver forsvar i dybden: sikkert design af systemprompt, input/output-validering, runtime-sikkerhedsforanstaltninger, privilegieadskillelse, overvågning og anomalidetektion, regelmæssig penetrationstest og medarbejdernes sikkerhedsbevidsthed om AI-specifikke risici.
Professionel LLM-sikkerhedsvurdering, der dækker alle OWASP LLM Top 10-kategorier. Få et klart billede af din AI-chatbots sårbarheder og en prioriteret afhjælpningsplan.

OWASP LLM Top 10 er branchestandardlisten over de 10 mest kritiske sikkerheds- og sikkerhedsrisici for applikationer bygget på store sprogmodeller, der dækker p...

Den komplette tekniske guide til OWASP LLM Top 10 — dækker alle 10 sårbarhedskategorier med reelle angrebseksempler, alvorlighedskontekst og konkret afhjælpning...

LLM API'er står over for unikke misbrugsscenarier ud over traditionel API-sikkerhed. Lær hvordan du sikrer LLM API-implementeringer mod autentificeringsmisbrug,...