LLM-sikkerhed

LLM-sikkerhed er den specialiserede disciplin, der handler om at beskytte applikationer bygget på store sprogmodeller mod en unik klasse af trusler, som ikke eksisterede i traditionel softwaresikkerhed. Efterhånden som organisationer implementerer AI-chatbots, autonome agenter og LLM-drevne arbejdsgange i stor skala, bliver forståelse og håndtering af LLM-specifikke sårbarheder et kritisk operationelt krav.

Hvorfor LLM’er kræver en ny sikkerhedstilgang

Traditionel applikationssikkerhed antager en klar grænse mellem kode (instruktioner) og data (brugerinput). Inputvalidering, parameteriserede forespørgsler og outputkodning fungerer ved at håndhæve denne grænse strukturelt.

Store sprogmodeller ophæver denne grænse. De behandler alt — udviklerinstruktioner, brugermeddelelser, hentede dokumenter, værktøjsoutput — som en samlet strøm af naturlige sprogtokens. Modellen kan ikke pålideligt skelne en systemprompt fra et ondsindet brugerinput designet til at ligne en. Denne grundlæggende egenskab skaber angrebsflader uden tilsvarende i traditionel software.

Derudover er LLM’er kapable agenter, der bruger værktøjer. En sårbar chatbot er ikke kun en indholdsrisiko — den kan være en angrebsvektor til at eksfiltere data, udføre uautoriserede API-kald og manipulere tilsluttede systemer.

OWASP LLM Top 10

Open Worldwide Application Security Project (OWASP) udgiver LLM Top 10 — industristandarden for kritiske LLM-sikkerhedsrisici:

LLM01 — Prompt Injection: Ondsindede input eller hentet indhold tilsidesætter LLM-instruktioner. Se Prompt Injection .

LLM02 — Usikker outputhåndtering: LLM-genereret indhold bruges i downstream-systemer (webrendering, kodeudførelse, SQL-forespørgsler) uden validering, hvilket muliggør XSS, SQL injection og andre sekundære angreb.

LLM03 — Forgiftning af træningsdata: Ondsindet data injiceret i træningsdatasæt forårsager forringelse af modeladfærd eller introducerer bagdøre.

LLM04 — Model Denial of Service: Beregningsintensive input forårsager overdreven ressourceforbrug, hvilket forringer tjenestens tilgængelighed.

LLM05 — Sårbarheder i forsyningskæden: Kompromitterede prætrænede modeller, plugins eller træningsdata introducerer sårbarheder før implementering.

LLM06 — Afsløring af følsomme oplysninger: LLM’er afslører fortrolige data fra træningsdata, systemprompts eller hentede dokumenter. Se Dataeksfiltrering (AI-kontekst) .

LLM07 — Usikkert plugin-design: Plugins eller værktøjer tilsluttet LLM’er mangler korrekt autorisation, hvilket muliggør eskaleringangreb.

LLM08 — Overdreven handlefrihed: LLM’er, der får overdrevne tilladelser eller kapaciteter, kan forårsage betydelig skade, når de manipuleres.

LLM09 — Overafhængighed: Organisationer undlader at evaluere LLM-output kritisk, hvilket gør det muligt for fejl eller fabrikerede oplysninger at påvirke beslutninger.

LLM10 — Modeltyveri: Uautoriseret adgang til eller replikering af proprietære LLM-vægte eller -kapaciteter.

Logo

Klar til at vokse din virksomhed?

Start din gratis prøveperiode i dag og se resultater inden for få dage.

Centrale LLM-sikkerhedskontroller

Privilegieadskillelse og mindste autoritet

Den mest effektfulde enkeltforanstaltning: begræns, hvad din LLM kan få adgang til og gøre. En kundeservicechatbot behøver ikke adgang til HR-databasen, betalingsbehandlingssystemer eller admin-API’er. Anvendelse af princippet om mindste privilegium reducerer dramatisk omfanget af et vellykket angreb.

Sikkerhed for systemprompt

Systemprompts definerer chatbot-adfærd og indeholder ofte forretningsfølsomme instruktioner. Sikkerhedshensyn omfatter:

  • Inkluder ikke hemmeligheder, API-nøgler eller legitimationsoplysninger i systemprompts
  • Design prompts til at være modstandsdygtige over for tilsidesættelsesforsøg
  • Instruer eksplicit modellen om ikke at afsløre promptindhold
  • Test promptfortrolighed som en del af regelmæssige sikkerhedsvurderinger (se Systemprompt-ekstraktion )

Input- og outputvalidering

Selvom intet filter er idiotsikkert, reducerer validering af input angrebsfladen:

  • Marker og bloker almindelige injektionsmønstre og instruktionslignende formuleringer i brugerinput
  • Valider modeloutput, før de sendes til downstream-systemer
  • Brug strukturerede outputformater (JSON-skemaer) til at begrænse modelresponser

RAG-pipeline-sikkerhed

Retrieval-augmented generation introducerer nye angrebsflader. Sikre RAG-implementeringer kræver:

  • Streng kontrol med, hvem der kan tilføje indhold til indekserede vidensbaser
  • Indholdsvalidering før indeksering
  • Behandling af alt hentet indhold som potentielt upålideligt
  • Overvågning for forsøg på RAG-forgiftning

Runtime-sikkerhedsforanstaltninger

Lagdelte runtime-sikkerhedsforanstaltninger giver forsvar i dybden ud over alignment på modelniveau:

  • Indholdsmodereringsfiltre på både input og output
  • Adfærdsanomalidetektion
  • Hastighedsbegrænsning og forebyggelse af misbrug
  • Auditlogning til retsmedicinsk analyse

Regelmæssig sikkerhedstest

LLM-angrebsteknikker udvikler sig hurtigt. AI-penetrationstest og AI red teaming bør udføres regelmæssigt — minimum før større ændringer og årligt som baseline-vurderinger.

Relaterede termer

Ofte stillede spørgsmål

Hvad gør LLM-sikkerhed anderledes end traditionel applikationssikkerhed?

LLM'er behandler naturlige sproginstruktioner og data gennem den samme kanal, hvilket gør det umuligt strukturelt at adskille kode fra indhold. Traditionelle forsvar som inputvalidering og parameteriserede forespørgsler har ingen direkte ækvivalent. Nye angrebsklasser som prompt injection, jailbreaking og RAG-forgiftning kræver specialiserede sikkerhedspraksisser.

Hvad er de mest kritiske LLM-sikkerhedsrisici?

OWASP LLM Top 10 definerer de mest kritiske risici: prompt injection, usikker outputhåndtering, forgiftning af træningsdata, model denial of service, sårbarheder i forsyningskæden, afsløring af følsomme oplysninger, usikkert plugin-design, overdreven handlefrihed, overafhængighed og modeltyveri.

Hvordan bør organisationer gribe LLM-sikkerhed an?

LLM-sikkerhed kræver forsvar i dybden: sikkert design af systemprompt, input/output-validering, runtime-sikkerhedsforanstaltninger, privilegieadskillelse, overvågning og anomalidetektion, regelmæssig penetrationstest og medarbejdernes sikkerhedsbevidsthed om AI-specifikke risici.

Vurder din LLM-sikkerhedsstatus

Professionel LLM-sikkerhedsvurdering, der dækker alle OWASP LLM Top 10-kategorier. Få et klart billede af din AI-chatbots sårbarheder og en prioriteret afhjælpningsplan.

Lær mere

OWASP LLM Top 10
OWASP LLM Top 10

OWASP LLM Top 10

OWASP LLM Top 10 er branchestandardlisten over de 10 mest kritiske sikkerheds- og sikkerhedsrisici for applikationer bygget på store sprogmodeller, der dækker p...

4 min læsning
OWASP LLM Top 10 AI Security +3
OWASP LLM Top 10: Den Komplette Guide til AI-Udviklere og Sikkerhedsteams
OWASP LLM Top 10: Den Komplette Guide til AI-Udviklere og Sikkerhedsteams

OWASP LLM Top 10: Den Komplette Guide til AI-Udviklere og Sikkerhedsteams

Den komplette tekniske guide til OWASP LLM Top 10 — dækker alle 10 sårbarhedskategorier med reelle angrebseksempler, alvorlighedskontekst og konkret afhjælpning...

8 min læsning
OWASP LLM Top 10 AI Security +3