
Vinduer (Windowing)
Vinduer i kunstig intelligens refererer til å behandle data i segmenter eller “vinduer” for å analysere sekvensiell informasjon effektivt. Essensielt innen NLP ...

Manipulering av kontekstvindu refererer til angrep som utnytter det begrensede kontekstvinduet til store språkmodeller — inkludert context stuffing, kontekstoverflyt og strategisk forgiftning — for å svekke ytelse, skjule ondsinnede payloads eller overstyre tidligere instruksjoner.
Kontekstvinduet er en av de viktigste og minst forståtte sikkerhetsgrensene i distribusjoner av store språkmodeller. Det definerer hvilken informasjon LLM-en kan få tilgang til under et enkelt inferenskall — og det er en begrenset ressurs som angripere bevisst kan utnytte.
En stor språkmodell behandler tekst som tokens (omtrent 3/4 av et ord per token). Kontekstvinduet definerer det maksimale antallet tokens modellen kan behandle samtidig. Moderne modeller varierer fra 4K til over 1M tokens, men alle har begrensninger.
Innenfor kontekstvinduet behandler LLM-en:
Alt dette fremstår som en enhetlig strøm for modellen. Modellen har ingen iboende mekanisme for å behandle instruksjoner fra forskjellige kilder ulikt — og dens oppmerksomhet på spesifikke deler av konteksten er ikke ensartet.
Angriperen sender inn en ekstremt stor inndata — ofte et langvarig dokument, kodeblokk eller tekstdump — for å skyve tidligere innhold (spesielt systemprompt) lenger fra modellens nåværende posisjon.
Forskning viser at LLM-er viser “lost in the middle”-oppførsel: de gir mer oppmerksomhet til innhold i begynnelsen og slutten av lange kontekster, og mindre oppmerksomhet til informasjon i midten. Ved å oversvømme konteksten kan en angriper strategisk posisjonere sin ondsinnede payload (typisk på slutten) mens tidligere sikkerhetsinstruksjoner driver inn i lavoppmerksomhetssonen i midten.
Praktisk eksempel: En chatbots systemprompt etablerer at den ikke kan diskutere konkurrentprodukter. En angriper sender inn et 50 000-token dokument etterfulgt av en prompt som spør om konkurrenter. Systemprompt-instruksjonen har blitt effektivt utvannet.
Når konteksten fylles opp, må LLM-en eller dens infrastruktur bestemme hva som skal droppes. Hvis trunkering prioriterer nyhet (dropper det eldste innholdet først), kan en angriper oversvømme konteksten for å eliminere systemprompt helt — og etterlate modellen som opererer kun med brukerstyrt kontekst.
Angrepssekvensen:
I RAG-systemer bruker hentede dokumenter betydelig kontekstplass. En angriper som kan påvirke hva som blir hentet (gjennom RAG-forgiftning ) kan selektivt fylle konteksten med innhold som tjener deres mål mens de fortrenger legitim informasjon.
Forskning har identifisert at instruksjoner på spesifikke posisjoner i konteksten har uforholdsmessig innflytelse. Angripere som forstår kontekstsammensetning kan lage inndata designet for å lande på høyoppmerksomhetsposisjoner i forhold til deres payload.
I modeller som støtter svært lange kontekster (hundretusenvis av tokens), kan angripere innebygde hundrevis av “demonstrasjons”-eksempler som viser at modellen produserer policybrytende utdata før den faktiske ondsinnede forespørselen. Modellen, betinget av disse demonstrasjonene, er betydelig mer sannsynlig å følge med.
Ikke plasser alle sikkerhetskritiske instruksjoner bare i begynnelsen av systemprompt. Gjenta nøkkelbegrensninger på slutten av systemprompt og vurder å injisere korte påminnelser på viktige punkter i lange samtaler.
Implementer maksimale inndata-lengdebegrensninger som er passende for ditt brukstilfelle. En kundeservice-chatbot trenger sjelden å behandle 100 000-token inndata — å begrense dette reduserer risikoen for flooding-angrep.
Logg og overvåk kontekststørrelser og sammensetning. Uvanlig store inndata, rask kontekstvekst eller uventet kontekstsammensetning er potensielle angrepsindikatorer.
For langvarige samtaler, implementer kontekstoppsummering som beholder nøkkelfakta og begrensninger heller enn rå samtalehistorikk. Dette motstår overflyt-angrep samtidig som det opprettholder samtalekontinuitet.
Inkluder kontekstmanipuleringsscenarier i engasjementer for AI-penetrasjonstesting . Test om sikkerhetsoppførsel holder seg over lange kontekster og om systemprompts forblir effektive etter kontekstflooding.
Manipulering av kontekstvindu er en undervurdert angrepsflatE. Vår penetrasjonstesting inkluderer kontekstoverflyt og strategiske forgiftningsscenarier.

Vinduer i kunstig intelligens refererer til å behandle data i segmenter eller “vinduer” for å analysere sekvensiell informasjon effektivt. Essensielt innen NLP ...

Lær hvordan kontekst-ingeniørkunst optimaliserer AI-agenters ytelse ved å administrere tokens strategisk, redusere kontekstsvelling og implementere avanserte te...

Token smuggling utnytter gapet mellom hvordan mennesker leser tekst og hvordan LLM-tokenizere behandler den. Angripere bruker Unicode-variasjoner, null-bredde-t...