
Vinduer (Windowing)
Vinduer (windowing) i kunstig intelligens refererer til behandling af data i segmenter eller “vinduer” for effektivt at analysere sekventiel information. Det er...

Manipulation af kontekstvindue refererer til angreb, der udnytter det begrænsede kontekstvindue i store sprogmodeller — herunder context stuffing, kontekst overflow og strategisk forgiftning — for at forringe ydeevnen, skjule ondsindede payloads eller tilsidesætte tidligere instruktioner.
Kontekstvinduet er en af de vigtigste og mindst forståede sikkerhedsgrænser i implementeringer af store sprogmodeller. Det definerer, hvilke informationer LLM’en kan få adgang til under et enkelt inferenskald — og det er en begrænset ressource, som angribere bevidst kan udnytte.
En stor sprogmodel behandler tekst som tokens (cirka 3/4 af et ord pr. token). Kontekstvinduet definerer det maksimale antal tokens, som modellen kan behandle på én gang. Moderne modeller spænder fra 4K til over 1M tokens, men alle har grænser.
Inden for kontekstvinduet behandler LLM’en:
Alt dette fremstår som en samlet strøm for modellen. Modellen har ingen iboende mekanisme til at behandle instruktioner fra forskellige kilder forskelligt — og dens opmærksomhed på specifikke dele af konteksten er ikke ensartet.
Angriberen indsender et ekstremt stort input — ofte et langt dokument, kodeblok eller tekstdump — for at skubbe tidligere indhold (især systemprompt) længere væk fra modellens aktuelle position.
Forskning viser, at LLM’er udviser “lost in the middle”-adfærd: de er mere opmærksomme på indhold i begyndelsen og slutningen af lange kontekster og mindre opmærksomme på information i midten. Ved at oversvømme konteksten kan en angriber strategisk placere deres ondsindede payload (typisk i slutningen), mens tidligere sikkerhedsinstruktioner driver ind i den lavt-opmærksomme midterzone.
Praktisk eksempel: En chatbots systemprompt fastslår, at den ikke kan diskutere konkurrentprodukter. En angriber indsender et 50.000-token dokument efterfulgt af en prompt, der spørger om konkurrenter. Systemprompt-instruktionen er blevet effektivt udvandet.
Når konteksten fyldes op, skal LLM’en eller dens infrastruktur beslutte, hvad der skal droppes. Hvis trunkering prioriterer aktualitet (dropper det ældste indhold først), kan en angriber oversvømme konteksten for at eliminere systemprompt helt — hvilket efterlader modellen til at operere med kun brugerleveret kontekst.
Angrebs sekvensen:
I RAG-systemer forbruger hentede dokumenter betydelig kontekstplads. En angriber, der kan påvirke, hvad der hentes (gennem RAG-forgiftning ), kan selektivt fylde konteksten med indhold, der tjener deres mål, mens legitim information trænges ud.
Forskning har identificeret, at instruktioner på specifikke positioner i konteksten har uforholdsmæssig indflydelse. Angribere, der forstår kontekstsammensætning, kan skabe input designet til at lande på høj-opmærksomhedspositioner i forhold til deres payload.
I modeller, der understøtter meget lange kontekster (hundreder af tusinder af tokens), kan angribere indlejre hundredvis af “demonstrations”-eksempler, der viser modellen producere politik-krænkende output før den faktiske ondsindede anmodning. Modellen, betinget af disse demonstrationer, er betydeligt mere tilbøjelig til at efterkomme.
Placer ikke alle sikkerhedskritiske instruktioner kun i begyndelsen af systemprompt. Gentag nøglebegrænsninger i slutningen af systemprompt og overvej at injicere korte påmindelser på nøglepunkter i lange samtaler.
Implementer maksimale inputlængdegrænser passende til dit anvendelsesområde. En kundeservice-chatbot har sjældent behov for at behandle 100.000-token input — begrænsning af dette reducerer risikoen for flood-angreb.
Log og overvåg kontekststørrelser og sammensætning. Usædvanligt store input, hurtig kontekstvækst eller uventet kontekstsammensætning er potentielle angrebsindikatorer.
For langvarige samtaler, implementer kontekstopsummering, der bevarer nøglefakta og begrænsninger frem for rå samtalehistorik. Dette modstår overflow-angreb, mens det opretholder samtalekontinuitet.
Inkluder kontekstmanipulationsscenarier i AI-penetrationstest engagementer. Test om sikkerhedsadfærd holder på tværs af lange kontekster, og om systemprompts forbliver effektive efter kontekst flooding.
Kontekstvinduet er mængden af tekst (målt i tokens), som en stor sprogmodel kan behandle på én gang. Det inkluderer systemprompt, samtalehistorik, hentede dokumenter og værktøjsoutput. Alt, hvad modellen 'ved' under en session, skal passe inden for dette vindue.
Angribere kan oversvømme konteksten med irrelevant indhold for at skubbe tidlige instruktioner (inklusive sikkerhedsforanstaltninger) ud af modellens effektive opmærksomhed, injicere ondsindede payloads, der er begravet i lange kontekster og overses af filtre, eller udnytte kontekst trunkering for at sikre, at ondsindet indhold overlever, mens legitime instruktioner ikke gør det.
Forsvarsmekanismer inkluderer: forankring af kritiske instruktioner på flere punkter i konteksten (ikke kun i begyndelsen), implementering af grænser for kontekststørrelse, overvågning af usædvanligt store kontekst payloads, brug af kontekstopsummering til lange samtaler og test af kontekstmanipulationsscenarier i sikkerhedsvurderinger.
Manipulation af kontekstvindue er en undervurderet angrebsflade. Vores penetrationstest inkluderer kontekst overflow og strategiske forgiftningsscenarier.

Vinduer (windowing) i kunstig intelligens refererer til behandling af data i segmenter eller “vinduer” for effektivt at analysere sekventiel information. Det er...

En stor sprogmodel (LLM) er en type AI, der er trænet på enorme tekstmængder for at forstå, generere og manipulere menneskesprog. LLM'er bruger dyb læring og tr...

Vi har testet og rangeret skriveevnerne hos 5 populære modeller, der er tilgængelige i FlowHunt, for at finde den bedste LLM til indholdsforfatning.