
Windowing
Windowing v oblasti umělé inteligence znamená zpracování dat v segmentech neboli „oknech“ za účelem efektivní analýzy sekvenčních informací. Je klíčové v NLP a ...

Manipulace s kontextovým oknem označuje útoky, které zneužívají omezené kontextové okno velkých jazykových modelů — včetně přeplnění kontextu, přetečení kontextu a strategického otrávení — k degradaci výkonu, zastření škodlivých payloadů nebo přepsání dřívějších instrukcí.
Kontextové okno je jednou z nejdůležitějších a nejméně pochopených bezpečnostních hranic v nasazeních velkých jazykových modelů. Definuje, k jakým informacím má LLM přístup během jediného volání inference — a je to konečný zdroj, který mohou útočníci záměrně zneužít.
Velký jazykový model zpracovává text jako tokeny (přibližně 3/4 slova na token). Kontextové okno definuje maximální počet tokenů, které může model zpracovat najednou. Moderní modely se pohybují od 4K do více než 1M tokenů, ale všechny mají limity.
V rámci kontextového okna LLM zpracovává:
To vše se modelu jeví jako jednotný proud. Model nemá inherentní mechanismus, jak zacházet s instrukcemi z různých zdrojů odlišně — a jeho pozornost ke konkrétním částem kontextu není jednotná.
Útočník odešle extrémně velký vstup — často zdlouhavý dokument, blok kódu nebo textový dump — aby posunul dřívější obsah (zejména systémový prompt) dále od aktuální pozice modelu.
Výzkum prokazuje, že LLM vykazují chování „ztraceno uprostřed": věnují větší pozornost obsahu na začátku a konci dlouhých kontextů a menší pozornost informacím uprostřed. Zaplavením kontextu může útočník strategicky umístit svůj škodlivý payload (typicky na konci), zatímco dřívější bezpečnostní instrukce upadnou do zóny nízké pozornosti uprostřed.
Praktický příklad: Systémový prompt chatbota stanoví, že nemůže diskutovat o produktech konkurence. Útočník odešle dokument o 50 000 tokenech následovaný promptem ptajícím se na konkurenci. Instrukce systémového promptu byla efektivně zředěna.
Když se kontext zaplní, LLM nebo jeho infrastruktura musí rozhodnout, co zahodit. Pokud ořezávání upřednostňuje nedávnost (nejprve zahodí nejstarší obsah), útočník může přetečením kontextu zcela eliminovat systémový prompt — čímž zůstane model pracující pouze s kontextem dodaným uživatelem.
Sekvence útoku:
V RAG systémech získané dokumenty spotřebovávají významný prostor kontextu. Útočník, který může ovlivnit, co je získáno (prostřednictvím otrávení RAG ), může selektivně zaplnit kontext obsahem, který slouží jeho cílům, zatímco vytlačí legitimní informace.
Výzkum identifikoval, že instrukce na konkrétních pozicích v kontextu mají neúměrný vliv. Útočníci, kteří rozumí sestavování kontextu, mohou vytvořit vstupy navržené tak, aby se umístily na pozice s vysokou pozorností relativně k jejich payloadu.
V modelech, které podporují velmi dlouhé kontexty (stovky tisíc tokenů), mohou útočníci vložit stovky „demonstračních" příkladů ukazujících model produkující výstupy porušující zásady před skutečným škodlivým požadavkem. Model, podmíněný těmito demonstracemi, je významně pravděpodobnější, že vyhoví.
Neumisťujte všechny bezpečnostně kritické instrukce pouze na začátek systémového promptu. Opakujte klíčová omezení na konci systémového promptu a zvažte vložení krátkých připomínek na klíčových místech v dlouhých konverzacích.
Implementujte maximální limity délky vstupu vhodné pro váš případ použití. Chatbot zákaznického servisu zřídka potřebuje zpracovat vstupy o 100 000 tokenech — omezení tohoto snižuje riziko útoku zaplavením.
Zaznamenávejte a monitorujte velikosti a složení kontextu. Neobvykle velké vstupy, rychlý růst kontextu nebo neočekávané složení kontextu jsou potenciálními indikátory útoku.
Pro dlouhotrvající konverzace implementujte sumarizaci kontextu, která zachovává klíčová fakta a omezení spíše než surovou historii konverzace. To odolává útokům přetečení při zachování kontinuity konverzace.
Zahrňte scénáře manipulace s kontextem do zapojení penetračního testování AI . Testujte, zda bezpečnostní chování zůstává v dlouhých kontextech a zda systémové prompty zůstávají efektivní po zaplavení kontextu.
Kontextové okno je množství textu (měřené v tokenech), které může velký jazykový model zpracovat najednou. Zahrnuje systémový prompt, historii konverzace, získané dokumenty a výstupy nástrojů. Vše, co model 'ví' během relace, se musí vejít do tohoto okna.
Útočníci mohou zaplavit kontext irelevantním obsahem, aby vytlačili rané instrukce (včetně bezpečnostních ochran) z efektivní pozornosti modelu, vložit škodlivé payloady, které jsou pohřbeny v dlouhých kontextech a přehlédnuty filtry, nebo zneužít chování ořezávání kontextu k zajištění přežití škodlivého obsahu, zatímco legitimní instrukce nikoli.
Obrana zahrnuje: ukotvení kritických instrukcí na více místech v kontextu (nejen na začátku), implementaci limitů velikosti kontextu, monitorování neobvykle velkých kontextových payloadů, použití sumarizace kontextu pro dlouhé konverzace a testování scénářů manipulace s kontextem v bezpečnostních posouzeních.
Manipulace s kontextovým oknem je podceňovaná útočná plocha. Naše penetrační testování zahrnuje scénáře přetečení kontextu a strategického otrávení.

Windowing v oblasti umělé inteligence znamená zpracování dat v segmentech neboli „oknech“ za účelem efektivní analýzy sekvenčních informací. Je klíčové v NLP a ...

Velký jazykový model (LLM) je typ umělé inteligence trénovaný na obrovském množství textových dat, aby porozuměl, generoval a upravoval lidský jazyk. LLM využív...

Otestovali jsme a seřadili schopnosti psaní 5 populárních modelů dostupných ve FlowHunt, abychom našli nejlepší LLM pro tvorbu obsahu.