
OWASP LLM Top 10
OWASP LLM Top 10 je průmyslovým standardem seznamu 10 nejkritičtějších bezpečnostních a ochranných rizik pro aplikace postavené na velkých jazykových modelech, ...

Bezpečnost LLM zahrnuje praktiky, techniky a kontrolní mechanismy používané k ochraně nasazení velkých jazykových modelů před jedinečnou třídou hrozeb specifických pro AI, včetně prompt injection, jailbreakingu, exfiltrace dat, RAG poisoningu a zneužití modelu.
Bezpečnost LLM je specializovaná disciplína zaměřená na ochranu aplikací postavených na velkých jazykových modelech před jedinečnou třídou hrozeb, které v tradiční bezpečnosti softwaru neexistovaly. Jak organizace nasazují AI chatboty, autonomní agenty a pracovní postupy poháněné LLM ve velkém měřítku, pochopení a řešení zranitelností specifických pro LLM se stává kritickým provozním požadavkem.
Tradiční bezpečnost aplikací předpokládá jasnou hranici mezi kódem (instrukcemi) a daty (vstupem uživatele). Validace vstupu, parametrizované dotazy a kódování výstupu fungují tak, že tuto hranici strukturálně vynucují.
Velké jazykové modely tuto hranici boří. Zpracovávají vše — instrukce vývojářů, zprávy uživatelů, získané dokumenty, výstupy nástrojů — jako jednotný proud tokenů přirozeného jazyka. Model nemůže spolehlivě rozlišit systémový prompt od škodlivého uživatelského vstupu navrženého tak, aby vypadal jako jeden. Tato základní vlastnost vytváří útočné plochy, které nemají ekvivalent v tradičním softwaru.
Navíc jsou LLM schopné agenty používající nástroje. Zranitelný chatbot není jen rizikem z hlediska obsahu — může být útokovým vektorem pro exfiltraci dat, provádění neautorizovaných API volání a manipulaci připojených systémů.
Open Worldwide Application Security Project (OWASP) publikuje LLM Top 10 — průmyslový standard pro kritická bezpečnostní rizika LLM:
LLM01 — Prompt Injection: Škodlivé vstupy nebo získaný obsah přepíší instrukce LLM. Viz Prompt Injection .
LLM02 — Nezabezpečené zpracování výstupu: Obsah generovaný LLM je použit v navazujících systémech (webové vykreslování, spouštění kódu, SQL dotazy) bez validace, což umožňuje XSS, SQL injection a další sekundární útoky.
LLM03 — Otrávení trénovacích dat: Škodlivá data vložená do trénovacích datasetů způsobují degradaci chování modelu nebo zavádějí zadní vrátka.
LLM04 — Denial of Service modelu: Výpočetně náročné vstupy způsobují nadměrnou spotřebu zdrojů, což snižuje dostupnost služby.
LLM05 — Zranitelnosti dodavatelského řetězce: Kompromitované předtrénované modely, pluginy nebo trénovací data zavádějí zranitelnosti před nasazením.
LLM06 — Odhalení citlivých informací: LLM odhalují důvěrná data z trénovacích dat, systémových promptů nebo získaných dokumentů. Viz Exfiltrace dat (AI kontext) .
LLM07 — Nezabezpečený design pluginů: Pluginy nebo nástroje připojené k LLM postrádají správnou autorizaci, což umožňuje eskalační útoky.
LLM08 — Nadměrná pravomoc: LLM s nadměrnými oprávněními nebo schopnostmi mohou při manipulaci způsobit značné škody.
LLM09 — Přílišné spoléhání: Organizace nedokáží kriticky vyhodnotit výstupy LLM, což umožňuje, aby chyby nebo vymyšlené informace ovlivnily rozhodování.
LLM10 — Krádež modelu: Neautorizovaný přístup nebo replikace proprietárních vah LLM nebo schopností.
Nejúčinnější jednotlivý kontrolní mechanismus: omezte, k čemu váš LLM může přistupovat a co může dělat. Chatbot zákaznického servisu nepotřebuje přístup k databázi HR, systémům zpracování plateb nebo administrátorským API. Aplikace principů nejmenších oprávnění dramaticky omezuje dopad úspěšného útoku.
Systémové prompty definují chování chatbota a často obsahují obchodně citlivé instrukce. Bezpečnostní aspekty zahrnují:
Ačkoli žádný filtr není neprůstřelný, validace vstupů snižuje útočnou plochu:
Generování rozšířené o vyhledávání (RAG) zavádí nové útočné plochy. Bezpečná nasazení RAG vyžadují:
Vrstvené runtime guardrails poskytují obranu do hloubky nad rámec zarovnání na úrovni modelu:
Techniky útoků na LLM se rychle vyvíjejí. AI penetrační testování a AI red teaming by měly být prováděny pravidelně — minimálně před významnými změnami a ročně jako základní posouzení.
LLM zpracovávají instrukce a data v přirozeném jazyce stejným kanálem, což znemožňuje strukturálně oddělit kód od obsahu. Tradiční obranné mechanismy jako validace vstupu a parametrizované dotazy nemají přímý ekvivalent. Nové třídy útoků jako prompt injection, jailbreaking a RAG poisoning vyžadují specializované bezpečnostní praktiky.
OWASP LLM Top 10 definuje nejkritičtější rizika: prompt injection, nezabezpečené zpracování výstupu, otrávení trénovacích dat, denial of service modelu, zranitelnosti dodavatelského řetězce, odhalení citlivých informací, nezabezpečený design pluginů, nadměrná pravomoc, přílišné spoléhání a krádež modelu.
Bezpečnost LLM vyžaduje obranu do hloubky: zabezpečený design systémového promptu, validaci vstupu/výstupu, runtime guardrails, oddělení oprávnění, monitorování a detekci anomálií, pravidelné penetrační testování a povědomí zaměstnanců o bezpečnostních rizicích specifických pro AI.
Profesionální posouzení bezpečnosti LLM pokrývající všechny kategorie OWASP LLM Top 10. Získejte jasný přehled o zranitelnostech vašeho AI chatbota a prioritizovaný plán nápravy.

OWASP LLM Top 10 je průmyslovým standardem seznamu 10 nejkritičtějších bezpečnostních a ochranných rizik pro aplikace postavené na velkých jazykových modelech, ...

Otestovali jsme a seřadili schopnosti psaní 5 populárních modelů dostupných ve FlowHunt, abychom našli nejlepší LLM pro tvorbu obsahu.

Kompletní technický průvodce OWASP LLM Top 10 — pokrývající všech 10 kategorií zranitelností s reálnými příklady útoků, kontextem závažnosti a konkrétním návode...