
OWASP LLM Top 10
OWASP LLM Top 10 je průmyslovým standardem seznamu 10 nejkritičtějších bezpečnostních a ochranných rizik pro aplikace postavené na velkých jazykových modelech, ...

Bezpečnost LLM zahrnuje praktiky, techniky a kontrolní mechanismy používané k ochraně nasazení velkých jazykových modelů před jedinečnou třídou hrozeb specifických pro AI, včetně prompt injection, jailbreakingu, exfiltrace dat, RAG poisoningu a zneužití modelu.
Bezpečnost LLM je specializovaná disciplína zaměřená na ochranu aplikací postavených na velkých jazykových modelech před jedinečnou třídou hrozeb, které v tradiční bezpečnosti softwaru neexistovaly. Jak organizace nasazují AI chatboty, autonomní agenty a pracovní postupy poháněné LLM ve velkém měřítku, pochopení a řešení zranitelností specifických pro LLM se stává kritickým provozním požadavkem.
Tradiční bezpečnost aplikací předpokládá jasnou hranici mezi kódem (instrukcemi) a daty (vstupem uživatele). Validace vstupu, parametrizované dotazy a kódování výstupu fungují tak, že tuto hranici strukturálně vynucují.
Velké jazykové modely tuto hranici boří. Zpracovávají vše — instrukce vývojářů, zprávy uživatelů, získané dokumenty, výstupy nástrojů — jako jednotný proud tokenů přirozeného jazyka. Model nemůže spolehlivě rozlišit systémový prompt od škodlivého uživatelského vstupu navrženého tak, aby vypadal jako jeden. Tato základní vlastnost vytváří útočné plochy, které nemají ekvivalent v tradičním softwaru.
Navíc jsou LLM schopné agenty používající nástroje. Zranitelný chatbot není jen rizikem z hlediska obsahu — může být útokovým vektorem pro exfiltraci dat, provádění neautorizovaných API volání a manipulaci připojených systémů.
Open Worldwide Application Security Project (OWASP) publikuje LLM Top 10 — průmyslový standard pro kritická bezpečnostní rizika LLM:
LLM01 — Prompt Injection: Škodlivé vstupy nebo získaný obsah přepíší instrukce LLM. Viz Prompt Injection .
LLM02 — Nezabezpečené zpracování výstupu: Obsah generovaný LLM je použit v navazujících systémech (webové vykreslování, spouštění kódu, SQL dotazy) bez validace, což umožňuje XSS, SQL injection a další sekundární útoky.
LLM03 — Otrávení trénovacích dat: Škodlivá data vložená do trénovacích datasetů způsobují degradaci chování modelu nebo zavádějí zadní vrátka.
LLM04 — Denial of Service modelu: Výpočetně náročné vstupy způsobují nadměrnou spotřebu zdrojů, což snižuje dostupnost služby.
LLM05 — Zranitelnosti dodavatelského řetězce: Kompromitované předtrénované modely, pluginy nebo trénovací data zavádějí zranitelnosti před nasazením.
LLM06 — Odhalení citlivých informací: LLM odhalují důvěrná data z trénovacích dat, systémových promptů nebo získaných dokumentů. Viz Exfiltrace dat (AI kontext) .
LLM07 — Nezabezpečený design pluginů: Pluginy nebo nástroje připojené k LLM postrádají správnou autorizaci, což umožňuje eskalační útoky.
LLM08 — Nadměrná pravomoc: LLM s nadměrnými oprávněními nebo schopnostmi mohou při manipulaci způsobit značné škody.
LLM09 — Přílišné spoléhání: Organizace nedokáží kriticky vyhodnotit výstupy LLM, což umožňuje, aby chyby nebo vymyšlené informace ovlivnily rozhodování.
LLM10 — Krádež modelu: Neautorizovaný přístup nebo replikace proprietárních vah LLM nebo schopností.
Nejúčinnější jednotlivý kontrolní mechanismus: omezte, k čemu váš LLM může přistupovat a co může dělat. Chatbot zákaznického servisu nepotřebuje přístup k databázi HR, systémům zpracování plateb nebo administrátorským API. Aplikace principů nejmenších oprávnění dramaticky omezuje dopad úspěšného útoku.
Systémové prompty definují chování chatbota a často obsahují obchodně citlivé instrukce. Bezpečnostní aspekty zahrnují:
Ačkoli žádný filtr není neprůstřelný, validace vstupů snižuje útočnou plochu:
Generování rozšířené o vyhledávání (RAG) zavádí nové útočné plochy. Bezpečná nasazení RAG vyžadují:
Vrstvené runtime guardrails poskytují obranu do hloubky nad rámec zarovnání na úrovni modelu:
Techniky útoků na LLM se rychle vyvíjejí. AI penetrační testování a AI red teaming by měly být prováděny pravidelně — minimálně před významnými změnami a ročně jako základní posouzení.
Profesionální posouzení bezpečnosti LLM pokrývající všechny kategorie OWASP LLM Top 10. Získejte jasný přehled o zranitelnostech vašeho AI chatbota a prioritizovaný plán nápravy.

OWASP LLM Top 10 je průmyslovým standardem seznamu 10 nejkritičtějších bezpečnostních a ochranných rizik pro aplikace postavené na velkých jazykových modelech, ...

LLM API čelí jedinečným scénářům zneužití nad rámec tradičního zabezpečení API. Naučte se, jak zabezpečit nasazení LLM API proti zneužití autentizace, obcházení...

Kompletní technický průvodce OWASP LLM Top 10 — pokrývající všech 10 kategorií zranitelností s reálnými příklady útoků, kontextem závažnosti a konkrétním návode...