
OWASP LLM Top 10
OWASP LLM Top 10 je priemyselný štandard zoznamu 10 najkritickejších bezpečnostných a ochranných rizík pre aplikácie postavené na veľkých jazykových modeloch, p...

Bezpečnosť LLM zahŕňa postupy, techniky a kontroly používané na ochranu nasadení veľkých jazykových modelov pred jedinečnou triedou hrozieb špecifických pre AI vrátane prompt injection, jailbreakingu, exfiltrácie dát, RAG poisoningu a zneužitia modelu.
Bezpečnosť LLM je špecializovaná disciplína ochrany aplikácií postavených na veľkých jazykových modeloch pred jedinečnou triedou hrozieb, ktoré v tradičnej bezpečnosti softvéru neexistovali. Keď organizácie nasadzujú AI chatbotov, autonómnych agentov a pracovné postupy poháňané LLM vo veľkom meradle, pochopenie a riešenie zraniteľností špecifických pre LLM sa stáva kritickým prevádzkových požiadavkou.
Tradičná bezpečnosť aplikácií predpokladá jasnú hranicu medzi kódom (inštrukciami) a dátami (vstupom používateľa). Validácia vstupu, parametrizované dotazy a kódovanie výstupu fungujú vynucovaním tejto hranice štrukturálne.
Veľké jazykové modely túto hranicu rušia. Spracúvajú všetko — inštrukcie vývojára, správy používateľov, získané dokumenty, výstupy nástrojov — ako jednotný prúd tokenov prirodzeného jazyka. Model nemôže spoľahlivo rozlíšiť systémový prompt od škodlivého vstupu používateľa navrhnutého tak, aby vyzeral ako jeden. Táto základná vlastnosť vytvára útočné plochy bez ekvivalentu v tradičnom softvéri.
Okrem toho sú LLM schopní agenti používajúci nástroje. Zraniteľný chatbot nie je len riziko obsahu — môže byť útočným vektorom pre exfiltráciu dát, vykonávanie neoprávnených API volaní a manipuláciu pripojených systémov.
Open Worldwide Application Security Project (OWASP) publikuje LLM Top 10 — priemyselný štandard pre kritické bezpečnostné riziká LLM:
LLM01 — Prompt Injection: Škodlivé vstupy alebo získaný obsah prepíšu inštrukcie LLM. Pozri Prompt Injection .
LLM02 — Nezabezpečené spracovanie výstupu: Obsah generovaný LLM sa používa v downstream systémoch (web rendering, vykonávanie kódu, SQL dotazy) bez validácie, čo umožňuje XSS, SQL injection a iné sekundárne útoky.
LLM03 — Otrava trénovacích dát: Škodlivé dáta vložené do trénovacích datasetov spôsobujú degradáciu správania modelu alebo zavádzajú backdoory.
LLM04 — Odopretie služby modelu: Výpočtovo náročné vstupy spôsobujú nadmernú spotrebu zdrojov, čo znižuje dostupnosť služby.
LLM05 — Zraniteľnosti dodávateľského reťazca: Kompromitované predtrénované modely, pluginy alebo trénovacie dáta zavádzajú zraniteľnosti pred nasadením.
LLM06 — Zverejnenie citlivých informácií: LLM odhaľujú dôverné dáta z trénovacích dát, systémových promptov alebo získaných dokumentov. Pozri Exfiltrácia dát (AI kontext) .
LLM07 — Nezabezpečený dizajn pluginov: Pluginy alebo nástroje pripojené k LLM nemajú správnu autorizáciu, čo umožňuje eskaláciu útokov.
LLM08 — Nadmerná právomoc: LLM s udelenými nadmernými právami alebo schopnosťami môžu spôsobiť značnú škodu pri manipulácii.
LLM09 — Nadmerné spoliehanie sa: Organizácie nekriticky vyhodnocujú výstupy LLM, čo umožňuje chybám alebo vymysleným informáciám ovplyvniť rozhodnutia.
LLM10 — Krádež modelu: Neoprávnený prístup alebo replikácia proprietárnych váh LLM alebo schopností.
Najvplyvnejšia jednotlivá kontrola: obmedzte, k čomu môže váš LLM pristupovať a čo môže robiť. Chatbot zákazníckej podpory nepotrebuje prístup k HR databáze, systémom spracovania platieb alebo admin API. Aplikácia princípov najmenších privilégií dramaticky obmedzuje dosah úspešného útoku.
Systémové prompty definujú správanie chatbota a často obsahujú obchodne citlivé inštrukcie. Bezpečnostné aspekty zahŕňajú:
Hoci žiadny filter nie je neomylný, validácia vstupov znižuje útočnú plochu:
Retrieval-augmented generation zavádza nové útočné plochy. Bezpečné nasadenia RAG vyžadujú:
Vrstvové runtime guardrails poskytujú vrstvenú obranu nad rámec zarovnania na úrovni modelu:
Techniky útokov na LLM sa rýchlo vyvíjajú. AI penetračné testovanie a AI red teaming by sa mali vykonávať pravidelne — minimálne pred väčšími zmenami a ročne ako základné posúdenia.
LLM spracúvajú inštrukcie a dáta v prirodzenom jazyku cez ten istý kanál, čo znemožňuje štrukturálne oddelenie kódu od obsahu. Tradičné obranné mechanizmy ako validácia vstupu a parametrizované dotazy nemajú priamy ekvivalent. Nové triedy útokov ako prompt injection, jailbreaking a RAG poisoning vyžadujú špecializované bezpečnostné postupy.
OWASP LLM Top 10 definuje najkritickejšie riziká: prompt injection, nezabezpečené spracovanie výstupu, otrava trénovacích dát, odopretie služby modelu, zraniteľnosti dodávateľského reťazca, zverejnenie citlivých informácií, nezabezpečený dizajn pluginov, nadmerná právomoc, nadmerné spoliehanie sa a krádež modelu.
Bezpečnosť LLM vyžaduje vrstvovú obranu: bezpečný dizajn systémového promptu, validáciu vstupu/výstupu, runtime guardrails, oddelenie privilégií, monitorovanie a detekciu anomálií, pravidelné penetračné testovanie a povedomie zamestnancov o bezpečnostných rizikách špecifických pre AI.
Profesionálne posúdenie bezpečnosti LLM pokrývajúce všetky kategórie OWASP LLM Top 10. Získajte jasný obraz o zraniteľnostiach vášho AI chatbota a prioritizovaný plán nápravy.

OWASP LLM Top 10 je priemyselný štandard zoznamu 10 najkritickejších bezpečnostných a ochranných rizík pre aplikácie postavené na veľkých jazykových modeloch, p...

Kompletný technický sprievodca OWASP LLM Top 10 — pokrývajúci všetkých 10 kategórií zraniteľností s reálnymi príkladmi útokov, kontextom závažnosti a konkrétnym...

Otestovali sme a zoradili schopnosti písania 5 populárnych modelov dostupných vo FlowHunt, aby sme našli najlepší LLM pre tvorbu obsahu.