
OWASP LLM Top 10
OWASP LLM Top 10 to branżowy standard listy 10 najbardziej krytycznych zagrożeń bezpieczeństwa i bezpieczeństwa dla aplikacji opartych na dużych modelach języko...

Bezpieczeństwo LLM obejmuje praktyki, techniki i kontrole służące do ochrony wdrożeń dużych modeli językowych przed unikalną klasą zagrożeń specyficznych dla AI, w tym wstrzykiwaniem promptów, jailbreakingiem, eksfiltrację danych, zatruwaniem RAG i nadużywaniem modeli.
Bezpieczeństwo LLM to wyspecjalizowana dyscyplina ochrony aplikacji zbudowanych na dużych modelach językowych przed unikalną klasą zagrożeń, które nie istniały w tradycyjnym bezpieczeństwie oprogramowania. W miarę jak organizacje wdrażają na dużą skalę chatboty AI, autonomiczne agenty i przepływy pracy oparte na LLM, zrozumienie i adresowanie podatności specyficznych dla LLM staje się krytycznym wymogiem operacyjnym.
Tradycyjne bezpieczeństwo aplikacji zakłada wyraźną granicę między kodem (instrukcjami) a danymi (danymi wejściowymi użytkownika). Walidacja danych wejściowych, zapytania parametryzowane i kodowanie danych wyjściowych działają poprzez strukturalne wymuszanie tej granicy.
Duże modele językowe zacierają tę granicę. Przetwarzają wszystko — instrukcje deweloperów, wiadomości użytkowników, pobrane dokumenty, wyniki narzędzi — jako zunifikowany strumień tokenów języka naturalnego. Model nie może wiarygodnie odróżnić promptu systemowego od złośliwego wejścia użytkownika zaprojektowanego tak, aby wyglądało jak taki prompt. Ta fundamentalna właściwość tworzy powierzchnie ataku bez odpowiednika w tradycyjnym oprogramowaniu.
Dodatkowo, LLM-y są zdolnymi agentami wykorzystującymi narzędzia. Podatny chatbot to nie tylko ryzyko treści — może być wektorem ataku do eksfiltracji danych, wykonywania nieautoryzowanych wywołań API i manipulowania połączonymi systemami.
Open Worldwide Application Security Project (OWASP) publikuje LLM Top 10 — będący standardem branżowym odnośnikiem dla krytycznych ryzyk bezpieczeństwa LLM:
LLM01 — Wstrzykiwanie Promptów: Złośliwe dane wejściowe lub pobrana treść nadpisują instrukcje LLM. Zobacz Wstrzykiwanie Promptów .
LLM02 — Niezabezpieczona Obsługa Danych Wyjściowych: Treść wygenerowana przez LLM jest używana w systemach downstream (renderowanie web, wykonywanie kodu, zapytania SQL) bez walidacji, umożliwiając XSS, wstrzykiwanie SQL i inne ataki wtórne.
LLM03 — Zatruwanie Danych Treningowych: Złośliwe dane wstrzyknięte do zbiorów danych treningowych powodują degradację zachowania modelu lub wprowadzają backdoory.
LLM04 — Odmowa Usługi Modelu: Obliczeniowo kosztowne dane wejściowe powodują nadmierne zużycie zasobów, degradując dostępność usługi.
LLM05 — Podatności Łańcucha Dostaw: Skompromitowane wstępnie wytrenowane modele, wtyczki lub dane treningowe wprowadzają podatności przed wdrożeniem.
LLM06 — Ujawnianie Poufnych Informacji: LLM-y ujawniają poufne dane z danych treningowych, promptów systemowych lub pobranych dokumentów. Zobacz Eksfiltacja Danych (Kontekst AI) .
LLM07 — Niezabezpieczony Projekt Wtyczek: Wtyczki lub narzędzia połączone z LLM-ami nie posiadają odpowiedniej autoryzacji, umożliwiając ataki eskalacyjne.
LLM08 — Nadmierna Autonomia: LLM-y otrzymujące nadmierne uprawnienia lub możliwości mogą spowodować znaczne szkody, gdy są manipulowane.
LLM09 — Nadmierne Poleganie: Organizacje nie oceniają krytycznie wyników LLM, umożliwiając błędom lub sfabrykowanym informacjom wpływanie na decyzje.
LLM10 — Kradzież Modelu: Nieautoryzowany dostęp lub replikacja zastrzeżonych wag LLM lub możliwości.
Najbardziej wpływowa pojedyncza kontrola: ogranicz to, do czego Twój LLM może mieć dostęp i co może robić. Chatbot obsługi klienta nie potrzebuje dostępu do bazy danych HR, systemów przetwarzania płatności ani API administratora. Zastosowanie zasad najmniejszych uprawnień dramatycznie ogranicza promień rażenia udanego ataku.
Prompty systemowe definiują zachowanie chatbota i często zawierają instrukcje wrażliwe biznesowo. Kwestie bezpieczeństwa obejmują:
Chociaż żaden filtr nie jest niezawodny, walidacja danych wejściowych zmniejsza powierzchnię ataku:
Generowanie wspomagane wyszukiwaniem (RAG) wprowadza nowe powierzchnie ataku. Bezpieczne wdrożenia RAG wymagają:
Warstwowe bariery środowiska wykonawczego zapewniają obronę warstwową wykraczającą poza wyrównanie na poziomie modelu:
Techniki ataków na LLM ewoluują szybko. Testy penetracyjne AI i AI red teaming powinny być przeprowadzane regularnie — co najmniej przed większymi zmianami i corocznie jako oceny bazowe.
LLM-y przetwarzają instrukcje i dane w języku naturalnym przez ten sam kanał, co uniemożliwia strukturalne oddzielenie kodu od treści. Tradycyjne mechanizmy obronne, takie jak walidacja danych wejściowych i zapytania parametryzowane, nie mają bezpośredniego odpowiednika. Nowe klasy ataków, takie jak wstrzykiwanie promptów, jailbreaking i zatruwanie RAG, wymagają specjalistycznych praktyk bezpieczeństwa.
OWASP LLM Top 10 definiuje najbardziej krytyczne ryzyka: wstrzykiwanie promptów, niezabezpieczona obsługa danych wyjściowych, zatruwanie danych treningowych, odmowa usługi modelu, podatności łańcucha dostaw, ujawnianie poufnych informacji, niezabezpieczony projekt wtyczek, nadmierna autonomia, nadmierne poleganie oraz kradzież modelu.
Bezpieczeństwo LLM wymaga obrony warstwowej: bezpiecznego projektowania promptów systemowych, walidacji danych wejściowych/wyjściowych, barier środowiska wykonawczego, rozdzielenia uprawnień, monitorowania i wykrywania anomalii, regularnych testów penetracyjnych oraz świadomości bezpieczeństwa pracowników dotyczącej ryzyk specyficznych dla AI.
Profesjonalna ocena bezpieczeństwa LLM obejmująca wszystkie kategorie OWASP LLM Top 10. Uzyskaj jasny obraz podatności swojego chatbota AI oraz priorytetowy plan naprawczy.

OWASP LLM Top 10 to branżowy standard listy 10 najbardziej krytycznych zagrożeń bezpieczeństwa i bezpieczeństwa dla aplikacji opartych na dużych modelach języko...

API LLM stają przed unikalnymi scenariuszami nadużyć wykraczającymi poza tradycyjne bezpieczeństwo API. Dowiedz się, jak zabezpieczyć wdrożenia API LLM przed na...

Kompletny przewodnik techniczny po OWASP LLM Top 10 — obejmujący wszystkie 10 kategorii podatności z rzeczywistymi przykładami ataków, kontekstem dotkliwości i ...