
OWASP LLM Top 10
L'OWASP LLM Top 10 è la lista standard del settore dei 10 rischi di sicurezza e safety più critici per le applicazioni basate su large language model, che copre...

La sicurezza LLM comprende le pratiche, le tecniche e i controlli utilizzati per proteggere i deployment di large language model da una classe unica di minacce specifiche dell’AI, tra cui prompt injection, jailbreaking, esfiltrazione di dati, RAG poisoning e abuso del modello.
La sicurezza LLM è la disciplina specializzata di protezione delle applicazioni costruite su large language model da una classe unica di minacce che non esisteva nella sicurezza software tradizionale. Man mano che le organizzazioni implementano chatbot AI, agenti autonomi e workflow basati su LLM su larga scala, comprendere e affrontare le vulnerabilità specifiche degli LLM diventa un requisito operativo critico.
La sicurezza applicativa tradizionale presuppone un confine chiaro tra codice (istruzioni) e dati (input dell’utente). La validazione dell’input, le query parametrizzate e la codifica dell’output funzionano applicando questo confine strutturalmente.
I large language model collassano questo confine. Elaborano tutto — istruzioni dello sviluppatore, messaggi dell’utente, documenti recuperati, output degli strumenti — come un flusso unificato di token in linguaggio naturale. Il modello non può distinguere in modo affidabile un system prompt da un input utente malevolo progettato per sembrarne uno. Questa proprietà fondamentale crea superfici di attacco senza equivalenti nel software tradizionale.
Inoltre, gli LLM sono agenti capaci che utilizzano strumenti. Un chatbot vulnerabile non è solo un rischio per i contenuti — può essere un vettore di attacco per esfiltrazione di dati, esecuzione di chiamate API non autorizzate e manipolazione di sistemi connessi.
L’Open Worldwide Application Security Project (OWASP) pubblica l’LLM Top 10 — il riferimento standard del settore per i rischi critici di sicurezza LLM:
LLM01 — Prompt Injection: Input malevoli o contenuti recuperati sovrascrivono le istruzioni dell’LLM. Vedi Prompt Injection .
LLM02 — Gestione Insicura dell’Output: Il contenuto generato dall’LLM viene utilizzato in sistemi downstream (rendering web, esecuzione di codice, query SQL) senza validazione, abilitando XSS, SQL injection e altri attacchi secondari.
LLM03 — Avvelenamento dei Dati di Training: Dati malevoli iniettati nei dataset di training causano degrado del comportamento del modello o introducono backdoor.
LLM04 — Denial of Service del Modello: Input computazionalmente costosi causano un consumo eccessivo di risorse, degradando la disponibilità del servizio.
LLM05 — Vulnerabilità della Supply Chain: Modelli pre-addestrati compromessi, plugin o dati di training introducono vulnerabilità prima del deployment.
LLM06 — Divulgazione di Informazioni Sensibili: Gli LLM rivelano dati confidenziali dai dati di training, system prompt o documenti recuperati. Vedi Esfiltrazione di Dati (Contesto AI) .
LLM07 — Design Insicuro dei Plugin: Plugin o strumenti connessi agli LLM mancano di un’autorizzazione adeguata, abilitando attacchi di escalation.
LLM08 — Eccessiva Autonomia: Gli LLM a cui vengono concessi permessi o capacità eccessive possono causare danni significativi quando manipolati.
LLM09 — Eccessivo Affidamento: Le organizzazioni non riescono a valutare criticamente gli output degli LLM, permettendo a errori o informazioni fabbricate di influenzare le decisioni.
LLM10 — Furto del Modello: Accesso non autorizzato o replicazione di pesi o capacità proprietarie dell’LLM.
Il controllo singolo più efficace: limita ciò a cui il tuo LLM può accedere e fare. Un chatbot per il servizio clienti non ha bisogno di accesso al database HR, ai sistemi di elaborazione dei pagamenti o alle API amministrative. L’applicazione dei principi di minimo privilegio limita drasticamente il raggio d’azione di un attacco riuscito.
I system prompt definiscono il comportamento del chatbot e spesso contengono istruzioni sensibili dal punto di vista aziendale. Le considerazioni di sicurezza includono:
Sebbene nessun filtro sia infallibile, la validazione degli input riduce la superficie di attacco:
La retrieval-augmented generation introduce nuove superfici di attacco. I deployment RAG sicuri richiedono:
Guardrail runtime stratificati forniscono difesa in profondità oltre l’allineamento a livello di modello:
Le tecniche di attacco LLM evolvono rapidamente. Il penetration testing AI e l’AI red teaming dovrebbero essere condotti regolarmente — come minimo prima di cambiamenti importanti e annualmente come valutazioni di base.
Gli LLM elaborano istruzioni e dati in linguaggio naturale attraverso lo stesso canale, rendendo impossibile separare strutturalmente il codice dal contenuto. Le difese tradizionali come la validazione dell'input e le query parametrizzate non hanno un equivalente diretto. Nuove classi di attacco come prompt injection, jailbreaking e RAG poisoning richiedono pratiche di sicurezza specializzate.
L'OWASP LLM Top 10 definisce i rischi più critici: prompt injection, gestione insicura dell'output, avvelenamento dei dati di training, denial of service del modello, vulnerabilità della supply chain, divulgazione di informazioni sensibili, design insicuro dei plugin, eccessiva autonomia, eccessivo affidamento e furto del modello.
La sicurezza LLM richiede una difesa in profondità: design sicuro del system prompt, validazione di input/output, guardrail runtime, separazione dei privilegi, monitoraggio e rilevamento delle anomalie, penetration testing regolare e consapevolezza della sicurezza dei dipendenti riguardo ai rischi specifici dell'AI.
Valutazione professionale della sicurezza LLM che copre tutte le 10 categorie OWASP LLM Top 10. Ottieni un quadro chiaro delle vulnerabilità del tuo chatbot AI e un piano di remediation prioritizzato.

L'OWASP LLM Top 10 è la lista standard del settore dei 10 rischi di sicurezza e safety più critici per le applicazioni basate su large language model, che copre...

La guida tecnica completa all'OWASP LLM Top 10 — che copre tutte le 10 categorie di vulnerabilità con esempi reali di attacco, contesto di gravità e indicazioni...

Abbiamo testato e classificato le capacità di scrittura di 5 modelli popolari disponibili su FlowHunt per trovare il miglior LLM per la creazione di contenuti.