
OWASP LLM Top 10
OWASP LLM Top 10, büyük dil modelleri üzerine inşa edilmiş uygulamalar için en kritik 10 güvenlik ve emniyet riskini içeren endüstri standardı listedir; prompt ...

LLM güvenliği, büyük dil modeli dağıtımlarını prompt enjeksiyonu, jailbreaking, veri sızdırma, RAG zehirlenmesi ve model kötüye kullanımı gibi yapay zekaya özgü benzersiz tehdit sınıfından korumak için kullanılan uygulamaları, teknikleri ve kontrolleri kapsar.
LLM güvenliği, geleneksel yazılım güvenliğinde var olmayan benzersiz bir tehdit sınıfından büyük dil modelleri üzerine inşa edilmiş uygulamaları koruma konusunda uzmanlaşmış bir disiplindir. Kuruluşlar yapay zeka chatbotlarını, otonom ajanları ve LLM destekli iş akışlarını ölçekte dağıttıkça, LLM’ye özgü güvenlik açıklarını anlamak ve ele almak kritik bir operasyonel gereklilik haline gelir.
Geleneksel uygulama güvenliği, kod (talimatlar) ile veri (kullanıcı girdisi) arasında net bir sınır olduğunu varsayar. Girdi doğrulama, parametreli sorgular ve çıktı kodlaması bu sınırı yapısal olarak zorlayarak çalışır.
Büyük dil modelleri bu sınırı ortadan kaldırır. Her şeyi — geliştirici talimatlarını, kullanıcı mesajlarını, alınan belgeleri, araç çıktılarını — birleşik bir doğal dil token akışı olarak işlerler. Model, bir sistem prompt’unu, sistem prompt’u gibi görünmek üzere tasarlanmış kötü niyetli bir kullanıcı girdisinden güvenilir bir şekilde ayırt edemez. Bu temel özellik, geleneksel yazılımda eşdeğeri olmayan saldırı yüzeyleri oluşturur.
Ek olarak, LLM’ler yetenekli, araç kullanan ajanlardır. Savunmasız bir chatbot sadece bir içerik riski değildir — veri sızdırma, yetkisiz API çağrıları yapma ve bağlı sistemleri manipüle etme için bir saldırı vektörü olabilir.
Açık Dünya Çapında Uygulama Güvenliği Projesi (OWASP), kritik LLM güvenlik riskleri için endüstri standardı referans olan LLM İlk 10’u yayınlar:
LLM01 — Prompt Enjeksiyonu: Kötü niyetli girdiler veya alınan içerik LLM talimatlarını geçersiz kılar. Bkz. Prompt Enjeksiyonu .
LLM02 — Güvensiz Çıktı İşleme: LLM tarafından oluşturulan içerik, doğrulama olmadan aşağı akış sistemlerinde (web render etme, kod yürütme, SQL sorguları) kullanılır ve XSS, SQL enjeksiyonu ve diğer ikincil saldırıları mümkün kılar.
LLM03 — Eğitim Verisi Zehirlenmesi: Eğitim veri kümelerine enjekte edilen kötü niyetli veriler, model davranışının bozulmasına neden olur veya arka kapılar oluşturur.
LLM04 — Model Hizmet Reddi: Hesaplama açısından pahalı girdiler aşırı kaynak tüketimine neden olarak hizmet kullanılabilirliğini düşürür.
LLM05 — Tedarik Zinciri Güvenlik Açıkları: Tehlikeye atılmış önceden eğitilmiş modeller, eklentiler veya eğitim verileri, dağıtımdan önce güvenlik açıkları getirir.
LLM06 — Hassas Bilgi İfşası: LLM’ler eğitim verilerinden, sistem prompt’larından veya alınan belgelerden gizli verileri ifşa eder. Bkz. Veri Sızdırma (Yapay Zeka Bağlamı) .
LLM07 — Güvensiz Eklenti Tasarımı: LLM’lere bağlı eklentiler veya araçlar uygun yetkilendirmeden yoksundur ve yükseltme saldırılarını mümkün kılar.
LLM08 — Aşırı Yetki: Aşırı izinler veya yetenekler verilen LLM’ler manipüle edildiklerinde önemli zararlara neden olabilir.
LLM09 — Aşırı Güven: Kuruluşlar LLM çıktılarını eleştirel olarak değerlendirmekte başarısız olur ve hataların veya uydurulmuş bilgilerin kararları etkilemesine olanak tanır.
LLM10 — Model Hırsızlığı: Özel LLM ağırlıklarına veya yeteneklerine yetkisiz erişim veya çoğaltma.
En etkili tek kontrol: LLM’nizin erişebileceği ve yapabileceği şeyleri sınırlayın. Bir müşteri hizmetleri chatbotunun İK veritabanına, ödeme işleme sistemlerine veya yönetici API’lerine erişime ihtiyacı yoktur. En az ayrıcalık ilkelerini uygulamak, başarılı bir saldırının patlama yarıçapını önemli ölçüde sınırlar.
Sistem prompt’ları chatbot davranışını tanımlar ve genellikle işletmeye duyarlı talimatlar içerir. Güvenlik değerlendirmeleri şunları içerir:
Hiçbir filtre kusursuz olmasa da, girdileri doğrulamak saldırı yüzeyini azaltır:
Alınarak genişletilmiş üretim (retrieval-augmented generation), yeni saldırı yüzeyleri sunar. Güvenli RAG dağıtımları şunları gerektirir:
Katmanlı çalışma zamanı korkulukları, model seviyesi hizalamanın ötesinde derinlemesine savunma sağlar:
LLM saldırı teknikleri hızla gelişir. Yapay zeka penetrasyon testi ve yapay zeka red teaming düzenli olarak gerçekleştirilmelidir — en azından büyük değişikliklerden önce ve yıllık temel değerlendirmeler olarak.
LLM'ler doğal dil talimatlarını ve verileri aynı kanal üzerinden işler, bu da kod ile içeriği yapısal olarak ayırmayı imkansız hale getirir. Girdi doğrulama ve parametreli sorgular gibi geleneksel savunmaların doğrudan bir eşdeğeri yoktur. Prompt enjeksiyonu, jailbreaking ve RAG zehirlenmesi gibi yeni saldırı sınıfları özel güvenlik uygulamaları gerektirir.
OWASP LLM İlk 10, en kritik riskleri tanımlar: prompt enjeksiyonu, güvensiz çıktı işleme, eğitim verisi zehirlenmesi, model hizmet reddi, tedarik zinciri güvenlik açıkları, hassas bilgi ifşası, güvensiz eklenti tasarımı, aşırı yetki, aşırı güven ve model hırsızlığı.
LLM güvenliği derinlemesine savunma gerektirir: güvenli sistem prompt tasarımı, girdi/çıktı doğrulama, çalışma zamanı korkulukları, ayrıcalık ayrımı, izleme ve anomali tespiti, düzenli penetrasyon testleri ve yapay zekaya özgü riskler hakkında çalışan güvenlik farkındalığı.
Tüm OWASP LLM İlk 10 kategorilerini kapsayan profesyonel LLM güvenlik değerlendirmesi. Yapay zeka chatbotunuzun güvenlik açıklarının net bir resmini ve önceliklendirilmiş bir düzeltme planı edinin.

OWASP LLM Top 10, büyük dil modelleri üzerine inşa edilmiş uygulamalar için en kritik 10 güvenlik ve emniyet riskini içeren endüstri standardı listedir; prompt ...

OWASP LLM Top 10'a yönelik kapsamlı teknik kılavuz — gerçek saldırı örnekleri, önem düzeyi bağlamı ve LLM destekli uygulamalar oluşturan ve güvenliğini sağlayan...

FlowHunt’ta bulunan 5 popüler modelin yazma yeteneklerini test ederek içerik yazarlığı için en iyi LLM’yi bulduk ve sıraladık.