Yapay Zeka Güvenliği ve Yönetimi: OWASP Rapor İncelemesi

Bu yazımda OWASP tarafından hazırlanan, LLM AI Cybersecurity & Governance kaynağından elde ettiğim bilgileri paylaşacağım.

Şafak Arkun
DataBulls
5 min readJun 9, 2024

--

Yapay Zeka (AI) ve özellikle Büyük Dil Modelleri (LLM), günümüz dijital dünyasında hızla büyüyen ve karmaşıklaşan bir alan haline gelmektedir. OWASP tarafından hazırlanan LLM AI Güvenlik ve Yönetim araştırması, bu alandaki güvenlik ve yönetim sorunlarına çözüm sağlamak amacıyla kapsamlı bir rehber sunmaktadır. Rehber içerisinde yer alan ana başlıkları ve içeriğini detaylı bir sizlere aktarmaya çalışacağım.

Yapay Zeka alanında LLM ilişkisinin Görüntüsü

Sorumlu ve Güvenilir Yapay Zeka

AI’nin hızla gelişimi, sorumlu ve güvenilir kullanımın önemini artırmaktadır. OWASP, bu konuda temel ilkeler belirlemiş ve şeffaflık, hesap verebilirlik ve adalet gibi unsurları vurgulamaktadır. Kuruluşlar, AI uygulamalarını bu ilkeler doğrultusunda yönetmeli ve olası risklere karşı hazırlıklı olmalıdır.

Hazırlanan Bu Kılavuz Kimler İçin?

Bu rehber, AI ve LLM teknolojilerini kullanan veya kullanmayı planlayan yöneticiler, teknoloji liderleri, siber güvenlik uzmanları, gizlilik yetkilileri, uyum uzmanları ve hukuk danışmanları için tasarlanmış. Amacı, bu teknolojilerin getirdiği fırsatları en iyi şekilde değerlendirirken, aynı zamanda olası riskleri minumum seviyede tutmaktır.

Neden Bir Kontrol Listesi?

Kontrol listeleri, süreçlerin eksiksiz ve tutarlı bir şekilde yürütülmesini sağlar. AI gibi karmaşık ve sürekli değişen bir alanda, kontrol listeleri sayesinde stratejiler daha etkili bir şekilde geliştirilebilir ve uygulanabilir. OWASP tarafından hazırlanan kontrol listesi, AI benimseme sürecinde güvenlik olgunluğunu arttırmak ve sürekli iyileştirme sağlamak için önemli bir araç olarak değerlendirilebilir.

Büyük Dil Modellerine (LLM) Yönelik Kritik Konular

LLM Tehdit Kategorileri

LLM’ler, çeşitli tehdit kategorilerine karşı savunmasızdır. Bu tehditler arasında rakip saldırılar, veri ihlalleri ve model istismarı bulunmaktadır. Saldırganlar, LLM’leri kullanarak spesifik zararlı yazılımlar, oltalama planları ve deepfake’ler oluşturabilir.

Bu nedenle, LLM’lerin güvenliği için kapsamlı önlemler alınması tavsiye edilmektedir.

Yapay Zeka Güvenlik ve Gizlilik Eğitimi

Tüm çalışanların AI, üretken AI ve LLM’leri anlaması için eğitim alması önerilmektedir. Güvenlik farkındalığı eğitimleri, insan kaynakları, hukuk ekipleri, geliştiriciler, veri ekipleri ve siber güvenlik uzmanlarını dahil edecek şekilde planlanmalıdır.

Eğitim programları, etik kullanım, sorumluluk ve yasal konuları ele almalıdır.

LLM Güvenliğini ve Yönetimini Mevcut Süreçler Konsolide Etme

AI güvenliğinin mevcut kuruluş uygulamalarıyla entegrasyonu, dayanıklılığı ve uyumun arttırılmasını sağlar. Kuruluşlar, yapay zeka sistemlerine yerleşik gizlilik, yönetim ve güvenlik uygulamalarını daima göz önünde bulundurmalıdır.

Bu tür uygulamalar, risk yönetimi ve uyum süreçlerine fayda sağlayacaktır.

Temel Güvenlik İlkeleri

LLM’ler, command injection ve güvensiz eklenti tasarımı gibi yeni saldırı vektörleri tanıtır. Kuruluşlar, güvenli yazılım incelemesi, mimari, veri yönetimi ve üçüncü taraf değerlendirmelerinde en iyi uygulamalara uymalıdır. MO, NLP, NLU ve GenAI alanlarında uzmanlığı olan yetkin profesyoneller, güvenlik ekiplerine bu zorlukları aşmada destek olmalıdır.

Risk

Risk, belirsizliğin hedefler üzerindeki etkisi olarak tanımlanır (ISO 31000). LLM riskleri, tehditleri, güvenlik açıklarını, yasal, düzenleyici, itibar, finansal ve rekabet gibi birçok unsuru içerir.

Hedeflenen LLM risk listesi, kuruluşların bu riskleri etkili bir şekilde önceliklendirmesine ve azaltmasına yardımcı olur.

LLM Stratejisinin Belirlenmesi

Dağıtım Stratejisi

Kuruluşlar, LLM çözümleri dağıtımında kolaylık ve kontrol arasında denge kurmalıdır. Kapsam, kamu tüketici uygulamalarından özel veriler üzerinde eğitilen özel modellere kadar uzanır. Kullanım durumu duyarlılığı, gereken yetenekler ve mevcut kaynaklar, optimal dağıtım stratejisini belirler.

Kontrol Listesi

OWASP kontrol listesi, kapsamlı risk değerlendirmesi ve azaltma sağlayarak çeşitli AI güvenliği ve yönetimi alanlarını kapsar.

Adversarial Risk

Adversaryal riskler, rakiplerin eylemleri ve saldırganların istismarlarını içerir. Kuruluşlar, rakiplerin AI yatırımlarını incelemeli, potansiyel saldırıları tehdit modeli yapmalı ve LLM olayları için olay müdahale planlarını güncellemelidir.

AI Varlık Envanteri

AI varlık envanteri, hem dahili hem de harici AI çözümleri için önemlidir. Kuruluşlar, mevcut AI hizmetlerini, araçlarını, veri kaynaklarını ve hassasiyetlerini kataloglamalı ve bunları yazılım envanterine dahil etmelidir.

AI Güvenlik ve Gizlilik Eğitimi

Güvenlik ve gizlilik eğitimi, ses ve görüntü klonlama gibi GenAI ile ilgili tehditleri ele alacak şekilde güncellenmelidir.

DevOps ve siber güvenlik ekipleri için eğitim, AI güvenliği mimari tasarım süreçlerinde kritik öneme sahip olabilir.

İş Vakaları Oluşturma

Sağlam iş vakaları, AI çözümlerinin faydalarını ve risklerini değerlendirmek için gereklidir. Potansiyel kullanım durumları, müşteri deneyimini artırma, operasyonel verimliliği iyileştirme, bilgi yönetimini geliştirme ve yenilikçi uygulamaları içerir.

Yönetim

Etkili yönetim, AI dağıtımında şeffaflık ve hesap verebilirlik sağlar. Kuruluşlar, bir AI RACI tablosu oluşturmalı, risk değerlendirmelerini belgelendirip atamalı ve veri yönetim politikaları oluşturmalıdır. Yönetim, tıpkı evdeki temizlik görevlerini dağıtmak gibidir; herkesin ne yapacağını bilmesi işleri kolaylaştırır.

Hukuki

AI’nin yasal sonuçları karmaşıktır ve potansiyel olarak maliyetlidir. Kuruluşlar, ürün garantilerini, son kullanıcı lisans anlaşmalarını (EULA) ve fikri mülkiyet risklerini gözden geçirmelidir. Sözleşmelerde tazminat hükümleri bulunmalı ve AI ile ilgili yükümlülükler için sigorta kapsamı yeniden değerlendirilmelidir.

Düzenleyici

Gelişen AI düzenlemelerine uyum kritiktir. Kuruluşlar, farklı ülkelere özgü gereksinimleri anlamalı ve işe alım veya yönetimde kullanılan AI araçlarının geçerli yasalara ve en iyi uygulamalara uygun olmasını sağlamalıdır.

Büyük Dil Modeli Çözümlerini Kullanma veya Uygulama

LLM çözümlerini uygulamak, kapsamlı bir tehdit modeli, güçlü veri güvenliği önlemleri, erişim kontrolleri ve titiz eğitim pipeline güvenliği gerektirir. Input ve output güvenliği, izleme ve müdahale süreçleri haritalandırılmalı ve denetlenmelidir. Düzenli zayıflık değerlendirmeleri ve Red Team çalışmaları, risklerin belirlenmesi ve azaltılması için önemlidir.

Kaynaklar

OWASP ve MITRE kaynakları, AI güvenliği ve yönetimi için değerli çerçeveler ve araçlar sunmaktadır. Bu kaynakların organizasyonel uygulamalarla entegrasyonu, AI ile ilgili tehditlere karşı kapsamlı koruma oluşturulması konusunda oldukça faydalı olacaktır.

OWASP Kaynakları

  • OWASP SAMM: Güvenli geliştirme yaşam döngülerini analiz eder ve iyileştirir.
  • OWASP AI Security and Privacy Guide: AI güvenlik ve gizlilik konularında kapsamlı bir rehber.
  • OWASP AI Exchange: AI Güvenlik ve Gizlilik Kılavuzu için birincil giriş yöntemi.
  • OWASP Machine Learning Security Top 10: Makine öğrenim sistemlerindeki kritik güvenlik sorunlarını listeler.
  • OWASP CycloneDX: Tedarik zinciri güvenliği için tam yığın Malzeme Bill of Materials (BOM) standardı sağlar.

MITRE Kaynakları

MITRE kaynaklarının, LLM (Large Language Model) tehditlerinin artan sıklığı göz önüne alındığında, bir organizasyonun saldırı yüzeyini savunmaya yönelik, direnç-öncelikli yaklaşımın değerini vurgulaması oldukça önemlidir.

Bir organizasyonun LLM Güvenlik Stratejisini MITRE ATT&CK ve MITRE ATLAS’a uyumlu hale getirilmesi ve haritalandırılması, organizasyonun mevcut süreçlerle LLM Güvenliğinin nerede ele alındığını veya güvenlik açıklarının nerede olduğunu belirlemesine olanak tanır. Uygulanacak bu yönlü bir strateji, savunma mekanizmalarını sistematik bir şekilde güçlendirmek ve tehdit modellerini dinamik bir şekilde güncellemek için kritik öneme sahip olacaktır.

  • MITRE ATT&CK: Adversaryal taktik ve teknikler için bir bilgi tabanı.
  • MITRE ATLAS: AI sistemlerindeki adversaryal tehditlere odaklanır.
  • Attack Flow: Siber adversaryaların teknikleri nasıl birleştirip sıraladığını görselleştirir.
  • Atomic Red Team: Bir ortamda güvenlik kontrollerini doğrulamak ve test etmek için testler sağlar.
  • MITRE CTI Blueprints : Siber Tehdit İstihbarat raporlamasını otomatikleştirir.
  • Attack Flow v2.1.0 : Siber saldırganların çeşitli saldırı tekniklerini nasıl birleştirip sıraladıklarını tanımlayan bir çerçeve.

--

--