Yapay zekâ sistemlerinin iş dünyasında hızla yaygınlaşması, bu sistemlere yönelik tehditleri de benzersiz bir boyuta taşıyor. Klasik güvenlik yaklaşımlarının AI ve ML sistemlerinde yetersiz kaldığı noktada devreye MITRE ATLAS Framework giriyor. Quasys siber güvenlik analistleri olarak bu kapsamlı yazıda, ATLAS’ın sunduğu taktik ve teknikleri tüm yönleriyle ele alıyor, AI güvenliğinde neden yeni standart hâline geldiğini inceliyoruz.
MITRE ATLAS (Adversarial Threat Landscape for Artificial-Intelligence Systems) Framework’ü, yapay zekâ (AI) sistemlerini hedef alan saldırgan taktik ve teknikleri ile gerçek dünya örneklerini içeren kapsamlı bir bilgi tabanıdır. Aynı zamanda, yapay zekâya özgü tehditleri anlamak ve bu tehditlere karşı savunma oluşturmak isteyen güvenlik ekipleri için eşsiz bir kaynaktır.
MITRE ATLAS, yapay zekâ ve makine öğrenimi sistemlerine yönelik tehditleri tanımlamak, sınıflandırmak ve bu tehditlere karşı önleyici stratejiler geliştirmek üzere yapılandırılmış bir çerçeve sunar. Bu çerçeve:
-
Veri zehirleme (data poisoning)
-
Model çalma (model extraction)
-
Prompt enjeksiyonu (prompt injection)
gibi saldırı tekniklerini AI yaşam döngüsü boyunca haritalar. Güvenlik ekipleri, ATLAS’ı tehdit modelleme, saldırı testi ve tespit/önleme stratejileri geliştirmek için kullanabilir.
ATLAS’ı sistemlerine entegre eden kurumlar, güvenli ve dayanıklı AI mimarileri oluşturmak için bilinçli ve standartlaştırılmış yaklaşımlar benimseyebilir. Siz de güvenli AI sistemleri tasarlayabilmek isterseniz Certified AI Security Professional eğitim programına katılarak, MITRE ATLAS gibi framework’lerle AI savunmasına dair uygulamalı uzmanlık kazanabilirsiniz.
Yapay Zekâ Güvenliğinin Önemi
Yapay zekâ (AI) ve makine öğrenimi (ML), halihazırda sağlık, finans, siber güvenlik gibi pek çok sektörün temel bileşeni hâline gelmiş durumda. Bu sistemlerin yaygınlaşması, onları saldırganlar için yüksek değerli hedefler hâline getiriyor. Yapay zekâ modellerinin yanlış yönlendirilmesi, güvenlik açıkları üzerinden manipülasyona uğraması veya veri sızıntılarına neden olması, hem işlevsel hem de regülasyonel açıdan ciddi riskler doğurabilir.
MITRE ATLAS’ın AI sistemlerine yönelik özel tehditleri tanımlamak ve yönetmek için yapılandırılmış bir güvenlik çerçevesi sunmasının nedeni budur. Kurumlar, bu framework sayesinde AI altyapılarını daha şeffaf, güvenli ve dirençli şekilde inşa edebilir.
MITRE ATT&CK ile Olan Bağlantı
MITRE ATT&CK, geleneksel BT sistemlerine yönelik saldırıları sınıflandırırken, MITRE ATLAS bu yapıyı AI ve ML sistemlerine özgü tehditleri tanımlamak üzere genişletir.
Yani:
-
MITRE ATT&CK, örneğin kimlik avı, kötü amaçlı yazılım veya ağ hareketleri gibi klasik tehditlere odaklanırken;
-
MITRE ATLAS, veri zehirleme, model hırsızlığı, adversarial input gibi AI’ye özgü taktik ve teknikleri ele alır.
Bu yönüyle ATLAS, siber güvenlik ekiplerine AI sistemlerine karşı geliştirilen sofistike saldırıları anlamada ve bunlara karşı proaktif önlemler almada tamamlayıcı bir perspektif sunar.
MITRE ATLAS Framework’ün Bileşenleri
MITRE ATLAS Framework, yapay zekâ sistemlerini hedef alan saldırıları daha iyi anlamak ve bu saldırılara karşı savunma geliştirmek isteyen kurumlar için tasarlanmıştır. Framework, iki ana bileşene dayanır: Taktikler ve Teknikler.
1. Taktikler: Saldırganın Hedefleri
Taktikler, saldırganların yapay zekâ sistemlerine karşı izlediği yüksek düzeydeki amaçları ve bu amaçlara ulaşmak için benimsedikleri stratejik yaklaşımları ifade eder.
Örnek Taktikler:
-
AI sistemleri hakkında bilgi toplama (reconnaissance)
-
AI modelinin çıktılarını manipüle etme
-
AI tabanlı güvenlik önlemlerini atlatma
MITRE ATLAS, 14 ayrı taktik tanımlar ve her biri saldırganın hedeflerine ulaşmak için benimsediği yaklaşımı temsil eder. Bu yapı sayesinde güvenlik ekipleri sadece “nasıl” saldırıldığını değil, “neden” saldırıldığını da anlayabilir.
2. Teknikler: Saldırı Yöntemleri
Teknikler, saldırganların yukarıdaki taktikleri gerçekleştirmek için kullandıkları somut yöntemleri tanımlar. Bunlar, AI sistemlerine yönelik özgün zafiyetleri hedef alan pratik saldırı biçimleridir.
Öne Çıkan Teknikler:
-
Veri Zehirleme (Data Poisoning): Eğitim verilerine kasıtlı olarak zararlı içerik enjekte edilerek modelin davranışı değiştirilir.
-
Prompt Injection: Özellikle dil modellerinde, yönlendirici girdilerle modelin zararlı veya istenmeyen çıktılar üretmesi sağlanır.
-
Model Inversion: Eğitim verilerinden yola çıkarak modelin orijinal verilerine ulaşılmaya çalışılır (örneğin kişisel verilerin geri kazanımı).
Bu teknikler, AI sistemlerine özgü saldırı yüzeylerini açığa çıkarır ve savunmacılara bu tehditleri tespit edip bertaraf etme konusunda yol gösterir.
Gerçek Dünya Örnekleri: MITRE ATLAS Taktik ve Teknikleri Uygulamada
Vaka 1: Makine Öğrenimi Tabanlı Zararlı Yazılım Tespit Sisteminin Atlatılması
Senaryo:
Saldırganlar, makine öğrenimi (ML) temelli bir kötü amaçlı yazılım tarayıcısını “evrensel bir atlatma” tekniği ile kandırarak güvenlik kontrollerini aşmayı başardı.
Saldırı Süreci:
-
Keşif (Reconnaissance):
Saldırganlar, konferans sunumları, patentler ve teknik belgeler gibi herkese açık kaynaklardan zararlı yazılım tarayıcısı hakkında bilgi topladı. -
Model Erişimi:
Ürünün API davranışları analiz edilerek tespit mekanizması geriye doğru izlenerek çözüldü. -
Saldırı Tekniği:
Saldırganlar, modele sürekli yanlış sınıflandırma yaptıran özel zararlı yazılım örnekleri (adversarial examples) geliştirdi. Bu örnekler, “evrensel bypass” öğeleriyle zenginleştirilerek farklı zararlı yazılımlara entegre edildi.
Kullanılan Taktikler:
-
Adversarial veri üretimi
-
Model kaçırma / yanıltma (model evasion)
Karşı Önlemler:
-
Model Güçlendirme:
Modelin, adversarial örneklerle yeniden eğitilmesiyle dayanıklılığı artırılmalı. -
Erişim Kontrolleri:
API erişimi sınırlandırılmalı; teknik bilgiler halka açık şekilde paylaşılmamalı. -
Sürekli İzleme:
Modelin performansı ve sınıflandırma davranışı sürekli gözlemlenmeli.
Vaka 2: OpenAI ve DeepSeek Arasında Model Distilasyon Gerilimi
Senaryo:
AI model distilasyonu (model inceltme) üzerinden, sahipli modellerin birebir kopyalanması ve fikri mülkiyetin tehlikeye atılması.
Saldırı Süreci:
-
Saldırganlar, hedef modele sürekli sorgular göndererek, dönen yanıtlarla kendi versiyonlarını eğitti.
-
Bu süreçte, sahipli bilginin dışa aktarımı ve modelin davranış kalıplarının birebir kopyalanması hedeflendi.
Zafiyetler:
-
Denetlenmeyen API kullanımı
-
API çağrılarında anormallik izlenmemesi
MITRE ATLAS: AI Güvenliğininin Adım Adım Haritalanması
1. Keşif (Reconnaissance)
Saldırganlar, AI sisteminin mimarisi, veri kaynakları ve olası zayıf noktaları hakkında bilgi toplar. Konferans konuşmaları, teknik belgeler ve açık API’ler gibi kaynaklardan elde edilen bu bilgilerle sistemin iç yapısı anlaşılır ve hedefli saldırılar planlanır.
2. İlk Erişim (Initial Access)
Sisteme ilk giriş noktası sağlanır. Genellikle zayıf API güvenliği, oltalama (phishing) bağlantıları ya da yazılım açıkları kullanılarak AI sistemine adım atılır.
3. ML Model Erişimi (ML Model Access)
Saldırganlar, doğrudan modelin kendisine erişim sağlamayı hedefler. Bu erişim, modelin çalışma mantığını çözmek, zafiyetlerini tespit etmek ya da daha sonraki saldırılar için kullanılmak üzere sağlanır.
4. Kalıcılık (Persistence)
İlk erişim sağlandıktan sonra, sistemde kalıcı erişim kanalları oluşturulur. Backdoor yerleştirme, zararlı prompt’lar ya da sistem davranışlarını manipüle eden mekanizmalar kullanılarak uzun süreli varlık sağlanır.
5. Yetki Yükseltme (Privilege Escalation)
Saldırganlar başlangıçta sınırlı bir kullanıcı rolüne sahip olabilir, ancak zamanla sistemde daha geniş haklara erişmek için güvenlik açıklarını istismar eder. Amaç, kritik kontrol noktalarına erişmektir.
6. Güvenlikten Kaçınma (Defense Evasion)
Mevcut güvenlik kontrolleri aşılır. Adversarial örnekler, veri gizleme ya da iz kaybettirme teknikleri kullanılarak tespit edilmemeye çalışılır.
7. Kimlik Bilgisi Erişimi (Credential Access)
API anahtarları, şifreler veya token gibi kimlik doğrulama bilgileri ele geçirilir. Bu bilgiler, sistemin iç bileşenlerine daha derinlemesine erişim sağlar.
8. Keşif (Discovery)
Saldırgan, sistemin ağ yapısını, veri akışını ve model kullanımını analiz eder. Amaç, nerede neyin çalıştığını ve hangi verilerin değerli olduğunu anlamaktır.
9. Yanal Hareket (Lateral Movement)
Saldırgan sistemde bir noktadan diğerine geçerek daha fazla model, veri ya da kaynak üzerinde kontrol sağlamaya çalışır. Böylece saldırının etkisi genişletilir.
10. Toplama (Collection)
Hassas verilere, eğitim setlerine, model ağırlıklarına ya da kullanıcı bilgilerine erişilir. Bu bilgiler sonraki saldırılar için kullanılır ya da dışarıya sızdırılır.
11. Komut ve Kontrol (Command and Control)
Saldırgan, sistemle uzaktan iletişim kurar. AI modeline yönelik kötü niyetli talimatlar verilir, yeni saldırılar başlatılır ya da sistem davranışları değiştirilir.
12. Dışa Veri Aktarımı (Exfiltration)
AI model parametreleri, eğitim verisi, kullanıcı verileri ya da sistem çıktıları dışarıya sızdırılır. Bu süreç genellikle gizli ve fark edilmeden gerçekleşir.
13. Etkileme (Impact)
AI sistemi çökertilir, işlevi bozulur veya hatalı sonuçlar üretmesi sağlanır. Bu taktik, yalnızca teknik değil operasyonel olarak da kuruma zarar verir.
14. Saldırı Hazırlığı (ML Attack Staging)
Doğrudan saldırı öncesi hazırlık yapılır. Saldırgan, adversarial veri üretimi yapar, yedek modeller oluşturur ya da performans testleri gerçekleştirir.
Dikkat Edilmesi Gereken Başlıca Saldırı Teknikleri
Prompt Injection (Komut Enjeksiyonu)
Saldırganlar, özellikle büyük dil modellerini hedef alarak giriş prompt’larını manipüle eder. Bu teknikle model, mevcut güvenlik kontrollerini atlayarak istenmeyen, zararlı ya da uygunsuz çıktılar üretmeye yönlendirilir.
Örnek:
Bir chatbot’a normal görünen bir giriş verilir; ancak içinde gömülü bir yönlendirme ile model, zarar verici bir öneri sunabilir.
Data Poisoning (Veri Zehirleme)
Eğitim verileri, kasıtlı olarak yanıltıcı ya da zararlı verilerle bozulur. Sonuç olarak, model hatalı, güvenilmez veya önyargılı tahminler üretmeye başlar. Bu teknik, modelin doğruluğunu ve güvenilirliğini temelden sarsar.
Kritik Etki:
AI kararlarının adil, etik ve doğru olmasını sağlamak için bu riskin bertaraf edilmesi zorunludur.
Model Extraction (Model Çalma)
Saldırganlar, bir AI sistemine tekrar tekrar sorgular göndererek modelin iç yapısını tersine mühendislik yoluyla çözmeye çalışır. Amaç, fikrî mülkiyeti kopyalamak, ticari sırlara erişmek ya da ileride yapılacak saldırılar için sahte model üretmektir.
Adversarial Examples (Adversaryel Örnekler)
Modeli aldatmak için dikkatle hazırlanmış veriler kullanılır. Örneğin, görsel bir sınıflandırma modeline insan gözüyle fark edilmeyen küçük değişiklikler yapılır; model görüntüyü hatalı tanımlar, fakat insan açısından hiçbir fark algılanmaz.
Gerçek Dünya Senaryosu:
Bir görüntüde küçük bir piksel kaydırmasıyla “trafik tabelası”nın “hamburger” olarak sınıflandırılması gibi örnekler.
Karşı Stratejiler: Bu Tehditlere Nasıl Yanıt Verilir?
Güçlü bir savunma için önerilen önlemler şunlardır:
-
Girdi Hijyeni:
Kullanıcıdan gelen veriler filtrelenmeli, temizlenmeli ve doğrulanmalıdır. -
Güçlü Eğitim Setleri:
Çeşitli, zengin ve dengeli veri setleriyle model eğitimi sağlanmalı. -
Anormal Davranış Tespiti:
Modelin olağandışı çıktıları düzenli olarak izlenmeli. -
Güvenlik Denetimleri:
Modeller düzenli olarak denetlenmeli; güvenlik varsayımları ve müdahale potansiyelleri test edilmelidir.
En İyi Güvenlik Uygulamaları: AI Sistemlerini Güçlendirme
1. Eğitim Süreçlerini Güvence Altına Alın (Secure Training Pipelines)
Eğitim verisinin bütünlüğünü koruyun ve eğitim ortamına erişimi sınırlayın. Bu, özellikle veri zehirleme (data poisoning) ve model çalma (model extraction) girişimlerine karşı kritik bir savunma hattıdır.
2. Model Çıktılarını Sürekli İzleyin (Monitor Model Outputs)
Modelin çıktılarında olağandışı davranışları tespit etmek için sürekli izleme uygulayın. Aniden değişen yanıt örüntüleri, adversaryel manipülasyonların işareti olabilir.
3. Veri Bütünlüğünü Doğrulayın (Validate Data Integrity)
Eğitim verileri ve model davranışı periyodik olarak denetlenmelidir. Bu sayede, saldırılar sonucu oluşabilecek sapmalar erken tespit edilebilir.
Bu önlemler, sadece reaktif değil aynı zamanda proaktif bir güvenlik kültürü oluşturulmasını sağlar. Ancak bu çabaların sürdürülebilir olması için, organizasyonların sadece teknik önlemlerle değil, stratejik yaklaşımlarla da güvenlik mimarilerini beslemeleri gerekir. Bu noktada devreye, MITRE ATLAS Framework’ünün kurumsal seviyede nasıl uygulanabileceği giriyor.
MITRE ATLAS’ın Kurumunuza Entegrasyonu
1. AI Varlıklarınızı ATLAS’a Haritalayın
Kurum bünyesindeki tüm yapay zekâ sistemlerini ve modellerini ATLAS’taki taktik ve tekniklerle eşleştirin. Bu sayede hangi varlıkların hangi tehditlere açık olduğunu net bir şekilde görebilirsiniz.
2. Yapılandırılmış Risk Değerlendirmeleri Yapın
ATLAS framework’ünü kullanarak her taktik ve tekniğin sistemler üzerindeki olası etkilerini analiz edin. Riskleri önceliklendirin ve uygun güvenlik önlemleri planlayın.
3. Saldırı Simülasyonları Gerçekleştirin (Red Teaming)
ATLAS’tan faydalanarak gerçek dünya saldırı senaryolarını simüle edin. Bu tür red team çalışmaları, savunma hattını test eder ve güvenlik açıklarını ortaya çıkarır.
Quasys Siber Güvenlik Analistlerinden Not:
MITRE ATLAS, AI güvenliğinde yeni bir çağın başlangıcıdır. Kurumların, gelecekteki tehditleri bugünden modelleyebilmeleri için ATLAS gibi framework’leri operasyonlarına entegre etmeleri zorunlu bir gerekliliktir. AI’a giden ve AI’dan gelen verilerin DLP yaklaşımıyla ele alınması, güvenlik ekiplerinin bu konuda bilinçlenmesi, danışman firmaların AI güvenliği alanındaki yetkinliklerinden emin olunması kurumunların operasyonel ve repütasyonel güvenliği açısından kritik önem taşır.
Biz Quasys olarak müşterilerimizin güvenliğini hat safhada önemsiyor, AI güvenliği alanında dünyadaki tüm gelişmeleri çok yakından takip ederek stratejik güvenlik yaklaşımımıza entegre ediyor ve bu konuda liderliği global güvenlik otoritelerince tasdikli Palo Alto Networks çözümleriyle ilerliyoruz. Kurumunuzun siber güvenlik altyapısını MITRE ATLAS çerçevesiyle analiz ettirmek, AI yol haritanızı Palo Alto Networks teknolojisi ve Quasys uzmanlığıyla oluşturmak isterseniz deneyimli danışmanlarımıza her zaman info@quasys.com.tr’den ulaşabilirsiniz.