Büyük Dil Modelleri ve Yapay Zeka
Büyük dil modelleri (LLM’ler), dünya genelindeki yönetim kurulu odalarında yapay zekâ ile ilgili tartışmaların merkezinde yer alıyor. Ancak, bu teknoloji yıllardır farklı şekillerde etkili bir şekilde kullanılıyor. ESET, yapay zekâyı ilk kez çeyrek asır önce makro virüslerin tespitini geliştirmek amacıyla kullanmaya başladı. Günümüzde güvenlik ekipleri, üç temel faktör nedeniyle yapay zekâ tabanlı araçlara her zamankinden daha fazla ihtiyaç duymaktadır:
- 1) Yeni Yetenek Eksikliği: Siber güvenlik uzmanı açığı, Avrupa’da 348.000, Kuzey Amerika’da ise 522.000 olmak üzere dünya genelinde yaklaşık dört milyon olarak tahmin edilmektedir. Yapay zekâ, 7/24 çalışabilme kapasitesi sayesinde, insan gözünden kaçabilecek kalıpları tespit etme yeteneğine sahiptir.
- 2) Tehdit Aktörlerinin Çevikliği: Siber güvenlik ekipleri eleman bulmakta zorluk çekerken, rakipleri de sürekli olarak güçleniyor. Bir tahmine göre, siber suç ekonomisi 2025 yılına kadar yıllık 10,5 trilyon dolara ulaşabilir. Tehdit aktörleri, saldırı başlatmak için ihtiyaç duydukları her şeyi “hizmet olarak” sunulan teklifler ve araç setleri ile kolayca temin edebiliyorlar.
- 3) Yüksek Riskler: Dijital yatırımların artmasıyla birlikte BT sistemlerine olan güven de yükselmiştir. Ağ savunucuları, siber tehditlerin önlenememesi ya da hızla tespit edilip kontrol altına alınamaması durumunda, kurumlarının büyük mali kayıplara ve itibar zedelenmesine uğrayabileceğinin bilincindedir. Günümüzde bir veri ihlalinin maliyeti ortalama 4,45 milyon dolardır. Ancak ciddi fidye yazılımı ihlalleri, bunun çok daha fazlasına mal olabilir. Örneğin, sadece finans kurumları 2018’den bu yana hizmet kesintileri nedeniyle 32 milyar dolar kaybetmiştir.
Yapay Zekanın Gelecekteki Kullanım Alanları
Yapay zekâ güvenlik ekipleri tarafından gelecekte nasıl kullanılabilir?
- Tehdit İstihbaratı: LLM destekli GenAI asistanları, analistler için kapsamlı teknik raporları analiz ederek karmaşık bilgileri sade ve anlaşılır bir dille özetleyebilir, böylece önemli noktaları ve eyleme geçirilebilir çıkarımları vurgulayabilir.
- Yapay Zeka Asistanları: BT sistemlerine yapay zekâ “yardımcı pilotları” yerleştirerek kuruluşların saldırıya maruz kalacak tehlikeli yanlış yapılandırmaları tespit etmesine yardımcı olabilir. Bu, bulut platformları gibi genel BT sistemleri için olduğu kadar güvenlik duvarları gibi karmaşık ayarların güncellenmesini gerektirebilecek güvenlik araçları için de geçerlidir.
- SOC Üretkenliğini Güçlendirmek: Günümüz Güvenlik Operasyon Merkezi (SOC) analistleri, gelen tehditleri hızla tespit etme, yanıt verme ve kontrol altına alma konusunda büyük bir baskı altındadır. Saldırı yüzeyinin genişliği ve uyarı üreten araçların sayısı çoğu zaman bunaltıcı olabiliyor. Yapay zekâ, bu tür uyarıları bağlamsal hale getirerek ve önceliklendirerek analistlerin iş yükünü hafifletebilir.
- Yeni Tespitler: Tehdit aktörleri, taktiklerini, tekniklerini ve prosedürlerini (TTP’ler) sürekli olarak geliştirirken, yapay zekâ araçları, risk göstergelerini (IoC’ler) kamuya açık bilgiler ve tehdit yayınlarıyla birleştirerek en yeni tehditleri tespit edebilir.
Yapay Zekanın Siber Saldırılardaki Rolü
YZ siber saldırılarda nasıl kullanılıyor?
- Sosyal Mühendislik: GenAI, tehdit aktörlerinin büyük ölçekli, son derece ikna edici ve neredeyse hatasız kimlik avı kampanyaları oluşturmasına olanak tanımaktadır.
- BEC ve Diğer Dolandırıcılıklar: GenAI teknolojisi, belirli bir kişinin ya da kurumsal kişiliğin yazı stilini taklit ederek, kurbanı kandırabilir ve para havalesi yapmasına ya da hassas verileri teslim etmesine neden olabilir. Deepfake ses ve video da bu amaçla kullanılabilir.
- Dezenformasyon: GenAI, etki operasyonları için içerik oluşturma işinin zorluğunu da ortadan kaldırarak, bu tür taktiklerin daha kolay uygulanmasına yardımcı olabilir. Yakın tarihli bir rapor, Rusya’nın bu tür taktikleri kullandığını ve bu taktiklerin başarılı olması durumunda geniş çapta tekrarlanabileceğini belirtmiştir.
Yapay Zekanın Sınırları
Yapay zekanın hem olumlu hem de olumsuz yönleri bulunmaktadır. Mevcut durumda bazı sınırlamaları vardır. Yüksek yanlış pozitif oranları verebilir ve kaliteli eğitim setleri olmadan etkisi sınırlı kalabilir. Ayrıca, çıktıların doğruluğunu kontrol etmek ve modellerin kendilerini eğitmek için genellikle insan gözetimi gereklidir. Tüm bunlar, yapay zekanın ne saldırganlar ne de savunucular için sihirli bir çözüm olmadığı gerçeğini ortaya koymaktadır.
İlk yorum yapan olun