Bilgisayar Korsanlarının Deepfake Yöntemleri ile Biyometrik Güvenlik Sistemlerini Aşma Stratejileri
Yeni bir araştırma, bilgisayar korsanlarının biyometrik güvenlik sistemlerini aşmak için derin sahte (deepfake) videoları ve emülatörleri bir araya getirdiğini ortaya koyuyor. iProov tarafından hazırlanan bu çarpıcı rapor, bu tür yöntemlerin suçlular arasında kullanımının 2023’ün ilk ve ikinci yarısı arasında %353 oranında arttığını vurguluyor.
Söz konusu sistem, dolandırıcıların çeşitli Yapay Zeka (AI) araçlarını kullanarak ikna edici yüz taklitleri ve deepfake videolar oluşturmasıyla işlemektedir. Bu süreçte, bazıları düşük maliyetli ve erişilebilir olan çözümler tercih ediliyor. Ardından, sanal kameralar oluşturmak için emülatörler devreye giriyor. Böylece, biyometrik sistem bir kişiden yüz taraması yoluyla kimlik doğrulaması yapmasını istediğinde, dolandırıcı sahte bir kamerayı açarak yüz değiştirme videosunu sunabiliyor. Bu sayede, sistem kandırılarak dolandırıcılığa olanak tanınıyor.
Özellikle mobil platformlar, bu tür tehditlere karşı daha savunmasız bir konumda bulunuyor. 2023 yılının ilk ve ikinci yarısı arasında mobil web’e yönelik enjeksiyon saldırılarının iki katından fazla arttığı gözlemleniyor. Emülatörleri dışarıda bıraktığımızda ve yalnızca deepfake ile yüz değiştirme (face-swap) saldırılarına odaklandığımızda, durum daha da endişe verici hale geliyor. İki yarı yıl arasında bu tür saldırılarda %704’lük bir artış kaydedildiği belirtiliyor.
Son olarak, deepfake medyanın meta veri sahteciliği ile birlikte kullanımı, geçtiğimiz yılın iki yarısı arasında %672 oranında bir artış göstermiş durumda. Raporda, hacker’ların bu tekniği geliştirmek ve evrimleştirmek için sıkı bir işbirliği içinde çalıştıkları da ifade ediliyor. Anlaşılan o ki, insan tanımlama ve video tanımlama sistemlerini aşma konusunda bilgi paylaşımında bulunan grupların sayısında önemli bir artış yaşanıyor. iProov’un analistleri, tespit edilen bu grupların neredeyse yarısının 2023 yılında kurulduğunu vurguluyor.