Yapay Zeka Görüntü Manipülasyonuna Karşı PhotoGuard ile Etkili Savunma

Dall-E ve Stable Diffusion’un Ötesinde

Dall-E ve Stable Diffusion, üretken yapay zeka dünyasında yalnızca bir başlangıç noktasıydı. Bu teknolojiler gelişirken, benzer sistemlerin sayısı da hızla artmakta. Şirketler, sundukları hizmetleri rakiplerinden ayırmak için çaba sarf ederken, internetteki sohbet robotları ve büyük platformlar, Shutterstock ve Adobe gibi, yeni görseller oluşturmanın yanı sıra mevcut görselleri düzenleme yetenekleri kazanıyorlar. Ancak, bu yapay zeka destekli yeni yetenekler, izinsiz değişiklikler veya doğrudan çalma gibi yaygın sorunları da beraberinde getiriyor.

Filigran sistemleri, çalıntı risklerini azaltmaya yardımcı olsa da, MIT CSAIL tarafından geliştirilen yeni bir teknik olan PhotoGuard, izinsiz değişikliklere karşı daha etkili bir savunma sunabilir.

PhotoGuard Nasıl Çalışıyor?

PhotoGuard, bir görüntüdeki belirli pikselleri, yapay zekanın görüntünün içeriğini anlama yeteneğini bozacak şekilde değiştirerek işlevini yerine getirir. Araştırma ekibinin adlandırdığı gibi, bu değişiklikler “düzensizlikler” olarak adlandırılmakta ve insan gözüyle algılanamazken, makineler tarafından kolayca okunduğu belirlenmiştir.

Bu yapının oluşumunu sağlayan “kodlayıcı” saldırı yöntemi, algoritmik modelin her pikselin konumunu ve rengini tanımlayan karmaşık işlemi hedef alarak, yapay zekanın neyi analiz ettiğini anlamasını engeller. Daha sofistike ve hesaplama açısından yoğun olan “difüzyon” saldırı yöntemi ise, bir görüntüyü yapay zekanın gözünde farklı bir görüntü olarak maskeleyerek çalışır.

  • Kodlayıcı Saldırısı: Modelin giriş görüntüsünü başka bir görüntü, örneğin gri bir görüntü, olarak algılamasına neden olur.
  • Difüzyon Saldırısı: Hedef görüntüye benzer şekilde görüntüdeki düzensizlikleri optimize eder, böylece yapay zeka bu dayanıklı görüntü üzerinde düzenlemeler yapmaya çalıştığında, sahte “hedef” görüntülere uygulanarak gerçekçi olmayan bir görüntü oluşur.

MIT doktora öğrencisi ve çalışmanın baş yazarı Hadi Salman, Engadget ile gerçekleştirdiği bir görüşmede şöyle belirtiyor: “Kodlayıcı saldırısı, modelin giriş görüntüsünün (düzenlenecek) başka bir görüntü (örneğin gri bir görüntü) olduğunu düşünmesine neden oluyor.” Salman, “Difüzyon saldırısı ise, difüzyon modelini bazı hedef görüntülere (gri veya rastgele bir görüntü de olabilir) yönelik düzenlemeler yapmaya zorlar.” şeklinde devam ediyor.

Salman, bu konuda şu ifadeleri ekliyor: “Model geliştiricileri, sosyal medya platformları ve politika yapıcıları içeren işbirlikçi bir yaklaşım, yetkisiz görüntü manipülasyonuna karşı güçlü bir savunma sunuyor. Bu acil konu üzerinde çalışmak bugün büyük önem taşıyor.” Ayrıca, “bu çözüme katkıda bulunmaktan memnuniyet duysam da, bu korumayı pratik hale getirmek için daha fazla çalışma gerekiyor. Bu modelleri geliştiren şirketlerin, bu yapay zeka araçlarının yol açtığı olası tehditlere karşı sağlam önlemler tasarlamaya yatırım yapması gerekiyor.” diyerek sözlerini tamamlıyor.