Yapay Zeka ve Dezenformasyon: OpenAI’nin Raporu
OpenAI, Rusya, Çin, İran ve İsrail ile bağlantılı yürütülen çeşitli operasyonların, yapay zeka araçlarını dezenformasyon üretimi ve yayma amacıyla kullandığını açıkladı.
San Francisco merkezli geliştirici, yayınladığı kapsamlı raporda, beş farklı gizli operasyonda yapay zeka modellerinin yüksek hacimde metin ve görseller üretmek için kullanıldığını vurguladı. Bu yöntem sayesinde, önceki dönemlere göre daha az dil hatası yapıldığı ve ayrıca bu içeriklere yorum ve yanıtlar üretilerek etkileşim sağlandığı gözlemlendi.
OpenAI’nin raporunda, üretilen içeriklerin, “Rusya’nın Ukrayna’yı işgali, Gazze’deki insanlık dramı, Hindistan seçimleri, Amerika Birleşik Devletleri’ndeki siyasi gelişmeler ve Çinli muhalifler ile yabancı hükümetlerin Çin hükümetine yönelik eleştirileri” gibi önemli konulara odaklandığı belirtildi.
Yapay Zeka ile Dezenformasyonun Artan Tehditi
Hızla büyüyen yapay zeka şirketleri üzerindeki baskılar giderek artıyor. Çünkü bu teknolojilerdeki hızlı ilerlemeler, dezenformasyon yayanların gerçekçi deepfake içerikler oluşturmasını, medyayı manipüle etmesini ve ardından bu içeriği otomatik bir şekilde yaymasının daha ucuz ve daha kolay hale geldiğini gösteriyor.
Bu yıl yaklaşık 2 milyar insan sandık başına giderken, politikacılar bu tür durumlar karşısında teknoloji şirketlerini uygun önlemler almaya ve uygulamaya teşvik etti. Microsoft destekli OpenAI, bu tür dezenformasyon kampanyalarını ifşa etme kararlılığını vurgulayarak, tespit ve analiz süreçlerini “daha etkili” hale getirmek için kendi yapay zeka destekli araçlarını geliştirdiğini ifade etti.
OpenAI, güvenlik sistemlerinin bu tür faaliyetlerin yürütülmesini zorlaştırdığını, kendi modellerinin ise istenen metin veya görüntüleri üretme taleplerini birçok kez reddettiğini belirtti.
Dezenformasyonun Arkasındaki İsimler
Rapor, devlete bağlı birkaç tanınmış dezenformasyon aktörünün bu yapay zeka araçlarını kullandığını ortaya koydu. Bunlar arasında, ilk kez 2022’de keşfedilen ve genellikle Ukrayna’ya verilen desteği baltalamaya çalışan Doppelganger adlı bir Rus operasyonu ile, Pekin’in çıkarlarını yurtdışında yansıtan Spamouflage adı verilen bir Çin ağı yer aldı.
Her iki kampanya da, X gibi sosyal medya platformlarında içerik yayınlamadan önce çok dilli metin veya yorum oluşturmak için yapay zeka modellerini kullandı. Ayrıca daha önce bildirilmeyen ve Bad Grammar olarak adlandırılan bir Rus operasyonu da raporda yer aldı. Bu operasyon, OpenAI modellerini bir Telegram botunu çalıştırmak amacıyla kod hatalarını düzeltmek ve daha sonra Telegram’da yayınlanan kısa, siyasi yorumlar oluşturmak için kullandı.
OpenAI, Tel Aviv merkezli STOIC adlı bir siyasi kampanya yönetimi şirketinin yürüttüğü ve X, Instagram ile Facebook gibi platformlarda makaleler ve yorumlar oluşturmak için yapay zeka modellerini kullanan İsrail yanlısı bir dezenformasyon girişimini de engellediğini bildirdi.
İlk yorum yapan olun