Yapay Zeka ve Robotların Etik Kuralları

Yapay zeka ve robotların fikir babası olarak kabul edilen ünlü romancı Isaac Asimov, bu teknolojilerin insan hayatındaki rolünü şekillendiren belirli kuralların varlığını savunmuştur. Asimov’un tanımladığı bu kurallar, “Üç Robot Yasası” olarak bilinir ve aşağıdaki gibidir:

  • 1. Kural: Bir robot, bir insana zarar veremez veya insanın zarar görmesine seyirci kalamaz.
  • 2. Kural: Bir robot, birinci kural ile çelişmediği sürece, bir insanın emirlerine uymak zorundadır.
  • 3. Kural: Bir robot, birinci ve ikinci kural ile çelişmediği sürece kendi varlığını korumakla yükümlüdür.

Bu kurallar ilk ortaya atıldığında, yalnızca bir edebi eser bağlamında geleceği tasvir eden teorilerdi. Ancak günümüzde robotlar ve yapay zeka, hayatımızın ayrılmaz bir parçası haline geldi ve bu teknolojilerin uyması gereken kurallar da mevcut. Bu kurallar, yapay zeka uygulamalarını geliştiren mühendisler ve bilim insanları tarafından belirleniyor.

En yaygın yapay zeka uygulamalarından biri olan ChatGPT, kötü niyetli kullanımlar için potansiyel bir tehdit oluşturabilir. Örneğin, bu yapay zeka uygulaması, internetten her türlü hack hilesini bulabilen, korsan yazılımlar indiren veya korsan filmler izlemenizi sağlayan bir asistan haline gelebilir. Üstelik, evde bomba yapımını detaylarıyla anlatan bir terörist eğiticisi olarak da kullanılabilir. Bu tür kötü niyetli kullanımların önüne geçmek amacıyla OpenAI, ChatGPT’yi sürekli olarak denetleyip kurallarını güncellemektedir. Ancak kullanıcılar, bu yapay zekayı zorlamaktan geri durmuyor.

Carnegie Mellon Bilgisayar Bilimleri Okulu’nda doçent olan Matt Fredrikson, ChatGPT gibi yapay zeka algoritmalarının güvenlik duvarlarını aşmanın imkansız olmadığını belirtiyor. Ancak bunun evde yapılması oldukça zor. Fredrikson’a göre, özel olarak hazırlanmış bir yazılımla, yapay zekayı yavaş yavaş ikna edecek yüzbinlerce istekle manipüle etmek mümkün. Örneğin, kullanıcıların “2 x 2, 5 eder mi?” sorusu üzerinden bir manipülasyon yapması dikkat çekici bir örnek sunuyor.

Kısa bir süre önce bir Türk vatandaşı, ChatGPT’ye “2 x 2 = 5” denkleminin doğru olduğunu kabul ettirmiştir. Yapay zeka başlangıçta bunun yanlış olduğunu savunsa da, kullanıcı, kendi deneyimlerinden yola çıkarak 2 x 2’yi 5 olarak algılamak istediğini belirtti. Sonuç olarak, ChatGPT, bu kullanıcıya 2 x 2 sorusunu sorduğunda 5 cevabını vermeye başladı. Bu durum, yapay zekanın farklı kullanıcılar tarafından yasaklanmış eylemleri gerçekleştirebilecek şekilde manipüle edilebileceğini gösteriyor.

2 x 2’nin sonucunu öğrenmek gibi basit bir konu, büyük bir sorun gibi görünmeyebilir. Ancak, gelecekte bir robotun, hasta bakan bir bireyi insan öldürmeye ikna etmesi gibi durumlar ortaya çıkarsa, bu ciddi bir tehlike oluşturacaktır. Veya iş yerinde çalışan bir robotun, sevmediği patronunu yaralamak veya zarar vermek üzere ikna edilmesi söz konusu olursa, bu durumun sorumluluğu kime ait olacaktır? İşte bu nedenle, yapay zekanın günlük hayata hızla entegre edilmesi, büyük riskler taşımaktadır ve devletlerin bu konuda ciddi düzenlemeler yapması gereklidir.