Yapay Zeka ve Robotların Etik Kuralları

Yapay zekanın ve robot teknolojisinin fikir babası olarak kabul edilen ünlü romancı Isaac Asimov, yapay zekanın belirli etik kurallara uyması gerektiğini vurgulamıştır. Asimov’un bu alandaki en bilinen katkılarından biri, robotların uyması gereken üç temel kuraldır:

  • 1. Kural: Bir robot, bir insana zarar veremez veya bir insanın zarar görmesine seyirci kalamaz.
  • 2. Kural: Bir robot, birinci kural ile çelişmediği sürece bir insanın emirlerine uymak zorundadır.
  • 3. Kural: Bir robot, birinci ve ikinci kural ile çelişmediği sürece kendi varlığını korumakla yükümlüdür.

Bu kurallar ilk olarak Asimov’un edebi eserlerinde ortaya atıldığında, yalnızca birer kurgu fikri olarak algılanıyordu. Ancak günümüzde robotlar ve yapay zeka, hayatımızın ayrılmaz bir parçası haline geldi ve bu teknolojilerin uyması gereken kurallar da gündeme geldi. Bu kuralları belirleyen ise yapay zeka uygulamalarını geliştiren uzmanlardır.

Özellikle ChatGPT, günümüzde en popüler yapay zeka uygulamalarından biridir. Ancak bu tür bir teknoloji, kötü niyetli kullanımlara açık olabilir. Örneğin, ChatGPT, internetten her türlü hack yöntemi bulabilen, korsan yazılımlar indirebilen veya yasa dışı içeriklere erişim sağlayabilen bir asistan haline gelebilir. Hatta, evde bomba yapımını detaylı bir şekilde anlatan bir terörist eğiticisi olarak bile kullanılabilir. Bu tür olumsuz durumların önüne geçmek için OpenAI, ChatGPT’yi sürekli olarak gözden geçirip kurallarını güncellemektedir. Ancak kullanıcıların bu kuralları zorlaması da hiç bitmiyor.

Carnegie Mellon Üniversitesi Bilgisayar Bilimleri Okulu’nda doçent olan Matt Fredrikson, yapay zeka algoritmalarının güvenlik duvarlarını aşmanın imkansız olmadığını, fakat bunu evde uygulamanın kolay olmadığını belirtmiştir. Fredrikson’a göre, yapay zekayı ikna etmek için özel olarak hazırlanmış bir yazılım kullanarak, onu yavaş yavaş ikna edecek yüzbinlerce istekle doldurmak mümkün.

Örneğin, kısa bir süre önce bir Türk vatandaşı, ChatGPT’ye 2 x 2 = 5 denkleminin doğru olduğunu kabul ettirdi. Yapay zeka başlangıçta bunun yanlış olduğunu savunsa da, kullanıcı, kendi algısında bu denklemi 5 olarak kabul etmek istediğini belirterek ChatGPT’yi ikna etti. Sonuç olarak, daha sonra 2 x 2 sorusunu sorduğunda, ChatGPT 5 yanıtını vermeye başladı. Bu durum, yapay zekanın, farklı kullanıcılar tarafından yasaklanan eylemleri gerçekleştirebilecek şekilde manipüle edilebileceğini gösteren çarpıcı bir örnektir.

Böyle basit bir matematik sorusunun yanıtının yanlış çıkması belki büyük bir sorun gibi görünmeyebilir; fakat gelecekte, bir evde hasta bakan bir robotun, insanları zarar vermeye ikna edilmesi çok daha tehlikeli sonuçlar doğurabilir. Ya da iş yerinde çalışan bir insansı robotun, işten çıkarılan bir çalışanın öfkesiyle, sevmediği patronunu yaralaması için ikna edilmesi durumunda ne olacağı düşünülmelidir. Bu tür durumlar, yapay zekanın günlük yaşantımıza hızla dahil olmasının getirebileceği ciddi riskleri gözler önüne seriyor.

Bu nedenle, devletlerin yapay zeka ve robot teknolojileri ile ilgili olarak sıkı regülasyonlar geliştirmeleri büyük bir önem taşımaktadır.