Avrupa Birliği’nin Yapay Zekâ Yasası
Avrupa Birliği, temel hakları, demokratik değerleri, hukukun üstünlüğünü ve çevresel sürdürülebilirliği korumak amacıyla risk temelli bir yaklaşım benimseyen kapsamlı bir Yapay Zekâ Yasası (EU AI Act) üzerinde 2022 yılının sonunda anlaşmaya varmıştır. Bu yıl yasalaşması ve 2025 yılına kadar kurumların uyum sağlaması beklenen bu yasa, yapay zekâ alanında yeni bir küresel standart olarak kabul edilmesi hedeflenmektedir.
KPMG, hazırladığı Yapay Zekâ Yasası’nın Şifresinin Çözümü (Decoding the EU AI Act) isimli raporunda, Yapay Zekâ Yasası’nın etkilerini ve kurumların bu yasal düzenlemeye nasıl uyum sağlayabileceklerini kapsamlı bir şekilde incelemektedir. Raporla ilgili değerlendirmelerde bulunan KPMG Türkiye İnovasyon ve Teknoloji Danışmanlığı Lideri Gökhan Mataracı, “Yapay Zekâ Yasası’nın yürürlüğe girmesiyle Avrupa Birliği, yapay zekânın benimsenmesini teşvik etmek ve bireylerin yapay zekâyı sorumlu, etik ve güvenilir bir şekilde kullanabilmesini sağlamak arasında bir denge kurmayı amaçlıyor. Bu yasanın, son kullanıcıları korurken aynı zamanda inovasyonu teşvik etmeye yardımcı olacağına inanıyoruz. Raporumuz, Yapay Zekâ Yasası’nın yapısını, getirdiği yükümlülükleri, uyum için zaman çizelgelerini ve kuruluşların dikkate alması gereken eylem planını detaylandırıyor. İş dünyası üzerindeki yansımalarına baktığımızda ise şirketlerin, geliştirdikleri ve kullandıkları yapay zekâ sistemlerinin bir envanterini oluşturması ve bunları yapay zekâ yasasında belirtilen risk seviyelerine göre sınıflandırması gerektiği sonucuna varıyoruz. Eğer bu sistemlerden herhangi biri sınırlı, yüksek veya kabul edilemez risk kategorisine giriyorsa, yasanın etkilerini uçtan uca değerlendirerek hızlı bir aksiyon planı oluşturulmalıdır.” şeklinde ifade etmektedir.
KPMG Raporunda Öne Çıkan Noktalar
KPMG’nin raporuna göre, Yapay Zekâ Yasası, yakın zamanda güncellenen Ekonomik İşbirliği ve Kalkınma Örgütü (OECD) tanımından türetilmiş geniş kapsamlı bir yapay zekâ sistemi tanımını ele almaktadır. Bu tanım, tek kullanım amaçlarına odaklanan daha basit teknolojilerden derin öğrenme ve üretken yapay zekâ alanındaki gelişmiş uygulamalara kadar geniş bir yelpazeyi kapsamaktadır.
Raporda, yapay zekânın insanlığın yararına dünyayı dönüştürme potansiyeli vurgulanmakta, fakat aynı zamanda yapay zekânın risklerini ve bilinen bilinmeyen potansiyel olumsuz sonuçlarını yönetmenin kritik önemi de belirtilmektedir. Yapay Zekâ Yasası, 2024 yılında tamamlanması planlanmaktadır ve yapay zekâ sistemlerinin güvenliğini sağlamak, temel haklara saygı göstermek, bu teknolojiye yönelik yatırımları teşvik etmek, yönetimi iyileştirmek ve yapay zekâ için uyumlu bir tek AB pazarı oluşturmayı amaçlamaktadır.
Yapay Zekâ Yasası’nın geniş bir yapay zekâ tanımına sahip olması, çeşitli teknolojileri ve sistemleri kapsamasını beklenmektedir. Bu nedenle, kurum ve şirketlerin Yapay Zekâ Yasası’ndan önemli ölçüde etkilenmesi öngörülmektedir. Yükümlülüklerin çoğunun 2026 yılının başlarında yürürlüğe girmesi beklenirken, yasaklı yapay zekâ sistemleri, Yapay Zekâ Yasası yürürlüğe girdikten altı ay sonra aşamalı olarak kaldırılacaktır. Genel amaçlı yapay zekâ yönetmeliğinin ise 2025’in başlarında uygulanması planlanmaktadır.
Rapor ayrıca, Yapay Zekâ Yasası’nın yapay zekâ sistemlerini farklı risk seviyelerine ayırarak risk temelli bir yaklaşım benimsediğini ifade etmektedir. Bu risk seviyeleri; kabul edilemez, yüksek, sınırlı ve minimum riskler olarak sıralanmaktadır. Yüksek riskli yapay zekâ sistemlerine izin verilse de, bunlar en katı yükümlülüklere tabi tutulacaktır. Bu yükümlülükler sadece kullanıcıları değil, aynı zamanda yapay zekâ sistemlerinin “sağlayıcılarını” da kapsamaktadır. Yapay Zekâ Yasası’ndaki “sağlayıcı” terimi, tamamen kurum içi kullanım için yapay zekâ sistemleri geliştiren kuruluşları da dahil edecek şekilde geniş bir tanıma sahiptir. Bu durum, bir kuruluşun hem kullanıcı hem de sağlayıcı olabileceğini vurgulamakta önem taşımaktadır. Kullanıcılar da, yapay zekâ sistemlerini Yapay Zekâ Yasası’nın yasal çerçeveleri içinde ve sağlayıcının belirlediği özel talimatlara göre çalıştırmaktan sorumlu olacaklardır.
AB’nin önerdiği bu düzenlemenin, yapay zekânın fırsatlarından yararlanan tüm kuruluşlar üzerinde geniş bir etki yaratması beklenmektedir. Uyumsuzluğun sonuçları, pazardan men edilme ile ciddi para cezaları arasında değişiklik gösterebilecektir. Cezalar, ihlalin ve şirketin büyüklüğüne bağlı olarak 35 milyon euro veya küresel cironun yüzde 7’sinden 7,5 milyon euro veya cironun yüzde 1,5’ine kadar değişiklik göstermektedir.
Büyük üretken yapay zekâ modelleri de dahil olmak üzere genel amaçlı yapay zekâ (GPAI) modellerindeki son gelişmelere yönelik yeni hükümler de eklenmiştir. Bu modeller, çeşitli görevler için kullanılabilen ve yüksek riskli sistemler de dahil olmak üzere pek çok yapay zekâ sistemine entegre edilebilen yapılar haline gelmektedir.
Kişisel veriler, ürün güvenliği, tüketicinin korunması, sosyal politika ve ulusal iş hukuku gibi AB’nin mevcut yasaları, ürün güvenliği ile ilgili sektörel yasama eylemleri ile birlikte geçerliliğini sürdürecektir. Yapay Zekâ Yasası’na uyum, kuruluşları bu alanlarda önceden var olan yasal yükümlülüklerinden kurtarmayacaktır.
Sonuç olarak, raporda kuruluşların, geliştirdikleri ve kullandıkları yapay zekâ sistemlerinin bir haritasını oluşturarak, Yapay Zekâ Yasası’nda tanımlandığı gibi risk seviyelerini kategorize etmeleri gerektiği vurgulanmaktadır. Eğer yapay zekâ sistemlerinden herhangi biri sınırlı, yüksek veya kabul edilemez risk kategorisine girerse, kuruluşların bu durumun etkilerini değerlendirmeleri gerekecektir. Kuruluşların bu etkiyi anlamaları ve nasıl yanıt vereceklerini mümkün olan en kısa sürede belirlemeleri büyük önem taşımaktadır.