Son gelişmelere göre, Meta’nın kaynaklarını giderek daha fazla üretken yapay zeka projelerine yönlendirmesi nedeniyle Sorumlu Yapay Zeka (RAI) ekibi dağıtılıyor. Bu değişimle birlikte, RAI ekibinin çoğunluğu, şirketin üretken yapay zeka ürün geliştirme ekibine katılacak; diğer bazı üyeler ise Meta’nın yapay zeka altyapısı üzerinde çalışmaya devam edecek.
Meta, yapay zeka alanında sürekli olarak gelişim sağlama hedefini vurguluyor ve bu amaçla hesap verebilirlik, şeffaflık, güvenlik ve gizlilik gibi önemli konulara odaklanan “sorumlu yapay zeka sütunlarını” içeren bir taahhüt sayfası oluşturmuş durumda. The Information tarafından yayımlanan haberde, Meta’yı temsil eden Jon Carvill, şirketin güvenli ve sorumlu yapay zeka geliştirme konusundaki önceliklerini ve yatırımlarını sürdürmeye devam edeceğini belirtti.
Carvill, ekibin dağılmasına rağmen, bu üyelerin sorumlu yapay zeka geliştirme çabalarına destek vermeye devam edeceklerini de vurguladı. RAI, Meta’nın yapay zeka modellerinin yeterli çeşitlilikte veri ile eğitilip eğitilmediği gibi konuları tespit etmek ve platformlarındaki moderasyon sorunlarını önlemek amacıyla kurulmuştu. Daha önce, Meta’nın sosyal medya platformlarındaki otomatik sistemler, bazı ciddi sorunlara yol açmıştı. Bu sorunlar arasında:
- Facebook üzerinde ortaya çıkan ve haksız bir tutuklamaya neden olan çeviri hatası,
- Belirli istemler verildiğinde önyargılı görüntülerle sonuçlanan WhatsApp AI çıkartması oluşturma,
- Instagram algoritmalarının çocuk cinsel istismarı materyallerini tespit etme konusundaki yetersizliği.
Diğer yandan, ABD hükümeti yapay zeka şirketleriyle çeşitli anlaşmalar imzalarken, Başkan Joe Biden da devlet kurumlarını yapay zeka güvenliği kurallarını oluşturmaya teşvik etti. Avrupa Birliği ise yapay zeka ile ilgili kendi kural ve ilkelerini yayımladı ve hala yapay zeka yasasını geçirme çabalarını sürdürüyor.