Meta, kaynaklarını daha fazla üretken yapay zekaya yönlendirdiği için Sorumlu Yapay Zeka (RAI) ekibini dağıttı. Sızdırılan habere göre, RAI üyelerinin çoğu, şirketin üretken yapay zeka ürün ekibine geçecek; diğerleri ise Meta'nın yapay zeka altyapısı üzerinde çalışacak. Meta, yapay zekayı sorumlu bir şekilde geliştirmeyi amaçladığını belirterek şeffaflık, güvenlik, gizlilik gibi "sorumlu YZ sütunlarını" içeren bir taahhüt sayfasına sahip.
Meta'yı temsil eden Jon Carvill, şirketin "güvenli ve sorumlu yapay zeka geliştirmeye öncelik vermeye ve yatırım yapmaya devam edeceğini" vurguladı. Carvill, ekibin dağılmasına rağmen, üyelerin "sorumlu yapay zeka geliştirme ve kullanımına ilişkin ilgili çapraz Meta çabalarını desteklemeye devam edeceğini" belirtti.
Meta'nın Basın Açıklamasına Kadar Yorum Yapmaması Dikkat Çekti
RAI ekibi, bu yılın başlarında Business Insider'ın "bir ekip kabuğu" olarak adlandırdığı bir yeniden yapılanma süreci geçirmişti. 2019'dan bu yana var olan RAI ekibinin özerkliği sınırlıydı ve projelerinin hayata geçirilmesi için uzun paydaş müzakerelerine ihtiyaç duyulduğu bildirilmişti.
RAI, Meta'nın yapay zeka eğitim yaklaşımlarındaki sorunları tespit etmek ve platformlarındaki moderasyon sorunları gibi konulara çözüm bulmak amacıyla kurulmuştu. Meta'nın sosyal platformları, çeşitli sorunlara neden olan otomatik sistemlere sahipti; örneğin, Facebook çeviri sorunu, WhatsApp AI etiketlerinin yanlış sonuçları ve Instagram'ın algoritmalarının çocuk istismarı materyallerini tespit etme konusundaki zorlukları gibi gibi.
Meta'nın ve Microsoft'un benzer adımları, dünya genelinde yapay zeka gelişimi için düzenleyici önlemlerin tartışıldığı bir döneme denk geldi. ABD hükümeti, yapay zeka şirketleriyle anlaşmalar imzaladı ve Başkan Biden, devlet kurumlarını yapay zeka güvenlik kuralları oluşturmaya yönlendirdi.
Bu habere henüz yorum yazılmamış, haydi ilk yorumu siz bırakın!...