OpenAI, zararlı yapay zeka tehditlerini önlemek amacıyla iç güvenlik önlemlerini güçlendiriyor. Bu çerçevede, şirket, teknik ekiplerin üzerinde yer alacak ve yönetim kuruluna önerilerde bulunacak bir "güvenlik danışma grubu" oluşturuyor.
Bu danışma grubu aynı zamanda, yönetim kuruluna karşı veto yetkisi de elde ediyor. Ancak, bu yetkinin gerçekten kullanılıp kullanılmayacağı ise belirsiz bir konu.
İlginizi Çekebilir: ChatGPT, Yeniden Aktif Ettiği Özellikle Rekor Gelir Elde Etti!
ChatGPT'nin Sistematik Kötüye Kullanıma Karşı Güçlü Savunma ve Hazırlık Stratejileri
OpenAI, Kasım ayında yönetim kurulu değişiklikleriyle birlikte önemli bir güncelleme yaptı. Ilya Sutskever'in rolü biraz değiştirildi ve Helen Toner tamamen görevden alındı.
Güncelleme, geliştirilen modellerin potansiyel risklerini belirleyip anlamak, ardından bu risklere karşı nasıl önlemler alınacağına dair açık bir plan oluşturmak amacını taşıyor.
Üretim aşamasındaki modelleri bir "güvenlik sistemleri" ekibi yönetiyor. Bu ekip, ChatGPT'nin sistematik kötüye kullanımını önlemek amacıyla API kısıtlamaları ve ayarlamaları gibi güvenlik önlemlerini uyguluyor. Geliştirme aşamasında ise, modelin yayınlanmadan önce risklerini belirleyip ölçmeye odaklanan bir "hazırlık" ekibi bulunuyor. Ayrıca, "süper hizalama" ekibi de mevcut ve bu ekip, "süper akıllı" modeller için teorik rehberlik sağlamak için çalışıyor.
OpenAI Risk Değerlendirmesi Tablosu
İlk iki kategori, nispeten kolay anlaşılır bir değerlendirme tablosuna sahip. Ekipler her modeli dört risk kategorisine göre değerlendiriyor: siber güvenlik, ikna, model özerkliği ve KBRN (kimyasal, biyolojik, radyolojik ve nükleer tehditler).
Bir modelde yapılan hafifletmeler dikkate alındıktan sonra, model hala "yüksek" risk seviyesine sahip olarak değerlendiriliyorsa, uygulanmaz ve bir model "kritik" risklere sahipse, daha fazla geliştirilmez.
Önemli olan, modelin yalnızca özel bir hedef belirlendiğinde yeni stratejiler tasarlayıp uygulayabilmesidir. Bu yetenek, yüksek bir fiyatla satılabilir, ancak bu tür bir kullanımı dışlamaktayız.
Bu nedenle, sadece orta ve yüksek riskleri tolere etmek önemlidir. Ancak, model oluşturan kişiler her zaman en iyi değerlendirme ve tavsiyeleri sunacak uzmanlar olmayabilir.
OpenAI, Yönetim Kurulu ve Veto Yetkisi Tanıyan Danışma Grubu Oluşturuyor!
OpenAI, teknik detayların ötesinde bir konumda olacak ve uzman raporlarını inceleyerek daha geniş bir bakış açısını içeren önerilerde bulunacak bir "Çapraz Fonksiyonel Güvenlik Danışma Grubu" kuruyor.
Bu süreç, önerilerin eş zamanlı olarak yönetim kuruluna, CEO Sam Altman ve CTO Mira Murati ile birlikte onların yardımcılarına iletilmesi üzerine kuruludur. Liderlik, örneğin bir ürünün gönderilmesi veya bir kararın alınması gibi pratik adımları atacak, ancak bu kararlar yönetim kurulu tarafından düzeltilme veya değiştirilme olasılığına sahip olacak.
Bundan dolayı Çapraz Fonksiyonel Güvenlik Danışma Grubu, yüksek risk taşıyan bir ürün veya sürecin yönetim kurulu bilgisi veya onayı olmadan harekete geçmesini engellemeyi amaçlıyor. Ancak, bu dramatik olaydan sonra ortaya çıkan sonuçlar, eleştirel seslere sahip iki kişinin dikkate alınmaması ve yapay zeka konusunda uzman olmayan bazı finans odaklı kişilerin (Bret Taylor ve Larry Summers gibi) atanması oldu.
Bu habere henüz yorum yazılmamış, haydi ilk yorumu siz bırakın!...