Bilim insanları, yapay zekanın biyolojik silah riski için önlem almaya çalışıyor! Yapay zeka kullanımının yanlış gitmesinin birçok yolu vardır. Örneğin yapay zeka, askeri operasyonlara savaş planlarında yardımcı olabilir. Ancak yapay zekanın olası kötüye kullanımını engellemek için bazı kısıtlamalar getirildi.
100'den fazla bilim insanı, yapay zekanın biyolojik silahlarda kullanılmasını önlemek için toplu olarak 10 politikaya uymayı taahhüt etti. Bu politikalar, yapay zeka destekli biyolojik silahların yaratılmasını önlemeyi amaçlıyor.
Dikkate değer katılımcılardan bazıları arasında Ivy League araştırmacıları ve Microsoft'un Baş Bilimsel Görevlisi yer alıyor. Detaylar haberimizde...
İlginizi Çekebilir: AI Enerji Tüketimi Artıyor! İşte ChatGPT’nin Günlük Kullandığı Enerji
Bu Önlemler, Tehlikeli Biyomoleküllerin Üretilmeden Önce Tespit Edilmesini İçeriyor
Anlaşma, 20230 Washington Üniversitesi zirvesinden kaynaklandı. Amaç, kasıtlı olarak veya başka şekilde zarar vermek amacıyla kullanılabilecek yapay zeka teknolojileriyle ilişkili riskleri azaltmak için proaktif risk yönetimini vurgulamak.
Cuma günü yayınlanan imzalanan anlaşma için belirtelim. Yapay zeka kullanımına yasak getirmekten ziyade yol gösterici ilkeler oluşturmaya odaklanıyor. Bunun yerine, istenmeyen DNA felaketlerini önlemeye yönelik önlemlerin ana hatlarını çiziyor.
Temel politikalar, bilim adamlarının "genel zarara" veya kötüye kullanıma yol açabilecek araştırmalara katılmama taahhüdünü içeriyor. Ek olarak, yalnızca iyi tarama önlemlerine sahip sağlayıcıların DNA hizmetlerini kullanacaklarını taahhüt ediyorlar.
Bu önlemler, tehlikeli biyomoleküllerin üretilmeden önce tespit edilmesini içeriyor. Yapay zeka destekli araştırmaların etik sınırlar içinde kalmasını ve istenmeyen sonuçların önlenmesini sağlamayı amaçlıyorlar.
Ayrıca anlaşma için ekleyelim. Bilim adamlarının yapay zeka destekli yazılımı yayınlamadan önce güvenlik risklerini değerlendirmesi ve "kırmızı takım" uygulamalarına katılması gerektiğini söylüyor. Kırmızı takım uygulamaları, tarama protokollerindeki potansiyel zayıflıkları belirlemek için simüle edilmiş egzersizleri içeriyor.
Bu uygulamalar, yapay zeka biyolojik silahları söz konusu olduğunda potansiyel tehdit oluşturan her türlü senaryoyu tespit edecek ve durduracaktır.
Harvard gibi kurumlardan ve Almanya ve Japonya gibi ülkelerdeki diğer bilim adamlarından bireysel bilim insanları anlaşmayı onayladığından, politikalar birçok kişide yankı uyandırıyor. Microsoft'un Baş Bilim Sorumlusu Eric Horvitz'in yanı sıra ProteinQure, Menten AI ve Profluent Bio gibi şirketlerden profesyoneller de imza attı.
Bu yeni isteğe bağlı anlaşma, Anthropic CEO'su Dario Amodei'nin geçen yıl yapay zeka destekli biyolojik silahların "orta vadeli" bir risk olduğunu ancak yalnızca birkaç yıl uzakta olduğunu söylemesinin ardından geldi.
Amodei şu açıklamalarda bulundu. "Biyolojik silah üretimindeki belirli adımlar, Google'da veya ders kitaplarında bulunamayan bilgileri içerir ve yüksek düzeyde uzmanlık gerektirir. Günümüzün yapay zeka araçlarının bu adımlardan bazılarını yerine getirebileceğini gördük."
Yapay zeka kullanımına ilişkin kapsamlı ABD federal yasaları hâlâ geliştirilme aşamasındadır. Beyaz Saray, 2022'de bir Yapay Zeka Hakları Bildirgesi planı önerdi. Ayrıca, ABD Ulusal Eyalet Yasama Meclisleri Konferansı'na göre, 18 eyalet ve Porto Riko, geçen yıl yapay zeka kullanımını çevreleyen çeşitli yasa veya kararları onayladı.
Anlaşmanın tamamı için ekleyelim. “Protein Tasarımı için Yapay Zekanın Sorumlu Gelişimi için Topluluk Değerleri, Yol Gösterici İlkeler ve Taahhütler” başlığı altında Sorumlu Yapay Zeka x Biyotasarım olarak adlandırılmaktadır.
Bu habere henüz yorum yazılmamış, haydi ilk yorumu siz bırakın!...