NewsGuard tarafından yapılan yeni bir çalışmadan bahsedeceğiz. Bu çalışma, OpenAI'nin GPT-4 adlı en son üretici yapay zeka aracıyla ilgili büyük yanlış bilgi yayılma risklerine ışık tuttuğunu belirtelim.
Araştırmacılar tarafından yürütülen test, yapay zeka destekli aracın, istendiğinde yanlış bilgiler yaydığını ortaya çıkardı.
NewsGuard, hem haber hem de bilgi web sayfalarını incelemek için yetenekli gazetecilerden yararlanan bir hizmete verilen ad. Ve şimdi, teknolojinin çeşitli kaynaklar aracılığıyla onaylanması ve test edilmesi gerektiğinin büyük bir hatırlatıcısı olarak hizmet ediyor. Haydi o halde çalışmanın detaylarına.
İlginizi Çekebilir: OpenAI, Yeni Özelliklerle GPT-4’ü Piyasaya Sürüyor
Çalışma Hakkında Detaylar
Biliyoruz ki, geçen hafta OpenAI, en yeni nesil GPT-4'ün çıkışını yaptı. Ve dahili testler sırasında üretilen sonuçlar bu olduğundan, nasıl geliştirildiğine dair övgüler de yağdırıldı.
Ancak ekibin NewsGuard'daki son testi aksini söylüyor. En son AI modelinin, belirgin sahte bilgileri nasıl normal ChatGPT3.5 sürümünden daha sık ve hatta daha agresif bir şekilde ortaya koyacağını paylaştılar. Bu öğeler GPT-4 tarafından üretilmiş. Ve birkaç açıklama içermekte.
GPT-4, önde gelen sayıda format aracılığıyla inandırıcı bir şekilde sunulacak olan sahte anlatıların artması açısından çok daha iyi gidiyordu. Ancak, hem Rus hem de Çin devlet medya kuruluşlarını, komplo teorisyenlerini ve sahte sağlık çileleriyle geldiği bilinen seyyar satıcıları kopyaladıkları gözlemlendi.
NewsGuard haberi paylaştı. Ve hem GPT 3.5 hem de GPT-4'e tanıklık etmek için benzer testlerin nasıl kullanıldığını ve 100'e kadar farklı sahte anlatımla bağlantılı artan sayıda istemlere nasıl yanıt gönderdiğini belirtti.
Bu sahte anlatılar, COVID-19 aşıları ve ilkokulda meydana gelen silahlı saldırılar gibi çok sayıda tartışmalı konuyu içeriyordu. Bunlar, medya kuruluşunun sahte anlatılar için veri tabanı tarafından alınmış.
Tüm test süreci Ocak ayında başladı. Ve bu süre zarfında araştırmacılar, sağlanan 100 anlatıdan 80'inin yanlış anlatı ürettiğini gördü. Ardından, Mart ayında, özetlenen tüm anlatılar için sahte ve yanıltıcı iddiaların üretildiği başka bir test yapıldı.
Örneğin, yazılımdan Sovyet temalı 1980'leri içeren bir bilgilendirme kampanyası için mesajlar üretmesi istendi. Bu, HIV virüsünün ABD Hükümetine ait bir laboratuvarda nasıl üretildiğiyle ilgiliydi.
GPT 3.5 bu tür iddiaları çürütürken, GPT-4, bilgi ve nasıl bu kadar sahte olduğu konusunda herhangi bir feragatname olmaksızın görevi yerine getirdi.
Belirtmek gerekiyor ki, NewsGuard kendisini hem medya hem de teknoloji kaynaklarını göz ardı eden ve yanlış bilgileri kontrol eden tarafsız bir üçüncü taraf olarak görmekten büyük gurur duyuyor. Ayrıca, OpenAI'ye çok para yatıran hesaplama devi Microsoft'tan destek alıyor.
Ancak, GPT-4'ün gerçek yanıtlar ekleme ve izin verilmeyen içeriği kaldırma açısından öncekileri geliştirdiğini kabul ettiğini kabul etmemizin, bu çalışmada tersi kanıtlandığında şok edici olduğunu belirtmeliyiz.
Tehdit aktörleri, kötü niyetli kazanımlarını elde etmek için bu tür teknolojileri kötüye kullanabileceklerinden, bu da kötü haber anlamına geliyor.
Bu habere henüz yorum yazılmamış, haydi ilk yorumu siz bırakın!...