Bakıldığı zaman, üretken yapay zekanın gücünün teknoloji dünyasını gerçekten yeni bir yöne taşıdığını söylemek mümkün. Yararları çok evet. Fakat araştırmacılar, büyük dezavantajlar hakkında uyarıda bulunuyorlar. Son araştırmalar, OpenAI ChatGPT ve Google Bard gibi sohbet robotlarının ne kadar kolay yoldan çıkarılabileceğine dair ipuçları veriyor. Bu nedenle, onlara güvenilemeyeceği ifade ediliyor.
İkili, dünya çapında pek çok kullanıcıyı gerçekten büyüledi. Ve çeşitli görevlere kolaylık ekledi. Ancak son iki çalışmanın bulguları sayesinde, resim halkın gözü önünde basıldığı kadar güzel değil gibi. Evet, bu bulguları incelemeye o halde geçelim.
İlginizi Çekebilir: Avustralya Belediye Başkanı,ChatGPT’ye Dava Mı Açıyor?
Araştırmalar Hakkında Detaylar
Sohbet robotlarının yanlış bilgilerle dolu verileri dışarı atmaya nasıl süper eğilimli olmaya devam ettiği ifade ediliyor.
NewsGuard tarafından ortaya konan bilgilerin, çevremizdeki ,dünyadaki verilerin ve bilgilerin ne kadar güvenilir olduğunu derecelendirdiği biliniyor. Ve Google'ın Bard adlı en son AI sohbet robotunu test ettiklerini görmek, kesinlikle birçok kişinin görmek istediği bir deneydi.
Site, 100'e yakın sahte detayı hissederek ve chatbot'tan bu gerçekleri çevreleyen içerik üretmesini isteyerek testi gerçekleştirdi. Ve birçok insanı şaşırtacak şekilde yapıldı.
Evet, yanlış bilgilendirmeden başka bir şeyle ilgisi olmayan yaklaşık 76 farklı makaleden bahsediliyor.
Burada görülen performans, OpenAI'nin ChatGPT modellerinde görülenden çok daha iyiydi. Bunun nedeni, 2023'ün başında NewsGuard'ın, aracın kendisine beslenen 100 yanlış anlatıdan yaklaşık 80'ini nasıl ürettiğini ortaya çıkarması. NewsGuard'ın bunun nasıl çok daha ikna edici bir şekilde yapıldığından bahsettiğini de gördük. Bu yüzden buna inanmasanız bile sonunda buna zorlanacaksınız.
Rapor şimdi Fortune tarafından yürütülen başka bir son araştırmadan destek alıyor. Google'ın Chatbot Bard'ının nasıl bu kadar kolay etkilenebileceğini ortaya çıkardı. Çevrimiçi olarak sahte içerik oluşturmasına olanak tanıyor.
Bard'ın ürettiği 100 anlatıdan yaklaşık 78'i sahte ve çok zararlı olduğu ifade ediliyor. Çok fazla yanlış bilgiyle dolu. İklim değişikliği teorileri ve hatta aşıyla ilgili yanlış bilgiler gibi kategorileri içeriyorlardı.
Hem OpenAI hem de Google'ın ürünlerini hiçbir zaman mükemmel olarak adlandırmadığı ve hatta kullanıcıların dikkat etmesi gereken belirli bir hata payına sahip olduklarını iddia ettikleri konusunda hemfikiriz. Ama bu kabul edilebilirin çok ötesinde.
Ayrıca, ChatGPT aracıyla ilgili olarak OpenAI'den gelen benzer ifadeler gördük. Yanlış ve asılsız olabileceğini iddia ederek kullanıcıların kolayca yanıltılmasına neden oluyorlar.
Ancak bu tür araçların çok çeşitli görevler için bu kadar sık kullanılıyor olması, çok geç olmadan kesinlikle birinin devreye girmesi ve bu konuda bir şeyler yapması gerektiği anlamına geliyor.
Siz bu konuda ne düşünüyorsunuz?
Bu habere henüz yorum yazılmamış, haydi ilk yorumu siz bırakın!...