Twitter algoritmasının, platformda paylaşılan görsellerin otomatik kırpılmasında zayıf ve genç kadın yüzleri tercih ettiği öğrenildi. Mayıs ayında Twitter, platformda paylaşılan görsellerin otomatik kırpılmasında kullanılan algoritmanın beyaz ve kadın yüzleri tercih ettiği öğrenilmişti.Twitter, bu olayın ortaya çıkmasının ardından, algoritmasını kullanmayı bırakacağını söylemişti. Şimdi, aynı algoritmanın aynı zamanda yaş ve kilo açısından da ayrım yaptığı ve İngilizce ve diğer Batı dillerindeki metinleri tercih ettiği ortaya çıktı. İsviçre'deki EPFL'de bilgisayar güvenliği alanında yüksek lisans öğrencisi yapan Bogdan Kulynych'in ortaya çıkardığı veriler, Twitter'ın görüntü kırpma algoritmasının daha ince ve daha genç görünen insanları tercih ettiğini gösterdi. Kulynych, farklı yüzler oluşturmak için deepfake teknolojisini kullandı ve ardından nasıl tepki verdiğini görmek için kırpma algoritmasını test etti. OpenAI şirketinde bir güvenlik araştırmacısı olan Ariel Herbert-Voss, algoritmayı eğitmek için kullanılan verilere katkıda bulunan insanların önyargılarının bu duruma sebebiyet verdiğini söyledi. Las Vegas'ta yapılan bir bilgisayar güvenliği konferansı olan Defcon'da, şirketlerin üçüncü parti araştırmacılara algoritmalarını incelemeleri için izin vermelerinin, bu tür durumları azaltacağı sonucuna varıldı. Twitter da dahil olmak üzere bazı şirketler, belirli açıklar için ödüller sunarak uzmanları güvenlik hatalarını aramaya teşvik ediyor. Bazı yapay zeka uzmanları da firmaların sorunları tespit etmek için kullandıkları algoritmalara ve verilere dışarıdan erişim vermeleri gerektiğine inanıyor. Eylül ayında Kanadalı bir öğrenci Twitter'ın algoritmasının fotoğrafları kırpma şekline dikkat çekmişti. Algoritma, metin, hayvanlar veya nesneler gibi diğer alanlarının yanı sıra yüzleri de ortalayacak şekilde tasarlanmıştır. Ancak algoritma, birkaç kişinin gösterildiği görüntülerde genellikle beyaz yüzleri ve kadınları tercih etti. Twittersphere, kısa süre sonra, ırk ve cinsiyet yanlılığını gösteren başka örnekler de bulmuştu.
Bu habere henüz yorum yazılmamış, haydi ilk yorumu siz bırakın!...