Herhangi birine ait olan fotoğrafları yapay zeka kullanarak çıplak gösterdiğini iddia eden DeepNude uygulaması faaliyetlerine son verdi. Geçen hafta Vice’ta yayınlanan bir haberle gündeme gelen skandal uygulama, Twitter hesabı üzerinden yaptığı açıklamada, "Dünya, henüz DeepNude'e hazır değil" denildi.
DEEPNUDE NEDİR?
Yazılımla ilgili olarak Vice’ta yayınlanan haberin ardından tüm dünyada geniş yankı uyandıran uygulama, hem kişisel mahremiyeti hiçe sayması hem de ahlaki olarak yoğun bir şekilde eleştirilmişti.
Uygulamanın sadece kadın fotoğraflarında çalışması ise tartışmanın boyutunu daha da alevlendirmişti.
Kişisel mahremiyet savunucuları, "Bu yazılım tam anlamıyla korkunç. Artık herkes, çıplak fotoğrafları olmasa dahi intikam pornosunun bir kurbanı olabilir. Bu teknoloji halka açılmamalı" açıklamaları yapmıştı. DeepNude uygulamasının ücretsiz sürümünde çıplak fotoğraflardaki cinsel bölgeler, siyah bir bant ile kapatılırken; 50 dolarlık ücretli sürümünde ise tamamen çıplak fotoğraflar, 'Fake' (sahte) ibaresiyle gösteriliyordu.
'BU ŞEKİLDE PARA KAZANMAK İSTEMİYORUZ'
Ancak bu eleştirilere karşın, 50 dolarlık bir ücret karşılığında satışa sunulan uygulama, haberin yayınlanmasının hemen ardından yoğun bir ilgiyle karşılaşmış ve programın indirilme sitesi kilitlenmişti.
MARK ZUCKERBERG’İN DE BAŞINA GELDİ
Hatta geçen günlerde Facebook'un sahip olduğu resim ve video paylaşım platformu Instagram'da, Mark Zuckerberg'in sahte bir videosu ortaya çıkmıştı. Bu videoda Zuckerberg, milyonlarca kişinin bilgilerine sahip olduğunu söylüyor, bunun nasıl bir güç anlamına geldiğini düşünülmesini istiyordu.
Zuckerberg'in sahte videosuyla tartışılmaya başlanan deepfake videolarla ilgili olarak Instagram CEO'su Adam Mosseri ise şu an için bu konuda bir politikalarının olmadığını, öncelikle bu deepfake videolarını nasıl tanımlayacaklarına karar vermeleri gerektiğini ifade etmişti.