DÜNYA

Fotoğrafları yapay zekayla çıplak gösterdiği iddia edilen DeepNude kapatıldı: Dünya henüz buna hazır değil

Yapay zeka teknolojileri kullanarak herhangi birinin fotoğrafını çıplak hale getiren DeepNude uygulaması kapatıldı. "Dünya, henüz buna hazır değil" açıklaması yapan uygulamanın geliştiricileri, "Eğlence için yapmıştık ama bu şekilde para kazanmak istemiyoruz" dedi.
Sitede oku

Herhangi birine ait olan fotoğrafları yapay zeka kullanarak çıplak gösterdiğini iddia eden DeepNude uygulaması faaliyetlerine son verdi. Geçen hafta Vice’ta yayınlanan bir haberle gündeme gelen skandal uygulama, Twitter hesabı üzerinden yaptığı açıklamada, "Dünya, henüz DeepNude'e hazır değil" denildi.

Yapay zeka gazetecilerin stilini taklit edip yalan haber yazabiliyor
Habertürk'ten Necdet Çalışkan'ın haberine göre, insan beyninin bilgi işleme tekniğinden esinlenerek geliştirilen yapay sinir ağları teknolojisini kullanan DeepNude programı, uygulamaya yüklenen fotoğraftaki kişileri çıplak gösterdiğini ileri sürüyordu.

DEEPNUDE NEDİR?

Yazılımla ilgili olarak Vice’ta yayınlanan haberin ardından tüm dünyada geniş yankı uyandıran uygulama, hem kişisel mahremiyeti hiçe sayması hem de ahlaki olarak yoğun bir şekilde eleştirilmişti.

Uygulamanın sadece kadın fotoğraflarında çalışması ise tartışmanın boyutunu daha da alevlendirmişti.

Kişisel mahremiyet savunucuları, "Bu yazılım tam anlamıyla korkunç. Artık herkes, çıplak fotoğrafları olmasa dahi intikam pornosunun bir kurbanı olabilir. Bu teknoloji halka açılmamalı" açıklamaları yapmıştı. DeepNude uygulamasının ücretsiz sürümünde çıplak fotoğraflardaki cinsel bölgeler, siyah bir bant ile kapatılırken; 50 dolarlık ücretli sürümünde ise tamamen çıplak fotoğraflar, 'Fake' (sahte) ibaresiyle gösteriliyordu.

'BU ŞEKİLDE PARA KAZANMAK İSTEMİYORUZ'

Ancak bu eleştirilere karşın, 50 dolarlık bir ücret karşılığında satışa sunulan uygulama, haberin yayınlanmasının hemen ardından yoğun bir ilgiyle karşılaşmış ve programın indirilme sitesi kilitlenmişti.

Yapay zeka insanların seslerinden yüz özelliklerini ortaya çıkardı
Yaşanan bu gelişmelerin ardından fotoğraftaki kişileri çıplak gösteren DeepNude, geliştiricileri tarafından kapatıldı. Bu tartışmalı yazılımın geliştiricileri de DeepNude’u birkaç ay önce sadece eğlence için geliştirdiklerini ifade ederek, “Bu şekilde para kazanmak istemiyoruz. İnternette mutlaka DeepNude'un bazı kopyaları paylaşılacaktır, ancak onları satan taraf olmayacağız” açıklaması yaptı.

MARK ZUCKERBERG’İN DE BAŞINA GELDİ

Hatta geçen günlerde Facebook'un sahip olduğu resim ve video paylaşım platformu Instagram'da, Mark Zuckerberg'in sahte bir videosu ortaya çıkmıştı. Bu videoda Zuckerberg, milyonlarca kişinin bilgilerine sahip olduğunu söylüyor, bunun nasıl bir güç anlamına geldiğini düşünülmesini istiyordu. 

Zuckerberg'in sahte videosuyla tartışılmaya başlanan deepfake videolarla ilgili olarak Instagram CEO'su Adam Mosseri ise şu an için bu konuda bir politikalarının olmadığını, öncelikle bu deepfake videolarını nasıl tanımlayacaklarına karar vermeleri gerektiğini ifade etmişti.

Yorum yaz