00:00
01:00
02:00
03:00
04:00
05:00
06:00
07:00
08:00
09:00
10:00
11:00
12:00
13:00
14:00
15:00
16:00
17:00
18:00
19:00
20:00
21:00
22:00
23:00
00:00
01:00
02:00
03:00
04:00
05:00
06:00
07:00
08:00
09:00
10:00
11:00
12:00
13:00
14:00
15:00
16:00
17:00
18:00
19:00
20:00
21:00
22:00
23:00
HABERLER
07:00
5 dk
HABERLER
09:00
5 dk
HABERLER
11:00
5 dk
PARANIN HAREKETİ
11:30
8 dk
HABERLER
12:00
5 dk
HABERLER
15:00
5 dk
HABERLER
16:00
5 dk
HABERLER
17:30
12 dk
HABERLER
18:00
10 dk
HABERLER
19:00
11 dk
ARAMIZDAN AYRILANLAR
20:27
7 dk
HABERLER
Saat başı başlıkları
07:00
1 dk
SEYİR HALİ
Ali Çağatay'la Seyir Hali
07:01
119 dk
HABERLER
Saat başı başlıkları
09:00
1 dk
YERİ VE ZAMANI
Güçlü Özgan'la Yeri ve Zamanı
09:05
114 dk
HABERLER
Saat başı başlıkları
11:00
1 dk
YAZI - YORUM
Fethi Yılmaz'la Yazı - Yorum
11:05
55 dk
HABERLER
Saat başı başlıkları
12:00
1 dk
GÜN ORTASI
Okan Aslan'la Gün Ortası
12:05
85 dk
HABER MASASI
Selin Yazıcı, Aslı Kahveci ve Serkan Baştımar'la Haber Masası
13:30
35 dk
FUTBOL SAATİ
Selin Yazıcı ve Serhat Ayan'la Futbol Saati
14:05
55 dk
ANKARA FARKI
İsmet Özçelik'le Ankara Farkı
15:03
57 dk
HABERLER
Saat başı başlıkları
16:00
1 dk
EKSEN
Ceyda Karan'la Eksen
16:01
89 dk
HABERLER
Saat başı başlıkları
17:30
1 dk
HABERLER
Saat başı başlıkları
18:00
1 dk
HABERLER
Saat başı başlıkları
19:00
1 dk
DünBugün
Geri dön
Adana107.4
Adana107.4
Ankara96.2
Antalya104.8
Bursa101.4
Çanakkale107.2
Diyarbakır89.6
Gaziantep104.3
Hatay106.1
İstanbul97.8
İzmir91.0
Kahramanmaraş92.3
Kayseri105.5
Kocaeli90.2
Konya88.6
Malatya106.0
Manisa101.0
Mardin92.2
Ordu99.6
Sakarya90.2
Samsun107.7
Sivas104.2
Şanlıurfa95.3
Trabzon102.4
Van88.0
 - Sputnik Türkiye, 1920
YAŞAM
Türkiye ve dünyadan ilgi çekici yaşam haberleri, toplumsal olaylar, güncel araştırmalar, fotoğraf ve video galerileri.

'Deepfake cep telefonlarına kadar indi, olası itibar suikastlarının artması anlamına gelebilir'

© AADeepfake videolar
Deepfake videolar - Sputnik Türkiye, 1920, 05.07.2023
Abone ol
Prof. Dr. Eraslan, “Deepfake teknolojileri cep telefonlarına kadar inmiş durumda. Oradaki kamera, ses sistemleri, piksel sayıları, programlar çok yoğun bir şekilde sıradanlaştı. Yapılacak olası itibar suikastlarının artması anlamına gelebilir” dedi.
Son günlerde adı sıklıkla duyulmaya başlanan ‘deepfake’ teknolojisi, yüz fotoğrafı ya da tablodan, yüksek gerçekçiliğe sahip, konuşan, gülen ya da yüz ifadelerini kullanan sahte videolar üretilmesine imkan sağlıyor. Bunun yanı sıra herhangi bir videodaki konuşmayı değiştirip düzenleyebiliyor. Sinema ve televizyon sektöründe kullandığında, hata yapılan bir diyaloğun yeniden çekime gerek duyulmadan düzeltilmesine imkan sağlayabilecek bu teknolojinin, kötü niyetli kişilerin kullanımı açısından bakıldığında ise önemli risk ve tehlikeleri içerisinde barındırdığı belirtiliyor.

‘İnsanların olmadığı yerlere montajlandığı ya da onların görüntüsünü ortaya koyduğu bir sistem’

Sosyal Medya ve Dijital Güvenlik Eğitim Araştırma Merkezi (SODİMER) Başkanı Prof. Dr. Levent Eraslan, Deepfake teknolojisinin avantajları ve dezavantajları hakkında İhlas Haber Ajansı'na (İHA) özel açıklamalarda bulundu. Prof. Dr. Eraslan, deepfake teknolojisinin iyi kullanıldığı zaman olumlu fakat tehlikesinin de çok fazla olduğu bir dünya olarak belirterek, “Derin sahtecilik Türkçesi. Reddit’te bir kullanıcının bulduğu uygulama. Yapay zeka uygulamaları ve desteğiyle beraber insanları olmadığı yerlere montajlandığı ya da onların görüntüsünü ortaya koyduğu bir sistem” diye konuştu.
Eraslan, Deepfake teknolojisinin bireyselleştirilmiş eğlencede çok önemli olduğunu söyleyerek, “Film ve endüstri içinde çok önemli bir teknoloji” dedi.

‘Sıradan insanlar telefonlarıyla deepfake yapabiliyor’

Deepfake teknolojisinin algı yönetiminde ve itibar suikastlarında kullanıldığını ifade eden Prof. Dr. Eraslan, şunları kaydetti:
“İnsanların olmadığı yerlerde onların aleyhlerine kullanılabilecek bir video oluşturma süreci bu. Anlaşılması çok zor fakat püf noktaları var. Öncelikle dudak ses senkronizasyonu, boyun yerleştirmeler, uzuv yerleştirmeler. Hemen hemen her ünlünün başına gelebiliyor. Türkiye’de siyasi kimi aktörlerde böylesi tehditlerle yüz yüze geldi. Süreç içerisinde kullanılan ses, dudak senkronizasyonu, vücut hatta objelerle Deepfake’in olup olmadığı anlaşılabilir. Şu büyük bir sıkıntı artık sıradan insanlar da Deepfake yapmaya başladı. Sentetik bilgi diyoruz buna. Sentetik bilgiyi üretme süreçlerin daha profesyonel süreçlerden olurken şimdi sıradan insanlar telefonlarıyla Deepfake yapabiliyor. Asıl problemde burada karşımıza çıkabiliyor.”

‘Önümüze gelen her videonun gerçek olup olmadığını araştırmamız lazım’

Deepfake teknolojilerinin cep telefonlarıyla bile basit bir şekilde yapıldığını vurgulayan Eraslan, “Oradaki kamera, ses sistemleri, piksel sayıları, programlar çok yoğun bir şekilde sıradanlaştı. Yapılacak olası itibar suikastlarının artması anlamına gelebilir. Bu bir suç. Türk Ceza Kanununun en az beş vurgusunda bunun bir suç olduğu ifade ediliyor. Bir yıl ila üç yıl hapisten başlayan ve çeşitli yaptırımları olan bir boyut. Önümüze gelen her videonun gerçek olup olmadığını araştırmamız lazım. Profesyonel yapılmış, büyük stüdyolarda yapılmış çalışmaları tespit etmek çok güç oluyor” dedi.
yapay zeka, robot - Sputnik Türkiye, 1920, 09.05.2023
YAŞAM
'Deepfake' talebinde artış: Darkweb'de fiyatlar 20 bin dolara ulaştı
Haber akışı
0
Tartışmaya katılmak için
giriş yapın ya da kayıt olun
loader
Sohbetler
Заголовок открываемого материала