- Sputnik Türkiye, 1920
YAŞAM
Türkiye ve dünyadan ilgi çekici yaşam haberleri, toplumsal olaylar, güncel araştırmalar, fotoğraf ve video galerileri.

Deepfake’te son teknoloji: Hükümet hackleri, klon sesler

© Fotoğraf : Bu fotoğraf yapay zeka ile oluşturulmuşturDeepfake
Deepfake - Sputnik Türkiye, 1920, 26.11.2025
Abone ol
Özel
İtalya Başbakanı Meloni’den Brad Pitt’e sadece ünlü ve siyasi isimler değil, deepfake videoların sınırları ve teknolojisi genişlerken, dolandırıcılık oranı yüzde 3 bin arttı. Deepfake teknolojisindeki en son gelişmeleri ve yılın en çarpıcı örneklerini derledik.
Deepfake teknolojisi, 2025 yılında yapay zeka (AI) modellerindeki hızlı ilerlemelerle birlikte, gerçek ve sahte medya arasındaki sınırı neredeyse ortadan kaldıracak seviyeye ulaştı.
Yenilikler, deepfake'lerin üretimini daha erişilebilir, ucuz ve fotogerçekçi hale getirdi. Bu gelişmeler, teknolojinin sadece eğlence veya sanat için değil, dolandırıcılık, dezenformasyon ve ulusal güvenlik tehditleri için de kötüye kullanılabileceğini gösteriyor.
Hindistan Başbakanı Narendra Modi, Güney Afrika'daki G20 zirvesinde yapay zekanın deepfake videolar aracılığıyla çeşitli suçlarda ve dezenformasyonda kullanıldığını söyleyerek uluslararası düzenleme çağrısında bulundu. Kültür ve Turizm Bakan Yardımcısı Dr. Batuhan Mumcu da geçtiğimiz günlerde "Deepfake teknolojisi, gerçeğin ve güvenin sınandığı bir dönemi beraberinde getirdi" dedi.

2025 boyunca sıçrama yaptı

Deepfake dosyalarının sayısı ise 2023'te 500 binden 2025'te 8 milyona fırladı. Dolandırıcılık girişimlerinde yüzde 3 bin'lik bir artış gözlendi.
Deepfake olayları siyasetten finansa kadar her alanı etkiledi.

Siyasilerle kripto dolandırıcılığı

İngiltere'de bir Muhafazakar Milletvekili'nin partisini değiştirdiğine dair deepfake videosu polis soruşturmasına yol açtı. Video, Mid Norfolk’un resmi hesabından paylaşılmış gibi gösterildi. ABD'de ise Elon Musk'un deepfake videoları YouTube ve X platformlarında sahte kripto promosyonları için kullanıldı, binlerce kişiyi mağdur etti.

Brad Pitt ile 830 milyon euro dolandırdı

Brad Pitt’in kimliğine bürünen dolandırıcılar tarafından 830 bin euro dolandırılan bir Fransız kadın, bir buçuk yıl boyunca Brad Pitt ile ilişki yaşadığını ve oyuncunun hasta olduğunu sanıyordu.
Brad Pitt'in hasta olduğunu iddia eden deepfake görüntülerden bazıları
Brad Pitt'in hasta olduğunu iddia eden deepfake görüntülerden bazıları - Sputnik Türkiye, 1920, 25.11.2025
Brad Pitt'in hasta olduğunu iddia eden deepfake görüntülerden bazıları
Bir noktada deepfake ‘Brad Pitt`, ona lüks hediyeler göndermeye çalıştığını ancak hesapları Angelina Jolie ile süren boşanma süreci nedeniyle dondurulduğu için gümrük ücretini ödeyemediğini iddia etti. Bunun üzerine Anne, dolandırıcılara 9 bin euro gönderdi.
Üstelik oyuncunun deepfake görüntüleri son teknoloji bile değildi. Bu sırada Anne ve eşi boşandı. Anne’e verilen 775 bin euro’nun da tamamı dolandırıcılara gitti.
Anne, Pitt’in hasta olduğunu düşünüyordu.

Meloni’den deepfake video şikayeti

İtalya'da Başbakan Giorgia Meloni’nin de aralarında oludğu çok sayıda kadının deepfake görüntülerini yayımlayan bir internet sitesiyle ilgili soruşturma başladıldı.
Deepfake davasında ifade veren Meloni, sanıklardan 100 bin euro tazminat talep ediyor ve tazminatı kadına şiddetle mücadele fonuna bağışlayacağını söylüyor.

Deepfake videoyla para transferi

Hong Kong'da bir finans çalışanı, deepfake bir video toplantıya katılarak 25.6 milyon dolarlık transferi onayladı, dört ‘iş arkadaşı’ aslında yapay zeka klonlarıydı.
California'nın Alameda County Mahkemesi'nde, bir sivil davada deepfake tanık videosu kullanıldı. Hakim, videoyu tespit ederek davayı reddetti ve yaptırımlar önerdi. Bu, deepfake'lerin mahkemelerde ilk kez kasıtlı kullanıldığı (bilinen) vaka olarak kayıtlara geçti.

Tehlikeler ve gelecek için çağrı

Deepfake'ler, kimlik hırsızlığından seçim manipülasyonuna kadar uzanan bir yelpazede tehdit oluşturuyor. Uzmanlar, gönüllü platform politikalarının yetersiz kaldığını ve yasal reformların zorunlu olduğunu vurguluyor.

Deepfake’teki son gelişmeler

Üretim araçlarının sayısı 2025'te 20 bin’e yaklaştı.
Açık kaynaklı yazılımlar deepfake'lerin yüzde 95’ini üretiyor
Ses klonlama: Artık 3-5 saniyelik ses örneğiyle yüzde 85 eşleşme sağlayan ses deepfake'leri üretilebiliyor.
Bir deepfake robocall (örneğin Joe Biden'ın 2024'teki örneği) 1 dolar maliyete ve 20 dakikada hazır hale geliyor.
Yüz değiştirme ile, sanal kameralar ve canlılık taklidi (liveness spoofing) ile kimlik doğrulama sistemlerini aşmak mümkün hale geliyor
Deepfake dosyaları 2023'teki 500 bin’den 2025'te 8 milyona yükseldi.
Yıllık yüzde 900 artışla, her 5 dakikada bir deepfake olayı yaşanıyor.
Deepfake - Sputnik Türkiye, 1920, 12.08.2025
TÜRKİYE
Bakan Yardımcısı Mumcu 'deepfake' tehdidini kaleme aldı: Bireyin sesi bir başkasının sesiyle bastırılıyor
Haber akışı
0
Tartışmaya katılmak için
giriş yapın ya da kayıt olun
loader
Sohbetler
Заголовок открываемого материала