- Sputnik Türkiye, 1920
YAŞAM
Türkiye ve dünyadan ilgi çekici yaşam haberleri, toplumsal olaylar, güncel araştırmalar, fotoğraf ve video galerileri.

Asıl tehlike şimdi geliyor: 2026’da gerçek zamanlı deepfake’ler hayatın içine giriyor

© Fotoğraf : Bu fotoğraf yapay zeka ile oluşturulmuşturDeepfake
Deepfake - Sputnik Türkiye, 1920, 28.12.2025
Abone ol
Yapay zeka destekli deepfake’ler 2025’te büyük bir sıçrama yaptı, siyasilerden ünlülere büyük bir kitleyi içerek deepfake üretimi yüzde 900 arttı. Ancak uzmanlara göre asıl kırılma noktası henüz yaşanmadı. Bir sonraki aşama, insanlarla anlık olarak etkileşime girebilen ‘gerçek zamanlı’ sahte kimlikler olacak.
ABD’de Buffalo Üniversitesi’nden bilgisayar bilimci Siwei Lyu’nun liderliğinde yürütülen araştırmaya göre, 2025 yılı boyunca yapay zeka ile üretilen sahte video, ses ve dijital kimlikler hem nicelik hem de nitelik açısından oldukça gelişti. Ancak 2026’da karşı karşıya kalınacak tablo, 'bugüne kadar görülenlerden çok daha tehlikeli' olabilir.
Araştırmanın yayımlandığı The Conversation’a göre, deepfake’ler artık yalnızca ‘gerçeğe benzeyen’ içerikler üretmiyor: İnsan gibi davranan, tepki veren ve karşılık veren dijital varlıklara dönüşüyor.

Kalite insan gözünü geçti

Tahmini verilere göre, internetteki deepfake sayısı 2023’te yaklaşık 500 bin iken 2025’te 8 milyona ulaştı. Bu, yıllık bazda yaklaşık yüzde 900’lük bir artış anlamına geliyor.
Ancak uzmanlara göre asıl sorun sayı değil. Sorun, bu içeriklerin artık sıradan kullanıcılar için ayırt edilemez hale gelmesi.
Yeni nesil video üretim modelleri, ‘zamansal tutarlılık’ sağlayabiliyor. Yani yüzler artık titremiyor, mimikler bozulmuyor, göz ve çene çevresindeki klasik hatalar büyük ölçüde ortadan kalkmış durumda. Bir başka ifadeyle, eski deepfake ‘ipuçları’ artık işe yaramıyor.

Ses klonlama dolandırıcılığın merkezinde

Araştırmaya göre ses klonlama teknolojisi de kritik bir eşiği geçti. Artık birkaç saniyelik bir ses kaydı, doğal vurguya, duyguya ve nefes aralıklarına sahip birebir kopyalar üretmek için yeterli.
Bazı büyük perakende şirketlerinin günde 1000’den fazla yapay zeka üretimi dolandırıcılık araması aldığı bildiriliyor. Uzmanlara göre sentetik sesleri ele veren işitsel ipuçları da büyük ölçüde ortadan kalktı.

Herkes deepfake üretebiliyor

Deepfake üretimi artık teknik uzmanlık gerektirmiyor. Bir fikir, bir metin taslağı ve birkaç dakikalık işlemle yüksek kaliteli sahte videolar üretilebiliyor.
Bu durum, deepfake’lerin ‘demokratikleşmesi’ olarak tanımlanıyor. Ancak uzmanlara göre bu, aynı zamanda kötüye kullanımın da kitleselleşmesi anlamına geliyor.

Asıl kırılma: Gerçek zamanlı deepfake’ler

Siwei Lyu’ya göre 2026’nın asıl riski, önceden hazırlanmış videolar değil, insanlarla canlı etkileşime giren sentetik karakterler olacak.
Bunlar;
Görüntülü aramalara katılabilen,
Karşısındaki kişinin söylediklerine anında yanıt verebilen,
Yüz, ses ve beden dilini bağlama göre uyarlayan
yapay ‘katılımcılar’ olacak.
Bu noktada, uzmanlara göre mesele artık ‘Bu kişi X’e benziyor mu?’ değil, ‘Bu kişi zaman içinde X gibi davranıyor mu?’ sorusuna dönüşüyor.
Dolandırıcıların sabit videolar yerine anlık tepki veren avatarlar kullanması, deepfake’leri hem tespit etmeyi hem de durdurmayı çok daha zor hale getirecek.
Güney Kore muhalefet lideri, sıkıyönetim ilanını ilk başta 'deepfake' olduğunu düşünmüş - Sputnik Türkiye, 1920, 05.12.2024
DÜNYA
Güney Kore muhalefet lideri, Cumhurbaşkanı Yoon'un sıkıyönetim ilan ettiği videoyu ilk gördüğünde 'deepfake' zannetmiş
Haber akışı
0
Tartışmaya katılmak için
giriş yapın ya da kayıt olun
loader
Sohbetler
Заголовок открываемого материала