ABD’de Buffalo Üniversitesi’nden bilgisayar bilimci Siwei Lyu’nun liderliğinde yürütülen araştırmaya göre, 2025 yılı boyunca yapay zeka ile üretilen sahte video, ses ve dijital kimlikler hem nicelik hem de nitelik açısından oldukça gelişti. Ancak 2026’da karşı karşıya kalınacak tablo, 'bugüne kadar görülenlerden çok daha tehlikeli' olabilir.
Araştırmanın yayımlandığı The Conversation’a göre, deepfake’ler artık yalnızca ‘gerçeğe benzeyen’ içerikler üretmiyor: İnsan gibi davranan, tepki veren ve karşılık veren dijital varlıklara dönüşüyor.
Kalite insan gözünü geçti
Tahmini verilere göre, internetteki deepfake sayısı 2023’te yaklaşık 500 bin iken 2025’te 8 milyona ulaştı. Bu, yıllık bazda yaklaşık yüzde 900’lük bir artış anlamına geliyor.
Ancak uzmanlara göre asıl sorun sayı değil. Sorun, bu içeriklerin artık sıradan kullanıcılar için ayırt edilemez hale gelmesi.
Yeni nesil video üretim modelleri, ‘zamansal tutarlılık’ sağlayabiliyor. Yani yüzler artık titremiyor, mimikler bozulmuyor, göz ve çene çevresindeki klasik hatalar büyük ölçüde ortadan kalkmış durumda. Bir başka ifadeyle, eski deepfake ‘ipuçları’ artık işe yaramıyor.
Ses klonlama dolandırıcılığın merkezinde
Araştırmaya göre ses klonlama teknolojisi de kritik bir eşiği geçti. Artık birkaç saniyelik bir ses kaydı, doğal vurguya, duyguya ve nefes aralıklarına sahip birebir kopyalar üretmek için yeterli.
Bazı büyük perakende şirketlerinin günde 1000’den fazla yapay zeka üretimi dolandırıcılık araması aldığı bildiriliyor. Uzmanlara göre sentetik sesleri ele veren işitsel ipuçları da büyük ölçüde ortadan kalktı.
Herkes deepfake üretebiliyor
Deepfake üretimi artık teknik uzmanlık gerektirmiyor. Bir fikir, bir metin taslağı ve birkaç dakikalık işlemle yüksek kaliteli sahte videolar üretilebiliyor.
Bu durum, deepfake’lerin ‘demokratikleşmesi’ olarak tanımlanıyor. Ancak uzmanlara göre bu, aynı zamanda kötüye kullanımın da kitleselleşmesi anlamına geliyor.
Asıl kırılma: Gerçek zamanlı deepfake’ler
Siwei Lyu’ya göre 2026’nın asıl riski, önceden hazırlanmış videolar değil, insanlarla canlı etkileşime giren sentetik karakterler olacak.
Bunlar;
Görüntülü aramalara katılabilen,
Karşısındaki kişinin söylediklerine anında yanıt verebilen,
Yüz, ses ve beden dilini bağlama göre uyarlayan
yapay ‘katılımcılar’ olacak.
yapay ‘katılımcılar’ olacak.
Bu noktada, uzmanlara göre mesele artık ‘Bu kişi X’e benziyor mu?’ değil, ‘Bu kişi zaman içinde X gibi davranıyor mu?’ sorusuna dönüşüyor.
Dolandırıcıların sabit videolar yerine anlık tepki veren avatarlar kullanması, deepfake’leri hem tespit etmeyi hem de durdurmayı çok daha zor hale getirecek.