'Deepfake teknolojisi dolandırıcılıkta kullanılabilir'
“Şöyle bir trend var. İkisi kötü haber, birisi iyi haber olarak değerlendirilebilir. Kötü haberlerden birisi, bizim ‘vishing’ dediğimiz bir saldırı yöntemi. Bu saldırıları bugünlerde yaşıyoruz. Mesela yaşlı insanları arayıp ‘Savcılıktan arıyorum, terörle ilgili davaya karıştınız. Gidin para yatırın’ diyorlar. Bunu yapmak için bir kötü niyetli saldırganın, bir kullanıcıyı arayıp birebir bu diyalogu yaşaması gerekiyor. Yapay zekanın ve özellikle deepfake teknolojisinin gelişmesiyle birlikte, bu aramaları otomatik hale getirme ihtimalleri var. Bu durumda aramayı bire bir yapmayacaklar. Aynı anda bin kişiyi arayabilecek duruma gelecekler. Karşımızdaki yapay zeka bizi anlayabilecek ve cevap verebilecek duruma geldiği takdirde bu saldırıların oranı ciddi şekilde artacak. Bu, önemli tehlikelerden bir tanesi. Günün sonunda biz yapay zekayı her üründe kullanıyoruz. Şöyle bir handikap var: Biz ne kadar fazla yapay zeka kullanırsak, aslında bu yapay zekanın arka planında çalışan sistemi o kadar fazla eğitiyoruz. Yapay zeka ne kadar farklı senaryo ile karşılaşırsa, o kadar farklı senaryoya cevap verebilme yeteneğini elde ediyor. Bu durumda deepfake saldırıları gittikçe daha kompleks hale gelebiliyor. Arayıp konuştuğunda beni anlayıp cevap verebilir. Eğer bu cevap setlerini oluşturan kişi kötü niyetli bir saldırgansa, beni dolandırmak üzerine kullanabilir bunları.”