https://anlatilaninotesi.com.tr/20240118/1079786423.html
Yapay zeka ve siber güvenlik tehditleri: Deepfake yöntemiyle dolandırıcılık
Yapay zeka ve siber güvenlik tehditleri: Deepfake yöntemiyle dolandırıcılık
Sputnik Türkiye
WatchGuard Türkiye ve Yunanistan Satış Mühendisi Alper Onarangil, yapay zekanın yaratabileceği siber güvenlik tehditlerinden ve siber güvenlik sağlanması için... 18.01.2024, Sputnik Türkiye
2024-01-18T14:05+0300
2024-01-18T14:05+0300
2024-01-19T12:59+0300
yeni şeyler rehberi
radyo
radyo
yapay zeka
deepfake
siber saldırı
siber suçlar
siber güvenlik
https://cdn.img.anlatilaninotesi.com.tr/img/07e8/01/13/1079818763_0:0:3640:2048_1920x0_80_0_0_44943eacc078bdfc129366990c106237.jpg
Serhat Ayan'la Yapay Zeka Günlüğü
Sputnik Türkiye
Serhat Ayan'la Yapay Zeka Günlüğü
WatchGuard Türkiye ve Yunanistan Satış Mühendisi Alper Onarangil, yapay zekaların vermemesi gereken cevapları verebildiğini ve bunun bir siber güvenlik tehlikesi oluşturabileceğini kaydetti:'Deepfake teknolojisi dolandırıcılıkta kullanılabilir'Son dönemlerde insanların yüzlerinin ve seslerinin yapay zeka ile birebir taklit edildiği deepfake teknolojilerinde yaşanan gelişmelere dikkat çeken Onarangil, bunun kötü amaçlı kişiler tarafından dolandırıcılık amacıyla kullanılabileceği uyarısında bulundu:'Yapay zekanın iyi tarafına odaklanalım'Alper Onarangil, yapay zekanın siber güvenlik alanında verimlilik sağladığının altını çizdi ve sözlerini şu şekilde sürdürdü:
Sputnik Türkiye
feedback.tr@sputniknews.com
+74956456601
MIA „Rossiya Segodnya“
2024
Serhat Ayan
https://cdn.img.anlatilaninotesi.com.tr/img/103204/86/1032048631_138:0:801:663_100x100_80_0_0_58eb37d6ef7689030fff4d60e6d411fe.jpg
Serhat Ayan
https://cdn.img.anlatilaninotesi.com.tr/img/103204/86/1032048631_138:0:801:663_100x100_80_0_0_58eb37d6ef7689030fff4d60e6d411fe.jpg
SON HABERLER
tr_TR
Sputnik Türkiye
feedback.tr@sputniknews.com
+74956456601
MIA „Rossiya Segodnya“
https://cdn.img.anlatilaninotesi.com.tr/img/07e8/01/13/1079818763_909:0:3640:2048_1920x0_80_0_0_d9981e49f7fe091933abccbe13dfa673.jpgSputnik Türkiye
feedback.tr@sputniknews.com
+74956456601
MIA „Rossiya Segodnya“
Serhat Ayan
https://cdn.img.anlatilaninotesi.com.tr/img/103204/86/1032048631_138:0:801:663_100x100_80_0_0_58eb37d6ef7689030fff4d60e6d411fe.jpg
аудио, radyo, radyo, yapay zeka, deepfake, siber saldırı, siber suçlar, siber güvenlik
аудио, radyo, radyo, yapay zeka, deepfake, siber saldırı, siber suçlar, siber güvenlik
Yapay zeka ve siber güvenlik tehditleri: Deepfake yöntemiyle dolandırıcılık
14:05 18.01.2024 (güncellendi: 12:59 19.01.2024) WatchGuard Türkiye ve Yunanistan Satış Mühendisi Alper Onarangil, yapay zekanın yaratabileceği siber güvenlik tehditlerinden ve siber güvenlik sağlanması için yapay zeka kullanımından bahsetti.
WatchGuard Türkiye ve Yunanistan Satış Mühendisi Alper Onarangil, yapay zekaların vermemesi gereken cevapları verebildiğini ve bunun bir siber güvenlik tehlikesi oluşturabileceğini kaydetti:
“Bir önceki konuğumuzu dinliyordum. Yapay zekayı kullanmayı bilmekten bahsediyordu. Bazen istediğimiz yanıtları aldığımız gibi, almamamız gereken yanıtları da alabildiğimizi söyledi. Aslında yapay zeka ve siber güvenlik tehditlerinden birisi de tam olarak bu. Promt mühendisliği diye yeni bir tabir ve iş kolu çıktı. Promt mühendisleri yapay zekaya soru sormayı çok iyi biliyor. Öyle ki, sorduğu sorularla yapay zekayı manipüle edebiliyorlar ve yapay zekanın vermemesi gereken cevapları alabiliyor. Bu, karşımıza gelecek yapay zeka bazlı siber güvenlik risklerinden birisi olacak. Evet, yapay zeka işimizi ve hayatımızı çok kolaylaştırıyor. Ama tehlikeli olabilecek bir durumda, sürekli bir ikilemin içinde kalıyoruz. Sanıyorum önümüzdeki yıllarda da bu ikilemi yaşayacağız gibi duruyor.”
'Deepfake teknolojisi dolandırıcılıkta kullanılabilir'
Son dönemlerde insanların yüzlerinin ve seslerinin yapay zeka ile birebir taklit edildiği deepfake teknolojilerinde yaşanan gelişmelere dikkat çeken Onarangil, bunun kötü amaçlı kişiler tarafından dolandırıcılık amacıyla kullanılabileceği uyarısında bulundu:
“Şöyle bir trend var. İkisi kötü haber, birisi iyi haber olarak değerlendirilebilir. Kötü haberlerden birisi, bizim ‘vishing’ dediğimiz bir saldırı yöntemi. Bu saldırıları bugünlerde yaşıyoruz. Mesela yaşlı insanları arayıp ‘Savcılıktan arıyorum, terörle ilgili davaya karıştınız. Gidin para yatırın’ diyorlar. Bunu yapmak için bir kötü niyetli saldırganın, bir kullanıcıyı arayıp birebir bu diyalogu yaşaması gerekiyor. Yapay zekanın ve özellikle deepfake teknolojisinin gelişmesiyle birlikte, bu aramaları otomatik hale getirme ihtimalleri var. Bu durumda aramayı bire bir yapmayacaklar. Aynı anda bin kişiyi arayabilecek duruma gelecekler. Karşımızdaki yapay zeka bizi anlayabilecek ve cevap verebilecek duruma geldiği takdirde bu saldırıların oranı ciddi şekilde artacak. Bu, önemli tehlikelerden bir tanesi. Günün sonunda biz yapay zekayı her üründe kullanıyoruz. Şöyle bir handikap var: Biz ne kadar fazla yapay zeka kullanırsak, aslında bu yapay zekanın arka planında çalışan sistemi o kadar fazla eğitiyoruz. Yapay zeka ne kadar farklı senaryo ile karşılaşırsa, o kadar farklı senaryoya cevap verebilme yeteneğini elde ediyor. Bu durumda deepfake saldırıları gittikçe daha kompleks hale gelebiliyor. Arayıp konuştuğunda beni anlayıp cevap verebilir. Eğer bu cevap setlerini oluşturan kişi kötü niyetli bir saldırgansa, beni dolandırmak üzerine kullanabilir bunları.”
'Yapay zekanın iyi tarafına odaklanalım'
Alper Onarangil, yapay zekanın siber güvenlik alanında verimlilik sağladığının altını çizdi ve sözlerini şu şekilde sürdürdü:
“İyi haberim de var. Yapay zekayı hep kötü niyetli insanların kullanması ihtimalinden bahsediyoruz. Ama işin iyi tarafına döndüğümüzde, anti-virüs ve güvenlik duvarları da olabilir. Bunlar da yapay zeka tarafından destekleniyor. Yönetilebilir servis sağlayacılarımız da yapay zeka araçlarını kullanarak tehditleri erkenden tespit etme imkanına sahip oluyor. Sürekli yapay zekanın kötü tarafından bakmak doğru değil. Kötüsü olduğu kadar iyisi de var. Kesinlikle hayatımızı kolaylaştırdığı ve daha güvenli hale getirdiği bir noktası da var yapay zekanın. Üretici yapay zekaları veya büyük dil modellerini, yüz sayfalık notların özetlerini çıkartmada kullanabiliyoruz. Bunun aynısını siber güvenlik tarafına çevirelim. Önünüzdeki binlerce satırlık logları düşünelim. Yapay zeka, bu log içindeki tehditlerin özetini verebiliyor. Biz burada inanılmaz bir verim kazancı sağlıyoruz. Şu anda içinde bulunduğumuz dünyada, siber güvenlik açısından yetkin personel açığı var. Doğal olarak özellikle işletmeler tarafından siber güvenlik personeli bulmak ve istihdam etmek giderek zor bir hale geliyor. O vakit daha verimli çalışmak gerekiyor. Yapay zeka da burada bize yardımcı olacak. Üç saatlik log incelemesini 15-20 dakikada bitirebilecek. O zaman 2 saat 40 dakika bize kalacak.”