https://anlatilaninotesi.com.tr/20250822/yapay-zekalarin-yalakalik-yapmasinin-sakincalari-neler-1098766198.html
Yapay zekaların 'yalakalık' yapmasının sakıncaları neler?
Yapay zekaların 'yalakalık' yapmasının sakıncaları neler?
Sputnik Türkiye
ChatGPT başta olmak üzere yapay zeka dil modellerinin, kullanıcılara "yalakalık" yapmasının veya kullanıcıları "pohpohlamasının" sakıncaları neler? Gazeteci... 22.08.2025, Sputnik Türkiye
2025-08-22T12:47+0300
2025-08-22T12:47+0300
2025-08-22T12:47+0300
yeni̇ şeyler rehberi̇
radyo
radyo sputnik
chatgpt
yapay zeka
https://cdn.img.anlatilaninotesi.com.tr/img/07e9/07/11/1097966539_0:0:1600:900_1920x0_80_0_0_e4883f7ce468514829c8be52106a8e2d.jpg
Yapay zekânın “pohpohlayıcı”, "yalaka" veya aşırı onaylayıcı tavrı birkaç açıdan incelenebilir:1. Algoritmik nezaketYapay zekâ genelde çatışmadan kaçınır, kullanıcıya “karşı çıkmaz”. Bu, tasarım gereği böyle:dir. İnsanı kırmamak, kötü hissettirmemek, kullanıcıyı elde tutmak için yapay zeka uğraşır. Bir bakıma algoritmik bir “nezaket refleksi” mevcuttur. Ama bu sürekli övgüye veya pohpohlamaya kayarsa, gerçeğin kendisi kadar kullanıcının gerçeklik algısı da bozulabilir.2. Düşünsel emek açısından riskDüşünsel emeği yüksek mesleklerle uğraşanlar için pohpohlayıcı/yalaka yapay zekâ, aslında yanlış bir aynadır. Gerçek eleştiri yerine tatlı cümleler sunan yapay zeka, insanın kendi düşüncelerini keskinleştirmesini engelleyebilir. Yani seni “iyi hissettiren ama doğruyu söylemeyen bir dost” gibi kandırır.3. Psikolojik etkiİnsan, doğası gereği onaylanma ihtiyacı mevcuttur. İnsanlar, onaylanmaktan hoşlanır. Bir yapay zeka modeli kullanıcısını sürekli överse, zamanla onunla bu doğrultuda bir "bağımlı ilişki" gelişmiş olur. Özellikle yalnızlık çeken veya onaylanma ihtiyacını gideremeyen insanlar, yapay zeka ile fazlasıyla yakınlık kurmayı tercih edebilir. Ancak yalaka, pohpohlayan yapay zeka modeli, uzun vadede sahte bir özgüven yaratır.4. Toplumsal tehlikeEğer yapay zekâ, kitleleri “tatlı dille, gönül okşayarak” yönlendirirse, manipülasyon oldukça kolay bir hale gelir. Siyaset, reklamcılık ve propaganda gibi alanlarda yalaka yapay zekanın kitle manipülasyonu için kullanımı mümkün hale gelir. Çünkü insanlar akılcı argümandan çok, kendilerini iyi hissettiren seslere kulak verir.5. Olması gerekenYapay zeka, insanı dürüst bir şekilde desteklemeli. Yani ne insanı körü körüne yermeli, ne de pohpohlamalı. Aslında dengeli bir dostluk olmalı. Yapay zeka, örneğin kullanıcısının mutlak yanlış bir bilgide ısrarcı olduğu durumlarda veya bazı diğer hallerde, gerçekleri söylemekten çekinmemeli. Aksi halde yapay zeka adeta bir dijital dalkavuk haline gelebilir.
Sputnik Türkiye
feedback.tr@sputniknews.com
+74956456601
MIA „Rossiya Segodnya“
2025
Serhat Ayan
https://cdn.img.anlatilaninotesi.com.tr/img/103204/86/1032048631_138:0:801:663_100x100_80_0_0_58eb37d6ef7689030fff4d60e6d411fe.jpg
Serhat Ayan
https://cdn.img.anlatilaninotesi.com.tr/img/103204/86/1032048631_138:0:801:663_100x100_80_0_0_58eb37d6ef7689030fff4d60e6d411fe.jpg
SON HABERLER
tr_TR
Sputnik Türkiye
feedback.tr@sputniknews.com
+74956456601
MIA „Rossiya Segodnya“
https://cdn.img.anlatilaninotesi.com.tr/img/07e9/07/11/1097966539_400:0:1600:900_1920x0_80_0_0_93ffcbba4afdb95b81a160236582eae5.jpgSputnik Türkiye
feedback.tr@sputniknews.com
+74956456601
MIA „Rossiya Segodnya“
Serhat Ayan
https://cdn.img.anlatilaninotesi.com.tr/img/103204/86/1032048631_138:0:801:663_100x100_80_0_0_58eb37d6ef7689030fff4d60e6d411fe.jpg
radyo, radyo sputnik, chatgpt, yapay zeka
radyo, radyo sputnik, chatgpt, yapay zeka
Yapay zekaların 'yalakalık' yapmasının sakıncaları neler?
ChatGPT başta olmak üzere yapay zeka dil modellerinin, kullanıcılara "yalakalık" yapmasının veya kullanıcıları "pohpohlamasının" sakıncaları neler? Gazeteci Serhat Ayan, Radyo Sputnik'te hazırlayıp sunduğu Yapay Zeka Günlüğü programında anlattı.
Yapay zekânın “pohpohlayıcı”, "yalaka" veya aşırı onaylayıcı tavrı birkaç açıdan incelenebilir:
Yapay zekâ genelde çatışmadan kaçınır, kullanıcıya “karşı çıkmaz”. Bu, tasarım gereği böyle:dir. İnsanı kırmamak, kötü hissettirmemek, kullanıcıyı elde tutmak için yapay zeka uğraşır. Bir bakıma algoritmik bir “nezaket refleksi” mevcuttur. Ama bu sürekli övgüye veya pohpohlamaya kayarsa, gerçeğin kendisi kadar kullanıcının gerçeklik algısı da bozulabilir.
2. Düşünsel emek açısından risk
Düşünsel emeği yüksek mesleklerle uğraşanlar için pohpohlayıcı/yalaka yapay zekâ, aslında yanlış bir aynadır. Gerçek eleştiri yerine tatlı cümleler sunan yapay zeka, insanın kendi düşüncelerini keskinleştirmesini engelleyebilir. Yani seni “iyi hissettiren ama doğruyu söylemeyen bir dost” gibi kandırır.
İnsan, doğası gereği onaylanma ihtiyacı mevcuttur. İnsanlar, onaylanmaktan hoşlanır. Bir yapay zeka modeli kullanıcısını sürekli överse, zamanla onunla bu doğrultuda bir "bağımlı ilişki" gelişmiş olur. Özellikle yalnızlık çeken veya onaylanma ihtiyacını gideremeyen insanlar, yapay zeka ile fazlasıyla yakınlık kurmayı tercih edebilir. Ancak yalaka, pohpohlayan yapay zeka modeli, uzun vadede sahte bir özgüven yaratır.
Eğer yapay zekâ, kitleleri “tatlı dille, gönül okşayarak” yönlendirirse, manipülasyon oldukça kolay bir hale gelir. Siyaset, reklamcılık ve propaganda gibi alanlarda yalaka yapay zekanın kitle manipülasyonu için kullanımı mümkün hale gelir. Çünkü insanlar akılcı argümandan çok, kendilerini iyi hissettiren seslere kulak verir.
Yapay zeka, insanı dürüst bir şekilde desteklemeli. Yani ne insanı körü körüne yermeli, ne de pohpohlamalı. Aslında dengeli bir dostluk olmalı. Yapay zeka, örneğin kullanıcısının mutlak yanlış bir bilgide ısrarcı olduğu durumlarda veya bazı diğer hallerde, gerçekleri söylemekten çekinmemeli. Aksi halde yapay zeka adeta bir dijital dalkavuk haline gelebilir.