https://anlatilaninotesi.com.tr/20260512/sallama-devri-kapaniyor-yapay-zeka-bilmiyorum-demesini-ogreniyor-1105663546.html
Sallama devri kapanıyor: Yapay zeka 'bilmiyorum' demesini öğreniyor
Sallama devri kapanıyor: Yapay zeka 'bilmiyorum' demesini öğreniyor
Sputnik Türkiye
Koreli bilim insanları yapay zekanın emin olmadığı konularda 'yanlış bilgi' üretmesini azaltacak bir yöntem geliştirdi. Yapay zeka modellerinin, bilgi... 12.05.2026, Sputnik Türkiye
2026-05-12T11:36+0300
2026-05-12T11:36+0300
2026-05-12T11:36+0300
yaşam
yanlış bilgi
yapay zeka
yapay zeka mühendisliği
yapay zeka uygulamaları
https://cdn.img.anlatilaninotesi.com.tr/img/07ea/05/0c/1105663886_0:333:1402:1122_1920x0_80_0_0_b9b972915e54bfee38d5b9b975e0af55.png
Korea Advanced Institute of Science and Technology araştırmacıları, yapay zekanın emin olmadığı konularda yanlış bilgi üretmesini azaltabilecek yeni bir yöntem geliştirdi. Bilim insanları, bu sistem sayesinde yapay zekanın her soruya kesin cevap vermek yerine “emin değilim veya bilmiyorum” diyebilmeyi öğrenebileceğini açıkladı.Uzmanlara göre yapay zekanın en büyük sorunlarından biri, yanlış olsa bile kendinden çok emin şekilde cevap vermesi. Özellikle sağlık, sürücüsüz araçlar ve karar destek sistemleri gibi kritik alanlarda bu durum ciddi risk oluşturabiliyor.Bugün kullanılan birçok yapay zeka modeli, yeterli bilgiye sahip olmadığı konularda bile cevap üretmeye çalışıyor. Teknoloji dünyasında bu durum “halüsinasyon” olarak adlandırılıyor. Yapay zeka modellerinin, bilgi eksikliklerini kabul etmek yerine tahminlerde bulunmaya teşvik edildikleri için "halüsinasyon gördükleri" veya gerçekleri uydurdukları görüldü.Güney Koreli araştırmacılar ise bu sorunu çözmek için insan beyninin çalışma biçiminden ilham aldı. Bilim insanları, insan beyninin daha doğmadan önce bile bazı sinyaller üretebildiğini ve belirsizlikle baş etmeyi zamanla öğrendiğini belirtiyor.Nasıl öğrenecek?Yeni yöntemde yapay zeka, gerçek verilerle eğitilmeden önce kısa süreli bir “gürültü verisi” eğitiminden geçiriliyor. Bu aşamada model, anlamsız ve rastgele bilgilerle karşılaşıyor. Böylece sistem, her verinin güvenilir olmadığını anlamaya başlıyor.Araştırmacılara göre bu yöntem, yapay zekanın “Henüz bunu bilmiyorum” yaklaşımını öğrenmesine yardımcı oluyor. Sonuç olarak sistem, daha önce görmediği konularda yanlış cevap vermek yerine daha temkinli davranıyor.Çalışmanın yazarlarından Se-Bum Paik, yapay zekanın kendi bilgi sınırlarını fark etmeye başlamasının insan benzeri düşünme açısından önemli bir adım olduğunu söyledi.Yapay zekalar neden 'bilmiyorum' diyemiyor?Yapay zekalar aslında insanlar gibi düşünen sistemler değil. Temel görevleri, ellerindeki verilerden en olası cevabı tahmin etmek. Bu yüzden bir soru geldiğinde cevap vermemek yerine mutlaka bir yanıt üretmeye çalışıyorlar. Çünkü sistemler, “boş bırakmak” yerine en yüksek ihtimalli kelimeleri sıralayacak şekilde eğitiliyor. Bu nedenle yeterli bilgiye sahip olmadıklarında bile bazen yanlış cevaplar verebiliyorlar. Araştırmacıların geliştirdiği yeni yöntem ise yapay zekaya, emin olmadığı durumları fark etmeyi öğretmeyi hedefliyor.Araştırmanın sonuçları, bilim dünyasının saygın yayınlarından Nature Machine Intelligence dergisinde yayımlandı.
https://anlatilaninotesi.com.tr/20260509/tanya-savicevanin-gunlugu-yapay-zeka-gozuyle-leningrad-kusatmasinda-bir-kizin-hayati-1105517271.html
Sputnik Türkiye
feedback.tr@sputniknews.com
+74956456601
MIA „Rossiya Segodnya“
2026
Sputnik Türkiye
feedback.tr@sputniknews.com
+74956456601
MIA „Rossiya Segodnya“
SON HABERLER
tr_TR
Sputnik Türkiye
feedback.tr@sputniknews.com
+74956456601
MIA „Rossiya Segodnya“
https://cdn.img.anlatilaninotesi.com.tr/img/07ea/05/0c/1105663886_0:70:1402:1122_1920x0_80_0_0_4895fd9b3917fc6031e6adbfd9de222e.pngSputnik Türkiye
feedback.tr@sputniknews.com
+74956456601
MIA „Rossiya Segodnya“
yanlış bilgi, yapay zeka, yapay zeka mühendisliği, yapay zeka uygulamaları
yanlış bilgi, yapay zeka, yapay zeka mühendisliği, yapay zeka uygulamaları
Sallama devri kapanıyor: Yapay zeka 'bilmiyorum' demesini öğreniyor
Koreli bilim insanları yapay zekanın emin olmadığı konularda 'yanlış bilgi' üretmesini azaltacak bir yöntem geliştirdi. Yapay zeka modellerinin, bilgi eksikliklerini kabul etmek yerine tahminlerde bulunmaya teşvik edildikleri için tıp gibi insan yaşamında kritik bir konuda gerçekleri uydurdukları basına yansımıştı.
Korea Advanced Institute of Science and Technology araştırmacıları, yapay zekanın emin olmadığı konularda yanlış bilgi üretmesini azaltabilecek yeni bir yöntem geliştirdi. Bilim insanları, bu sistem sayesinde yapay zekanın her soruya kesin cevap vermek yerine “emin değilim veya bilmiyorum” diyebilmeyi öğrenebileceğini açıkladı.
Uzmanlara göre yapay zekanın en büyük sorunlarından biri, yanlış olsa bile kendinden çok emin şekilde cevap vermesi. Özellikle sağlık, sürücüsüz araçlar ve karar destek sistemleri gibi kritik alanlarda bu durum ciddi risk oluşturabiliyor.
Bugün kullanılan birçok yapay zeka modeli, yeterli bilgiye sahip olmadığı konularda bile cevap üretmeye çalışıyor. Teknoloji dünyasında bu durum “halüsinasyon” olarak adlandırılıyor.
Yapay zeka modellerinin, bilgi eksikliklerini kabul etmek yerine tahminlerde bulunmaya teşvik edildikleri için "halüsinasyon gördükleri" veya gerçekleri uydurdukları görüldü.
Güney Koreli araştırmacılar ise bu sorunu çözmek için insan beyninin çalışma biçiminden ilham aldı. Bilim insanları, insan beyninin daha doğmadan önce bile bazı sinyaller üretebildiğini ve belirsizlikle baş etmeyi zamanla öğrendiğini belirtiyor.
Yeni yöntemde yapay zeka, gerçek verilerle eğitilmeden önce kısa süreli bir “gürültü verisi” eğitiminden geçiriliyor. Bu aşamada model, anlamsız ve rastgele bilgilerle karşılaşıyor. Böylece sistem, her verinin güvenilir olmadığını anlamaya başlıyor.
Araştırmacılara göre bu yöntem, yapay zekanın “Henüz bunu bilmiyorum” yaklaşımını öğrenmesine yardımcı oluyor. Sonuç olarak sistem, daha önce görmediği konularda yanlış cevap vermek yerine daha temkinli davranıyor.
Çalışmanın yazarlarından Se-Bum Paik, yapay zekanın kendi bilgi sınırlarını fark etmeye başlamasının insan benzeri düşünme açısından önemli bir adım olduğunu söyledi.
Yapay zekalar neden 'bilmiyorum' diyemiyor?
Yapay zekalar aslında insanlar gibi düşünen sistemler değil. Temel görevleri, ellerindeki verilerden en olası cevabı tahmin etmek. Bu yüzden bir soru geldiğinde cevap vermemek yerine mutlaka bir yanıt üretmeye çalışıyorlar. Çünkü sistemler, “boş bırakmak” yerine en yüksek ihtimalli kelimeleri sıralayacak şekilde eğitiliyor.
Bu nedenle yeterli bilgiye sahip olmadıklarında bile bazen yanlış cevaplar verebiliyorlar. Araştırmacıların geliştirdiği yeni yöntem ise yapay zekaya, emin olmadığı durumları fark etmeyi öğretmeyi hedefliyor.
Araştırmanın sonuçları, bilim dünyasının saygın yayınlarından Nature Machine Intelligence dergisinde yayımlandı.