https://anlatilaninotesi.com.tr/20240117/dsoden-saglik-alaninda-yapay-zeka-uyarisi-1079759450.html
DSÖ'den sağlık alanında 'yapay zeka' uyarısı
DSÖ'den sağlık alanında 'yapay zeka' uyarısı
Sputnik Türkiye
DSÖ, sağlık alanında ChatGPT gibi uygulamaların kullanımında dikkatli olunması çağrısında bulundu. 17.01.2024, Sputnik Türkiye
2024-01-17T23:52+0300
2024-01-17T23:52+0300
2024-01-17T23:52+0300
dsö
dünya sağlık örgütü (dsö)
yaşam
yapay zeka
chatgpt
hastalık
teşhis
https://cdn.img.anlatilaninotesi.com.tr/img/07e7/05/09/1070851055_0:100:1920:1180_1920x0_80_0_0_d4bc6bdfe1fdb39e7998176b711d162a.jpg
Dünya Sağlık Örgütü (DSÖ), sağlık alanında ChatGPT gibi uygulamaların kullanımında dikkatli olunması çağrısı yaptı.DSÖ'den yapılan yazılı açıklamada, yapay zekanın, hastalığın teşhisi gibi sağlık alanında kullanımının yaygınlaştığına işaret edildi.Açıklamada, ChatGPT, Google Bard gibi Büyük Dil Modellerinin (LLM) yetersiz şartlara sahip ortamlarda hastalığın teşhisine yardımcı olmasının yanı sıra beraberinde riskler de barındırdığı için kullanımında dikkatli olunması gerektiği vurgulandı.DSÖ'nün, sağlık çalışmalarına katkı sağlaması için LLM kullanılması konusunda "hevesli" olduğu vurgulanan açıklamada, ancak test edilmemiş sistemlerin hızla benimsenmesinin hataya yol açabileceği ve hastalara zarar verebileceği kaydedildi.Açıklamada, LLM'in tutarlı şekilde uygulanmadığına dair endişelerin bulunduğu ve bu uygulamanın yapay zekaya olan güveni de aşındırabileceği aktarıldı.Söz konusu teknolojilerin güvenli, etkili ve etik yollarla kullanılması için titizlik gerektiğine işaret edilen açıklamada, yapay zekanın beslenmesi için kullanılan verilerin yanıltıcı veya yanlış bilgiler üretebileceği konusunda uyarıda bulunuldu.Açıklamada, LLM'nin, halk için güvenilir sağlık bilgilerinden ayırt edilmesi zor olan metin, ses veya video içeriği şeklinde oldukça ikna edici dezenformasyon üretmek ve yaymak için kötüye kullanılabileceği vurgulandı.
https://anlatilaninotesi.com.tr/20240115/dso-genel-direktoru-ghebreyesus-gazzede-bugun-bir-trajedinin-100-gunu-1079646420.html
Sputnik Türkiye
feedback.tr@sputniknews.com
+74956456601
MIA „Rossiya Segodnya“
2024
Sputnik Türkiye
feedback.tr@sputniknews.com
+74956456601
MIA „Rossiya Segodnya“
SON HABERLER
tr_TR
Sputnik Türkiye
feedback.tr@sputniknews.com
+74956456601
MIA „Rossiya Segodnya“
https://cdn.img.anlatilaninotesi.com.tr/img/07e7/05/09/1070851055_107:0:1814:1280_1920x0_80_0_0_c465e723033843f62ee3f0bac85f6eac.jpgSputnik Türkiye
feedback.tr@sputniknews.com
+74956456601
MIA „Rossiya Segodnya“
dsö, dünya sağlık örgütü (dsö), yapay zeka, chatgpt, hastalık, teşhis
dsö, dünya sağlık örgütü (dsö), yapay zeka, chatgpt, hastalık, teşhis
DSÖ'den sağlık alanında 'yapay zeka' uyarısı
DSÖ, sağlık alanında ChatGPT gibi uygulamaların kullanımında dikkatli olunması çağrısında bulundu.
Dünya Sağlık Örgütü (DSÖ), sağlık alanında ChatGPT gibi uygulamaların kullanımında dikkatli olunması çağrısı yaptı.
DSÖ'den yapılan yazılı açıklamada, yapay zekanın, hastalığın teşhisi gibi sağlık alanında kullanımının yaygınlaştığına işaret edildi.
Açıklamada, ChatGPT, Google Bard gibi Büyük Dil Modellerinin (LLM) yetersiz şartlara sahip ortamlarda hastalığın teşhisine yardımcı olmasının yanı sıra beraberinde riskler de barındırdığı için kullanımında dikkatli olunması gerektiği vurgulandı.
DSÖ'nün, sağlık çalışmalarına katkı sağlaması için LLM kullanılması konusunda "hevesli" olduğu vurgulanan açıklamada, ancak test edilmemiş sistemlerin hızla benimsenmesinin hataya yol açabileceği ve hastalara zarar verebileceği kaydedildi.
Açıklamada, LLM'in tutarlı şekilde uygulanmadığına dair endişelerin bulunduğu ve bu uygulamanın yapay zekaya olan güveni de aşındırabileceği aktarıldı.
Söz konusu teknolojilerin güvenli, etkili ve etik yollarla kullanılması için titizlik gerektiğine işaret edilen açıklamada, yapay zekanın beslenmesi için kullanılan verilerin yanıltıcı veya yanlış bilgiler üretebileceği konusunda uyarıda bulunuldu.
Açıklamada, LLM'nin, halk için güvenilir sağlık bilgilerinden ayırt edilmesi zor olan metin, ses veya video içeriği şeklinde oldukça ikna edici dezenformasyon üretmek ve yaymak için kötüye kullanılabileceği vurgulandı.