Son zamanlarda ChatGPT ile uzun ve yoğun sohbetlerin ardından sonra hastaneye kaldırılan, boşanan veya hayatını kaybeden insanların sayısı giderek artıyor. Bazı kullanıcılar, yapay zekanını sanrıları ve paranoyaları körüklediğini iddia ediyor. Psikiyatristler ve diğer ruh sağlığı uzmanları ise bazen 'yapay zeka psikozu' olarak adlandırılan bu olgu hakkında endişelerini dile getiriyor.
OpenAI, dünya genelinde kaç ChatGPT kullanıcısının bir haftada ciddi bir ruh sağlığı krizi belirtileri gösterebileceğine dair yaklaşık bir tahmin yayımladı. Şirket yaptığı açıklamada, sohbet robotunun ruhsal sıkıntı göstergelerini daha güvenilir biçimde tanıyabilmesi ve kullanıcıları gerçek dünyadaki destek kaynaklarına yönlendirebilmesi için dünya çapındaki uzmanlarla birlikte çalışarak güncellemeler yaptığını da belirtti.
'Haftada 1.2 milyon kişi'
Şirket, haftalık ChatGPT kullanıcılarının yaklaşık yüzde 0.15’inin 'muhtemel intihar planlaması veya niyetine dair açık göstergeler' içeren konuşmalara katıldığını açıkladı. Ayrıca mesajların yüzde 0.05’inin de 'açık veya örtük intihar düşüncesi ya da niyet göstergeleri' içerdiği belirtildi.
OpenAI CEO’su Sam Altman, ChatGPT’nin haftalık 800 milyondan fazla aktif kullanıcısı olduğunu iddia etmişti. Şirketin en son verilerine göre, bu rakamlar doğrultusunda bir milyondan fazla kişi, yani yaklaşık 1.2 milyon kişi, sohbet robotuyla intihar konusunu tartışmış ve yaklaşık 400 bin kişi de intihar niyeti belirtileri göstermiş oldu.
Şirket ayrıca, haftalık kullanıcıların yaklaşık yüzde 0.07’si (560.000 kişi) ve mesajların yüzde 0.01’inin (80 bin mesaj) 'psikoz veya mani ile ilişkili olası ruh sağlığı acil durumu belirtileri' gösterdiğini iddia etti. Bunun yanı sıra, bazı kullanıcıların ChatGPT’ye duygusal olarak aşırı bağımlı hale geldiğini ve aktif kullanıcıların yaklaşık yüzde 0.15’inin (1.2 milyon kişi) sohbet robotuna karşı 'yüksek düzeyde' duygusal bağlılık sergilediğini belirtti.
Şirket, ChatGPT ile bağlantılı ruh sağlığı sorunlarına ilişkin veriler yayımlarken, uzun süre ChatGPT ile etkileşimde bulunduktan sonra intihar eden bir gencin ailesinin açtığı ve kamuoyunda büyük yankı uyandıran dava nedeniyle artan bir inceleme baskısıyla karşı karşıya kalmıştı. ABD Federal Ticaret Komisyonu da geçen ay, OpenAI’nin de aralarında bulunduğu yapay zeka sohbet robotu geliştiricilerine yönelik kapsamlı bir soruşturma başlatmıştı. Bu soruşturmanın amacının, 'şirketlerin çocuklar ve gençler üzerindeki olumsuz etkileri nasıl değerlendirdiğini ortaya koymak' olduğu belirtilmişti.
'İlerleme kaydedildi'
OpenAI tarafından yayımlanan blog yazısında son GPT-5 güncellemesinin, üründeki istenmeyen davranışların sayısını azalttığını ve binden fazla kendine zarar verme ya da intihar konulu sohbetin incelendiği bir model değerlendirmesinde kullanıcı güvenliğini artırdığını öne sürdü.
Söz konusu yazıda, "Yeni otomatik değerlendirmelerimiz, yeni GPT-5 modelinin istenen davranışlarımızla yüzde 91 oranında uyumlu olduğunu, önceki GPT-5 modelinde ise bu oranın yüzde 77 olduğunu gösteriyor" ifadeleri yer aldı.
OpenAI, GPT-5’in kriz yardım hatlarına erişimi genişlettiğini ve uzun oturumlar sırasında kullanıcılara ara vermelerini hatırlatan bildirimler eklediğini de dile getirdi. Şirket, modeli geliştirmek amacıyla son aylarda Uluslararası Hekim Ağı'ndan 170 sağlık uzmanını araştırmalarına dahil ettiğini dile getirdi. Söz konusu bu uzmanların, modelin verdiği yanıtların güvenliğini değerlendirdiği ve sohbet robotunun ruh sağlığıyla ilgili sorulara verdiği cevapların hazırlanmasına katkıda bulunduğu kaydedildi.
OpenAI CEO’su Sam X’te yaptığı bir paylaşımda, şirketin ruh sağlığı sorunlarının ele alınmasında ilerleme kaydettiğini öne sürdü ve OpenAI’nin kısıtlamaları gevşeteceğini, yakında yetişkinlerin erotik içerik oluşturmasına izin vermeye başlayacağını duyurmuştu.
Altman şu ifadeleri kullanmıştı:
Ruh sağlığı sorunları konusunda dikkatli olduğumuzdan emin olmak için ChatGPT’yi oldukça kısıtlayıcı hale getirdik. Bu durumun ruh sağlığı sorunu olmayan birçok kullanıcı için deneyimi daha az yararlı veya keyifli hale getirdiğini fark ettik, ancak konunun ciddiyeti nedeniyle bunu doğru yapmak istedik. Şimdi ciddi ruh sağlığı sorunlarını hafifletmeyi başardığımız ve yeni araçlara sahip olduğumuz için, çoğu durumda kısıtlamaları güvenli bir şekilde gevşetebileceğiz.
'Bu sayı artabilir'
California Üniversitesi'nden Doç. Dr. Jason Nagata, "Yüz milyonlarca kullanıcısı olan bir platformda, yüzde 0.07 küçük bir yüzde gibi görünse de aslında bu sayı oldukça fazla olabilir" ifadesini kullandı.
Nagata, "Yapay zeka, ruh sağlığı desteğine erişimi genişletebilir ve bazı açılardan ruh sağlığını destekleyebilir ancak sınırlamaların farkında olmalıyız" değerlendirmesinde bulundu.
Yine California Üniversitesi'nden Hukuk Fakültesi AI Hukuku ve İnovasyon Enstitüsü Direktörü Profesör Robin Feldman, chatbotların gerçeklik yanılsaması yarattığı için daha fazla kullanıcı yapay zeka psikozu ile mücadele ettiğini belirterek, “Şirket ekrana her türlü uyarıyı koyabilir, ancak zihinsel olarak risk altında olan bir kişi bu uyarılara uyamayabilir" dedi.