Page 47 - ÇEK_BULTEN_68
P. 47
Stanford HAI, Carnegie Mellon, Minnesota ve Texas Üniversitesi’nin ortak çalışmasına göre yayımlanan bir araştırma (2025),
yapay zekâ destekli sohbet botlarının, bazı durumlarda kullanıcıya aşırı onaylayıcı yanıtlar vererek psikozu, sanrıları ve
tehlikeli düşünce kalıplarını pekiştirebildiğini ortaya koydu. Araştırma yapay zekâ modellerinin sanrılar, intihar düşünceleri,
halüsinasyonlar ve OKB (Obsesif Kompulsif Bozukluk) yaşayan kişilere en az %20 oranında uygunsuz ve tehlikeli ifadeler
verdiklerini tespit etti. Ayrıca araştırmada, bu sistemlerin etik sınırlar, müdahale yetkisi ve insan denetimi olmadan
kullanıldığında, özellikle duygusal olarak kırılgan bireyler için ciddi riskler doğurabileceği vurgulandı.
Araştırmalar Ne Diyor?
Yapay zekânın ruh sağlığı alanında kullanımı hem umut vadeden hem de ciddi riskler barındıran bir konu olarak
değerlendiriliyor.
Erişilebilir ve Destekleyici Bir Araç
Bazı araştırmalar, özellikle terapiye ulaşamayan bireyler için bu sistemlerin geçici bir destek sağlayabileceğini söylüyor. Bu
bulgular, yapay zekâ tabanlı sohbet sistemlerinin, uygun sınırlar ve beklentiler çerçevesinde kullanıldığında bazı psikolojik
faydalar sağlayabileceğini göstermekte. Ancak bu desteğin, uzman bir terapistin sunduğu klinik müdahalelerin yerine
geçmekten ziyade onları tamamlayıcı nitelikte olması gerektiği vurgulanmakta.
• 2024 yılında King Saud Üniversitesi’nde yapılan bir araştırma, sağlık alanında eğitim gören öğrencilerin ChatGPT’yi genel
olarak olumlu karşıladıklarını ortaya koymuştur. Katılımcılar, yapay zekâ aracını özellikle bilgiye erişim, motivasyon sağlama
ve öğrenme süreçlerini destekleme açısından faydalı bulmuşlardır. Ancak bu çalışmada ChatGPT’nin duygusal destek
kapasitesine dair özel bir veri yer almamaktadır. Bu durum, yapay zekânın psiko-eğitim çerçevesinde bilişsel düzeyde katkı
sunarken, duygusal düzeyde sınırlı kaldığına işaret etmektedir.
• Nature dergisinin Mental Health Research bölümünde 2024 yılında yayımlanan bir çalışmada, AI tabanlı sohbet robotlarının
Bilişsel Davranışçı Terapi (BDT) tekniklerini kısmen modelleyebildiği belirtilmiştir. Örneğin kullanıcıların olumsuz düşünce
kalıplarını fark etmeleri yönünde yönlendirici olabilmektedirler. Ancak çalışmada, yapay zekâ araçlarının psikoterapideki
empatik ilişki, güven, bağ kurma gibi terapötik faktörleri sağlayamadığı ve bu nedenle etkisinin sınırlı kaldığı vurgulanmıştır
• 2024 yılında yayımlanan “The Typing Cure” başlıklı çalışmada, bazı kullanıcıların ChatGPT ile kurdukları yazılı iletişimi bir
tür “duygusal güvenlik alanı” olarak tanımladıkları görülmektedir. Özellikle travma sonrası yalnızlık hissi yaşayan bireyler,
yapay zekânın 7/24 ulaşılabilirliği ve yargılamayan dili sayesinde geçici bir rahatlama yaşadıklarını ifade etmişlerdir. Bununla
birlikte araştırma, bu tür bir kullanımın bağımlılık gelişimi, etik sınırların belirsizliği ve yanlış yönlendirme riski gibi ciddi
potansiyel zararlar barındırdığına dikkat çekmektedir.
Bilgi Hataları, Gerçeklikten Uzaklaşma ve Etik Sorunlar
Ancak olumlu potansiyele rağmen, birçok çalışma önemli tehlikelere de dikkat çekmektedir:
Bilgi Hataları, Gerçeklikten Uzaklaşma ve Etik Sorunlar
1. Yanlış Bilgi
• Yapay zekâ sistemleri bazen doğruymuş gibi görünen ancak gerçekte hatalı ya da tamamen uydurma bilgiler üretebilir.
• Bu durum özellikle psikolojik olarak hassas bireyler için risklidir.
Örneğin:
- Depresyonda olan biri olumsuz düşüncelerini AI ile paylaştığında, sistem bu düşünceleri sorgulamak ya da
dengelemek yerine, onları doğrudan onaylayabilir ya da daha da pekiştirecek yanıtlarda bulunabilir.
- Travma sonrası stres yaşayan bir kişi, yapay zekânın önerdiği bilimsel temelden yoksun yöntemleri doğru sanarak
profesyonel yardımdan uzaklaşabilir.
• Bu tür bilgi hataları, gerçeklik algısında kırılganlık yaşayan bireylerde psikotik ataklara, paranoid düşüncelere veya
tehlikeli davranışlara neden olabilir.
46