Page 49 - ÇEK_BULTEN_68
P. 49
Yapay Zekâ Sohbet Botlarını Kullanırken Nelere Dikkat Edilmeli?
Yapay zekâ araçlarının ruh sağlığı alanındaki kullanımı, belli kurallara ve sınırlara dikkat edildiğinde faydalı olabilir:
1. Terapist Değildir: Tanı koymak, tedavi planlamak veya danışmanlık yapmak için kullanılmamalıdır.
2. Psiko-eğitim Aracı Olarak Kullanılabilir: Stresle baş etme, hedef belirleme gibi alanlarda yönlendirici olabilir.
3. Duygusal Krizlerde Risklidir: Özellikle intihar düşünceleri, ağır travma ya da psikotik belirtiler varsa mutlaka profesyonel
destek alınmalıdır.
4. Mahremiyet Önemlidir: Paylaşılan bilgilerin AI sistemlerinde nasıl işlendiği net değildir. Kişisel bilgiler dikkatle
korunmalıdır.
Yapay zekâ tabanlı sohbet sistemleri ruh sağlığı alanında hem umut verici olanaklar hem de ciddi riskler barındırmaktadır.
Erişilebilirlik, anonimlik ve sürekli yanıt kapasitesi gibi avantajları, özellikle destek sistemlerine ulaşamayan bireyler için
anlamlı olabilir. Ancak aynı zamanda empati eksikliği, bilgi hataları, gerçeklik algısının bozulması ve etik boşluklar gibi
riskler, özellikle kırılgan gruplar açısından göz ardı edilemeyecek kadar büyüktür. Bu nedenle yapay zekâyı bir terapist
yerine değil, dikkatle ve bilinçle kullanılan destekleyici bir araç olarak görmek gerekir. Teknolojinin sunduğu potansiyelden
en sağlıklı şekilde yararlanmak için, insan temasının yerini hiçbir şeyin tutamayacağını ve psikolojik destek ihtiyacında
profesyonel yardımın öncelikli olduğunu unutmamalıyız.
Kaynakça
- Alharbi, M. K., Syed, W., Innab, A., Al-Rawi, M. B. A., Alsadoun, A., & Bashatah, A. (2024). Healthcare students’ attitudes, opinions, perceptions
and perceived obstacles regarding ChatGPT in Saudi Arabia: A survey-based cross-sectional study. Scientific Reports, 14, Article 22800. https://
doi.org/10.1038/s41598-024-73359-y
- Cariou, T., Benrimoh, D., & Kirmayer, L. J. (2024). Artificial intelligence conversational agents in mental health: Ethical challenges and future
directions. Frontiers in Psychiatry, 15, 1505024. https://doi.org/10.3389/fpsyt.2024.1505024
- Fang, C. M., Liu, A. R., Danry, V., Lee, E., Chan, S. W. T., Pataranutaporn, P., Maes, P., Phang, J., Lampe, M., Ahmad, L., & Agarwal, S. (2025). How AI
and human behaviors shape psychosocial effects of chatbot use: A longitudinal randomized controlled study. arXiv preprint arXiv:2503.17473.
- Moore, J., Grabb, D., Agnew, W., Klyman, K., Chancellor, S., Ong, D. C., & Haber, N. (2025, Nisan 25). Expressing stigma and inappropriate responses
prevents LLMs from safely replacing mental health providers. arXiv. https://arxiv.org/abs/2504.18412 arxiv.org+7arxiv.org+7reddit.com+7
- New York Post. (2025, June 28). Sycophant AI bots endanger users seeking therapy, study finds. https://nypost.com/2025/06/28/us-news/
sycophant-ai-bots-endanger-users-seeking-therapy-study-finds
- Song, I-S., Pendse, S. R., Kumar, N., & De Choudhury, M. (2024). The typing cure: Experiences with large language model chatbots for mental
health support. arXiv preprint arXiv:2401.14362.
- Stanford HAI (2025). Exploring the Dangers of AI in Mental Health Care. Retrieved from https://hai.stanford.edu/news/exploring-the-dangers-
of-ai-in-mental-health-care
Bu yazı Birgül Geyimci tarafından hazırlanmıştır ve tüm hakları saklıdır. Her türlü soru, görüş ve önerileriniz için: birgul@psikolojistanbul.com
48