Page 49 - ÇEK_BULTEN_68
P. 49

Yapay Zekâ Sohbet Botlarını Kullanırken Nelere Dikkat Edilmeli?
            Yapay zekâ araçlarının ruh sağlığı alanındaki kullanımı, belli kurallara ve sınırlara dikkat edildiğinde faydalı olabilir:

            1. Terapist Değildir: Tanı koymak, tedavi planlamak veya danışmanlık yapmak için kullanılmamalıdır.

            2. Psiko-eğitim Aracı Olarak Kullanılabilir: Stresle baş etme, hedef belirleme gibi alanlarda yönlendirici olabilir.
            3. Duygusal Krizlerde Risklidir: Özellikle intihar düşünceleri, ağır travma ya da psikotik belirtiler varsa mutlaka profesyonel
            destek alınmalıdır.

            4.  Mahremiyet  Önemlidir:  Paylaşılan  bilgilerin  AI  sistemlerinde  nasıl  işlendiği  net  değildir.  Kişisel  bilgiler  dikkatle
            korunmalıdır.
            Yapay zekâ tabanlı sohbet sistemleri ruh sağlığı alanında hem umut verici olanaklar hem de ciddi riskler barındırmaktadır.
            Erişilebilirlik, anonimlik ve sürekli yanıt kapasitesi gibi avantajları, özellikle destek sistemlerine ulaşamayan bireyler için
            anlamlı olabilir. Ancak aynı zamanda empati eksikliği, bilgi hataları, gerçeklik algısının bozulması ve etik boşluklar gibi
            riskler, özellikle kırılgan gruplar açısından göz ardı edilemeyecek kadar büyüktür. Bu nedenle yapay zekâyı bir terapist
            yerine değil, dikkatle ve bilinçle kullanılan destekleyici bir araç olarak görmek gerekir. Teknolojinin sunduğu potansiyelden
            en sağlıklı şekilde yararlanmak için, insan temasının yerini hiçbir şeyin tutamayacağını ve psikolojik destek ihtiyacında
            profesyonel yardımın öncelikli olduğunu unutmamalıyız.






























             Kaynakça
             - Alharbi, M. K., Syed, W., Innab, A., Al-Rawi, M. B. A., Alsadoun, A., & Bashatah, A. (2024). Healthcare students’ attitudes, opinions, perceptions
             and perceived obstacles regarding ChatGPT in Saudi Arabia: A survey-based cross-sectional study. Scientific Reports, 14, Article 22800. https://
             doi.org/10.1038/s41598-024-73359-y
             - Cariou, T., Benrimoh, D., & Kirmayer, L. J. (2024). Artificial intelligence conversational agents in mental health: Ethical challenges and future
             directions. Frontiers in Psychiatry, 15, 1505024. https://doi.org/10.3389/fpsyt.2024.1505024
             - Fang, C. M., Liu, A. R., Danry, V., Lee, E., Chan, S. W. T., Pataranutaporn, P., Maes, P., Phang, J., Lampe, M., Ahmad, L., & Agarwal, S. (2025). How AI
             and human behaviors shape psychosocial effects of chatbot use: A longitudinal randomized controlled study. arXiv preprint arXiv:2503.17473.
             - Moore, J., Grabb, D., Agnew, W., Klyman, K., Chancellor, S., Ong, D. C., & Haber, N. (2025, Nisan 25). Expressing stigma and inappropriate responses
             prevents LLMs from safely replacing mental health providers. arXiv. https://arxiv.org/abs/2504.18412 arxiv.org+7arxiv.org+7reddit.com+7
             -  New  York  Post.  (2025,  June  28).  Sycophant  AI  bots  endanger  users  seeking  therapy,  study  finds.  https://nypost.com/2025/06/28/us-news/
             sycophant-ai-bots-endanger-users-seeking-therapy-study-finds
             - Song, I-S., Pendse, S. R., Kumar, N., & De Choudhury, M. (2024). The typing cure: Experiences with large language model chatbots for mental
             health support. arXiv preprint arXiv:2401.14362.
             - Stanford HAI (2025). Exploring the Dangers of AI in Mental Health Care. Retrieved from https://hai.stanford.edu/news/exploring-the-dangers-
             of-ai-in-mental-health-care

             Bu yazı Birgül Geyimci tarafından hazırlanmıştır ve tüm hakları saklıdır. Her türlü soru, görüş ve önerileriniz için: birgul@psikolojistanbul.com
                                                                                                                   48
   44   45   46   47   48   49   50