Page 47 - ÇEK_BULTEN_68
P. 47

Stanford HAI, Carnegie Mellon, Minnesota ve Texas Üniversitesi’nin ortak çalışmasına göre yayımlanan bir araştırma (2025),
            yapay zekâ destekli sohbet botlarının, bazı durumlarda kullanıcıya aşırı onaylayıcı yanıtlar vererek psikozu, sanrıları ve
            tehlikeli düşünce kalıplarını pekiştirebildiğini ortaya koydu. Araştırma yapay zekâ modellerinin sanrılar, intihar düşünceleri,
            halüsinasyonlar ve OKB (Obsesif Kompulsif Bozukluk) yaşayan kişilere en az %20 oranında uygunsuz ve tehlikeli ifadeler
            verdiklerini  tespit  etti.  Ayrıca  araştırmada,  bu  sistemlerin  etik  sınırlar,  müdahale  yetkisi  ve  insan  denetimi  olmadan
            kullanıldığında, özellikle duygusal olarak kırılgan bireyler için ciddi riskler doğurabileceği vurgulandı.

            Araştırmalar Ne Diyor?

            Yapay  zekânın  ruh  sağlığı  alanında  kullanımı  hem  umut  vadeden  hem  de  ciddi  riskler  barındıran  bir  konu  olarak
            değerlendiriliyor.
            Erişilebilir ve Destekleyici Bir Araç


             Bazı araştırmalar, özellikle terapiye ulaşamayan bireyler için bu sistemlerin geçici bir destek sağlayabileceğini söylüyor. Bu
             bulgular, yapay zekâ tabanlı sohbet sistemlerinin, uygun sınırlar ve beklentiler çerçevesinde kullanıldığında bazı psikolojik
             faydalar sağlayabileceğini göstermekte. Ancak bu desteğin, uzman bir terapistin sunduğu klinik müdahalelerin yerine
             geçmekten ziyade onları tamamlayıcı nitelikte olması gerektiği vurgulanmakta.

            • 2024 yılında King Saud Üniversitesi’nde yapılan bir araştırma, sağlık alanında eğitim gören öğrencilerin ChatGPT’yi genel
            olarak olumlu karşıladıklarını ortaya koymuştur. Katılımcılar, yapay zekâ aracını özellikle bilgiye erişim, motivasyon sağlama
            ve  öğrenme  süreçlerini  destekleme  açısından  faydalı  bulmuşlardır.  Ancak  bu  çalışmada  ChatGPT’nin  duygusal  destek
            kapasitesine dair özel bir veri yer almamaktadır. Bu durum, yapay zekânın psiko-eğitim çerçevesinde bilişsel düzeyde katkı
            sunarken, duygusal düzeyde sınırlı kaldığına işaret etmektedir.


            • Nature dergisinin Mental Health Research bölümünde 2024 yılında yayımlanan bir çalışmada, AI tabanlı sohbet robotlarının
            Bilişsel Davranışçı Terapi (BDT) tekniklerini kısmen modelleyebildiği belirtilmiştir. Örneğin kullanıcıların olumsuz düşünce
            kalıplarını fark etmeleri yönünde yönlendirici olabilmektedirler. Ancak çalışmada, yapay zekâ araçlarının psikoterapideki
            empatik ilişki, güven, bağ kurma gibi terapötik faktörleri sağlayamadığı ve bu nedenle etkisinin sınırlı kaldığı vurgulanmıştır


            • 2024 yılında yayımlanan “The Typing Cure” başlıklı çalışmada, bazı kullanıcıların ChatGPT ile kurdukları yazılı iletişimi bir
            tür “duygusal güvenlik alanı” olarak tanımladıkları görülmektedir. Özellikle travma sonrası yalnızlık hissi yaşayan bireyler,
            yapay zekânın 7/24 ulaşılabilirliği ve yargılamayan dili sayesinde geçici bir rahatlama yaşadıklarını ifade etmişlerdir. Bununla
            birlikte araştırma, bu tür bir kullanımın bağımlılık gelişimi, etik sınırların belirsizliği ve yanlış yönlendirme riski gibi ciddi
            potansiyel zararlar barındırdığına dikkat çekmektedir.


            Bilgi Hataları, Gerçeklikten Uzaklaşma ve Etik Sorunlar

            Ancak olumlu potansiyele rağmen, birçok çalışma önemli tehlikelere de dikkat çekmektedir:

            Bilgi Hataları, Gerçeklikten Uzaklaşma ve Etik Sorunlar
            1. Yanlış Bilgi


            • Yapay zekâ sistemleri bazen doğruymuş gibi görünen ancak gerçekte hatalı ya da tamamen uydurma bilgiler üretebilir.


            • Bu durum özellikle psikolojik olarak hassas bireyler için risklidir.
            Örneğin:

                              -  Depresyonda  olan  biri  olumsuz  düşüncelerini  AI  ile  paylaştığında,  sistem  bu  düşünceleri  sorgulamak  ya  da
            dengelemek yerine, onları doğrudan onaylayabilir ya da daha da pekiştirecek yanıtlarda bulunabilir.
                             - Travma sonrası stres yaşayan bir kişi, yapay zekânın önerdiği bilimsel temelden yoksun yöntemleri doğru sanarak
            profesyonel yardımdan uzaklaşabilir.


            •  Bu  tür  bilgi  hataları,  gerçeklik  algısında  kırılganlık  yaşayan  bireylerde  psikotik  ataklara,  paranoid  düşüncelere  veya
            tehlikeli davranışlara neden olabilir.
                                                                                                                   46
   42   43   44   45   46   47   48   49   50