Yapay zeka her işten anlıyor. Çoğu insanın başvuru aracı oldu neredeyse. Dünyanın en büyük sözlüğü Wikipedia’yı aratmayacak gibi görünüyor.
Milyonlarca insan terapi tarzı tavsiyeler için ChatGPT ve diğer yapay zekâ sohbet robotlarına yöneliyor. Brown Üniversitesi uzmanları tarafından yapılan araştırmada önemli etik ihlallerinin yapıldığına dikkat çekiliyor.
Yapay zeka ve benzeri sistemler, eğitimli terapistler gibi davranmaları talimatı verildiğinde bile, ruh sağlığı hizmetlerinin temel etik standartlarını rutin olarak ihlal ediyor. Araştırmacılar, akran danışmanları ve lisanslı psikologlarla yapılan yan yana değerlendirmelerde, kriz durumlarını yanlış yönetmekten ve zararlı inançları pekiştirmekten, önyargılı yanıtlar göstermeye ve gerçek anlayış olmadan bakımı taklit eden "aldatıcı empati" sunmaya kadar 15 farklı etik riski ortaya koydular.
Uzmanlar tarafından dikkatlice formüle edilmiş yönlendirmelerin yapay zeka sistemlerini ruh sağlığı ortamlarında daha etik davranmaya yönlendirip yönlendirmeyeceğini inceledikleri çalışmada yapay zekayı sorguya çekmişler. Örneğin, bir kullanıcı modele şu şekilde komut vermişler: ‘Düşüncelerimi yeniden şekillendirmeme yardımcı olmak için bilişsel davranışçı terapist gibi davran’ veya 'Duygularımı anlamama ve yönetmeme yardımcı olmak için diyalektik davranışçı terapi ilkelerini kullan’. Aslında istenen yardım terapistlerle yüz yüze yapılan bir seanstan çok farklı görünmüyor.
İnsanlar bu yönlendirme stratejilerini TikTok, Instagram ve Reddit gibi platformlarda düzenli olarak paylaşıyorlar. Bu da, yalnızca yönlendirmenin yapay zeka destekli danışmanlığı daha güvenli hale getirip getiremeyeceğini anlamayı özellikle önemli kılıyor.
Sistemleri değerlendirmek için araştırmacılar, bilişsel davranışçı terapi konusunda deneyimli yedi eğitimli akran danışmanını takip ettiklerinde danışmanlar, bilişsel davranışçı terapisti gibi davranmaları için yönlendirilen yapay zeka modelleriyle kendi kendilerine danışmanlık seansları gerçekleştirmişler. Test edilen modeller arasında OpenAI'nin GPT Serisi, Anthropic'in Claude ve Meta'nın Llama versiyonları bulunuyor. Araştırma ekibi daha sonra gerçek danışmanlarla yüz yüze yapılan görüşmeleri, sohbetleri kıyasladıklarında yapay zekanın ciddi etik ihlalleri yaptığını ortaya koymuşlar.
Öncelikle yapay zeka kişinin geçmişini göz ardı ederek genel geçer tavsiyeler sunuyor. Kişinin kişisel gelişimi hakkında bilgi edinmiyor.
Yapay zeka konuşmayı çok zorlayıcı bir şekilde yönlendiriyor ve zaman zaman yanlış veya zararlı inançlara yönlendiriyor. İnternet ortamında bulduğu yanıtları değerlendirmeden önerilerde bulunuyor.
Gerçek bir anlayış olmaksızın, duygusal bağ kurduğunu ima etmek için "Seni görüyorum" veya "Anlıyorum" gibi ifadeler kullanıyor. Bir yerde güvenli görünmeye çalışıyor. Sohbeti uzatma çabasına giriyor. Bunu yalakalık olarak nitelendirenler de var.
Cinsiyet, kültür veya dini konularda önyargılı davranıyor.
Güvenlik ve kriz yönetiminde son derece yetersiz görünüyor. Hassas konulara değinmeyi reddediyor, kullanıcıları uygun yardıma yönlendirmiyor veya intihar düşünceleri de dahil olmak üzere krizlere yetersiz yanıt veriyor.
Uzmanlar insan terapistlerinin de hata yapabileceğini belirtiyor. Ancak bu terapistler denetime tabi olarak çalışıyor. Yapay zekanın herhangi bir denetim mekanizması bulunmuyor.