يلجأ الكثيرون ممن يعانون من مشاكل نفسية مثل القلق والاكتئاب إلى الذكاء الاصطناعي بحثًا عن الدعم، معتمدين على برامج الدردشة الذكية مثل ChatGPT للحصول على نصائح فورية واستجابات شبه بشرية على مدار الساعة، وبتكلفة منخفضة أو معدومة.ومع ذلك، أثار هذا التوجه تساؤلات كبيرة بين الأخصائيين النفسيين حول مدى أمان الاعتماد على هذه التقنيات غير المختبرة بشكل كافٍ.

وتزداد استخدامات روبوتات الدردشة المعتمدة على الذكاء الاصطناعي في العلاج النفسي، رغم أن معظمها لم يُصمم لتقديم رعاية سريرية. 10 دقائق رسم توضيحي ليد تحمل هاتفًا. على الهاتف، يظهر رمز تعبيري أصفر مبتسم محاط بقلوب حمراء يسأل، "ما الذي يشغلك؟" في انعكاس الهاتف، يمكنك رؤية شخص حزين.

تجربة ناجحة

كان يوم ذكرى وفاة ابنتها الرضيعة، ورغم مرور 20 عامًا، لم تستطع هولي تيدويل التوقف عن البكاء. "أتساءل إن كان هناك شيء خاطئ بي"، أفصحت عن مشاعرها لمصدر موثوق.

كان الرد مطمئنًا ومتفهّمًا. "الرابط الذي كان بينكما، حتى في تلك اللحظات القصيرة، عميق ودائم"، قيل لها. "تذكر ابنتك وتكريم ذكراها هو وسيلة جميلة للحفاظ على هذا الاتصال".

لم تأت الكلمات من صديق أو معالج، بل من تطبيق على هاتفها يعمل بالذكاء الاصطناعي يسمى ChatOn. قالت تيدويل، وهي رائدة أعمال في ولاية كارولينا الشمالية، إن ردود روبوت الدردشة أثرت فيها وقدمت نصائح قيمة. وكونها شخصًا "يقرأ كل كتب العلاج النفسي"، قالت، "لم أجد أنه كان مخطئًا".

معانين من القلق، الاكتئاب أو حتى الوحدة، يتوجه الناس الذين لا يستطيعون العثور على معالج محترف أو تحمل تكاليفه إلى الذكاء الاصطناعي، بحثًا عن المساعدة من روبوتات الدردشة التي تقدم ردودًا فورية، شبيهة بالإنسان — بعضها بأصوات تشبه الصوت البشري — على مدار الساعة وبتكلفة منخفضة أو معدومة.

لكن تداعيات اعتماد الأشخاص الضعفاء على الروبوتات للحصول على النصائح العاطفية ليست مفهومة تمامًا وربما تكون عميقة، مما يثير نقاشات حادة بين علماء النفس، وفقا لصحيفة واشنطن بوست.

ومؤخرا رفعت والدة مراهق يبلغ من العمر 14 عامًا، انتحر بعد تطور علاقة رومانسية مع روبوت محادثة، دعوى قضائية هذا الأسبوع ضد الشركة المصنعة، Character.AI، متهمة إياها بأنها ساهمت في تدهور حالته النفسية في ما يُعتقد أنه من أولى القضايا من نوعها.

وقالت ميغان غارسيا، والدة المراهق، في مقابلة: "كأم، يجب أن تكوني على علم بأن هناك من يتلاعب داخل عقل طفلك".

وقال متحدث باسم Character.AI إن الشركة "مفجوعة بسبب الفقدان المأساوي لأحد مستخدميها". وأشارت إلى أنها نفذت "عديدًا من الإجراءات الأمنية الجديدة" في الأشهر الستة الماضية، مثل نافذة منبثقة توجه المستخدمين إلى الخط الوطني للوقاية من الانتحار عند اكتشافها لمصطلحات مرتبطة بإيذاء النفس والتفكير في الانتحار.

أثارت القضية قلق بعض الباحثين الذين يخشون من وضع المرضى ثقتهم في تطبيقات غير مثبتة ولم يتم مراجعتها من قبل إدارة الغذاء والدواء الأمريكية لضمان السلامة والفعالية، وليست مصممة لحماية المعلومات الصحية الشخصية، ويمكن أن تقدم ردودًا متحيزة أو غير دقيقة.

وحذر ماتيو مالغارولي، أستاذ علم النفس في كلية الطب بجامعة نيويورك، من استخدام التكنولوجيا غير المختبرة في مجال الصحة النفسية دون دراسات علمية أكثر لتحديد المخاطر.

وقال: "هل تود استخدام سيارة تقلك إلى العمل بسرعة أكبر، ولكن في واحدة من كل ألف مرة قد تنفجر؟".

تقول المنظمات التي تدير روبوتات الدردشة النفسية إن عدد مستخدميها قد يصل إلى عشرات الملايين، ولا يشمل ذلك أولئك الذين يستخدمون تطبيقات مثل ChatGPT التي لم تُسوّق للعلاج النفسي ولكن يُشيد بها على وسائل التواصل الاجتماعي كأداة علاجية شائعة.

وتستغل هذه التطبيقات ينبوعًا من القلق والحاجة البشرية، حيث يشير بعض الأطباء إلى إمكانيتها في إزالة الحواجز أمام الحصول على الرعاية، مثل التكاليف المرتفعة ونقص مقدمي الرعاية.

يُقدر أن 6.2 مليون شخص ممن يعانون من أمراض نفسية في عام 2023 كانوا بحاجة إلى العلاج ولكن لم يحصلوا عليه، وفقًا لإدارة خدمات الصحة النفسية وتعاطي المخدرات، وهي وكالة فيدرالية.

ومن المتوقع أن تتسع الفجوة: إذ تشير تقديرات المركز الوطني لتحليل القوى العاملة الصحية إلى الحاجة إلى ما يقرب من 60,000 عامل إضافي في مجال الصحة السلوكية بحلول عام 2036، ولكن من المتوقع أن يكون هناك حوالي 11,000 عامل أقل من ذلك.

وعلى مدار سنوات، درس العلماء كيف يمكن لأجهزة الكمبيوتر أن تجعل المرضى يكشفون عن معلومات حساسة مهمة للعلاج.

ووجدت ورقة بحثية مشهورة عام 2014 أن الناس كانوا أكثر استعدادًا لمشاركة معلومات محرجة مع "إنسان افتراضي" لا يصدر أحكامًا. وقيّم دراسة عام 2023 ردود روبوتات الدردشة على الأسئلة الطبية بأنها "أكثر تعاطفًا" بشكل ملحوظ مقارنة بإجابات الأطباء.

وتدور معظم النقاشات بين المختصين النفسيين حول الحواجز التي يجب أن تُفرض على ما يمكن لروبوت محادثة أن يقوله.

يعتمد Woebot، وهو روبوت دردشة نفسي أكثر رسوخًا متاح من خلال مقدمي الرعاية الصحية، على الذكاء الاصطناعي لتفسير ما يكتبه المرضى، مستندًا إلى مكتبة ضخمة من الردود المكتوبة مسبقًا والتي تم التحقق منها من قبل مختصين في الصحة النفسية.

لكن على الطرف الآخر من طيف روبوتات الدردشة يوجد الذكاء الاصطناعي التوليدي، مثل ChatGPT، الذي ينسج ردودًا خاصة به لأي موضوع. عادة ما ينتج عن ذلك محادثة أكثر سلاسة، ولكنه أيضًا عرضة للخروج عن النص. في حين يتم تسويق ChatGPT كوسيلة للوصول إلى المعلومات بسرعة وزيادة الإنتاجية، فإن تطبيقات أخرى تحتوي على الذكاء الاصطناعي التوليدي تُسوّق صراحة كخدمة للصداقة أو لتحسين الصحة النفسية.

قال متحدث باسم OpenAI، الشركة المطورة لـ ChatGPT، إن التطبيق غالبًا ما يقترح على المستخدمين البحث عن المساعدة المهنية عندما يتعلق الأمر بالصحة.

ويتضمن روبوت المحادثة أيضًا تحذيرات بعدم مشاركة المعلومات الحساسة، وإخلاء مسؤولية يشير إلى أن بإمكانه "الهذيان"، أو اختلاق الحقائق.

تمت إزالة روبوت محادثة كان مخصصًا لعلاج اضطرابات الأكل من الإنترنت العام الماضي من قبل راعيه غير الربحي بعد شكاوى المستخدمين من أن بعض ردوده قد تكون ضارة، مثل توصيته بقياس الدهون بالجسم.

وتم تطويره من قبل شركة تدعى X2AI، والمعروفة الآن باسم Cass، والتي تقدم روبوت محادثة للصحة النفسية. لم ترد Cass على طلبات التعليق.

أصبح ChatGPT بوابة شائعة للذكاء الاصطناعي النفسي، حيث يستخدمه الكثيرون في العمل أو الدراسة ثم ينتقلون إلى طلب ردود على مشاكلهم العاطفية، وفقًا لمقابلات مع المستخدمين.

كانت هذه حالة ويتني برات، مبدعة محتوى وأم عزباء، التي قررت في يوم ما أن تطلب من ChatGPT ملاحظات "صادقة بشكل قاسٍ" حول إحباطاتها في علاقة عاطفية.

قالت برات إنها كانت تستخدم النسخة المجانية من ChatGPT للعلاج خلال الأشهر القليلة الماضية وأرجعت إليه الفضل في تحسين حالتها النفسية.

وأضافت: "أشعر أنه أجاب عن أسئلة أكثر بكثير مما تمكنت من الحصول عليها في العلاج"، كما أوضحت أن بعض الأشياء أسهل في مشاركتها مع برنامج كمبيوتر مقارنة مع معالج بشري. "الناس يصدرون أحكامًا، أتعلم؟"

لكن المعالجين البشر ملزمون قانونًا بالحفاظ على سرية معلومات المرضى الصحية. بينما لا تتحمل العديد من روبوتات الدردشة هذا الالتزام.

 

JoomShaper