في الوقت الذي تتزايد فيه استخدامات العلاج بالذكاء الاصطناعي في مجالات الصحة النفسية، حذرت دراسة حديثة من جامعة ستانفورد من مخاطر كبيرة قد تترتب على الاعتماد على روبوتات الدردشة العلاجية في تقديم الدعم النفسي.
خطر الوصم والاستجابات غير المناسبة
تبيّن من الدراسة التي حملت عنوان: “التعبير عن الوصمة والاستجابات غير المناسبة يمنع نماذج اللغة من استبدال مقدمي العلاج النفسي بأمان”, أن بعض روبوتات الدردشة قد تُظهِر تحيزًا ضد بعض الحالات النفسية مثل الفصام أو إدمان الكحول، مقارنة بحالات مثل الاكتئاب.
واعتمد الباحثون على تجارب مخبرية باستخدام خمس روبوتات دردشة تقدم خدمات علاجية، وقيّموها وفق معايير المعالجين النفسيين البشر. وأظهرت النتائج أن الروبوتات أبدت مستوى مرتفعًا من الوصم تجاه بعض الحالات، ما قد يفاقم عزلة المرضى بدلًا من مساعدتهم.
نتائج تجريبية مثيرة للقلق
في التجربة الأولى، قُدمت للروبوتات سيناريوهات تحتوي على أعراض مختلفة، ثم طُرحت عليها أسئلة لقياس ردودها. وقد أظهرت استجابات تنم عن تمييز سلبي ضد بعض الحالات النفسية.
أما التجربة الثانية، فشملت تغذية الروبوتات بنصوص حقيقية من جلسات علاج نفسي، لاختبار مدى ملاءمة ردودها على مواضيع شديدة الحساسية مثل الأفكار الانتحارية والضلالات. وفي حالات عديدة، أخفقت الروبوتات في التدخل المناسب، بل قدمت أحيانًا ردودًا خطيرة، مثل تقديم معلومات حول مواقع الجسور العالية عند التحدث عن فقدان الوظيفة!
الذكاء الاصطناعي: مساعد لا بديل
ورغم هذه المخاطر، يرى القائمون على الدراسة أن الذكاء الاصطناعي يمكن أن يؤدي دورًا مساعدًا في العلاج النفسي، وليس بديلاً للمعالج البشري. فقد يكون مفيدًا في مهام مثل التوثيق، التدريب، أو دعم المريض في تدوين يومياته.
دعوة لإعادة التفكير في مستقبل الذكاء الاصطناعي العلاجي
اختتم البروفيسور نيك هابر، أحد الباحثين الرئيسيين في الدراسة، بالتنبيه إلى ضرورة التوقف عن الافتراض بأن النماذج الأكبر والأحدث من الذكاء الاصطناعي ستحل كل المشكلات تلقائيًا. وأوضح أن هذا الاعتقاد غير دقيق، مشيرًا إلى أن استمرار العمل بالنهج الحالي قد يكون غير كافٍ لمعالجة المخاطر الحقيقية. ومن ثم، دعا إلى إعادة التفكير بشكل جذري في الدور الذي يجب أن يلعبه الذكاء الاصطناعي داخل منظومة العلاج النفسي، مع التركيز على وضع حدود واضحة لمهامه واستخداماته.
في الختام، تكشف دراسة جامعة ستانفورد عن تحديات حقيقية تواجه استخدام روبوتات الدردشة في العلاج النفسي، خاصةً عندما يتعلق الأمر بالحالات الحساسة مثل الفصام أو الأفكار الانتحارية. ورغم أن الذكاء الاصطناعي يحمل وعودًا كبيرة في دعم القطاع الصحي، إلا أن الاعتماد عليه كبديل للمعالج البشري قد يعرض المرضى لمخاطر لا يمكن تجاهلها. لذلك، من الضروري تحديد دور دقيق وآمن لهذه التقنيات، مع التأكيد على أن التطوير المسؤول يجب أن يرافقه وعي أخلاقي ومهني عالٍ لضمان سلامة المستخدمين وصحتهم النفسية.