هل يفيد الذكاء الاصطناعي في العلاج النفسي؟

علي محمد
هل يمكن استخدام الذكاء الاصطناعي في علاج المشاكل النفسية؟

استخدمت منظمة غير ربحية في الصحة النفسية تقنية الذكاء الاصطناعي الحديثة، روبوت محادثة (chatbot)، للرد على الأشخاص الذين يبحثون عن الدعم النفسي.

ووفقًا لوكالة الأنباء الألمانية، أثارت التجربة نقاشًا أخلاقيًا حول الموضوع، إذ يُستخدم روبوت الدردشة Koko لمساعدة الأشخاص الذين يعانون من أزمات في الصحة العقلية والنفسية لتقديم المشورة والدعم لهم.

الاستعانة بروبوت محادثة لحل المشاكل النفسية

كتب عالم البيانات ومؤسس خدمة الصحة النفسية (كوكو بوت) “روب موريس” عبر حسابه على تويتر، سلسلة من التغريدات شرح من خلالها، كيف اختبرت الشركة استخدام روبوت الدردشة لتقديم الدعم النفسي لأكثر من 4000 شخص.

وقال موريس: “قدمنا دعمًا للصحة النفسية والعقلية لما يقارب من 4000 شخص، باستخدام GPT-3″، مضيفًا أنه تم تصنيف رسائل الذكاء الاصطناعي والتي يُشرف عليها البشر بدرجة أعلى بكثير من تلك التي كتبها البشر بأنفسهم.

وأضاف مؤسس الخدمة: “انخفضت أوقات الاستجابة 50٪ لتصل إلى أقل من دقيقة،  ولكن بمجرد أن علم الناس أن الرسائل التي تلقوها تم الرد عليها بواسطة آلة، فإن الأمر لم ينجح، وقال: “محاكاة التعاطف تبدو غريبة وفارغة”.

وأشار روب موريس إلى أن الذكاء الاصطناعي جرى استخدامه في أكثر من 30 ألف رسالة، وفق ما ذكره موقع نيو ساينتست.

جدل أخلاقي حول روبوت الدردشة Koko bot

العملية التي يقودها روبوت محادثة صعبة للغاية في تحديد مشاعر الشخص، وفي اختبار أجرته مجلة Motherboard، يسألك روبوت المحادثة عما إذا كنت تبحث عن مساعدة مثل مشاكل في تكوين الصداقات، والعمل، والمدرسة، والأسرة، واضطرابات الصحة، وما إلى ذلك.

سيُطلب منك بعد ذلك كتابة مشكلتك بشكل محدد ووضع علامة على “الأفكار الأكثر سلبية” حول المشكلة، وبعد ذلك، يرسل الشخص تلك المعلومات إلى منصة Koko ويقوم البرنامج بإعادة توجيهها إلى شخص حقيقي على الجانب الآخر، مع العلم أن الشخص الذي يقود الحوار خلال كل هذا هو برنامج ذكاء اصطناعي، وفقًا لـ موقع Vice.

ردود فعل المستخدمين

ولم يتم إبلاغ مستخدمي المنصة في البداية بأن الردود طورت بواسطة روبوت ذكاء اصطناعي بحسب ما ورد عن مؤسس الشركه في التغريدات.

وتلقت الخدمة المقدمة من منصة كوكو انتقادات من المستخدمين بعد إعلان الشركة أنها اختبرت هذه النتائج “الاستجابات والاستفسارات” عن طريق الذكاء الاصطناعي chatbot.

هل يعالج الذكاء الاصطناعي المرضى النفسيين؟

قالت أستاذة العلوم اللغوية في جامعة واشنطن “إميلي إم بندر”: إن الثقة في الذكاء الاصطناعي لعلاج مرضى الصحة العقلية تنطوي على احتمالية كبيرة لإلحاق الضرر”.

وأضافت أستاذة العلوم اللغوية: “استخدام شيء من هذا القبيل في المواقف الحساسة هو مخاطرة غير مأمونة العواقب، ما يطرح سؤالًا رئيسيًا، من المسؤول إذا قدم الذكاء الاصطناعي اقتراحات ضارة للأشخاص، وما حدود المسؤولية والمحاسبة من جانب الشركة إذا حدث ذلك؟”.

وأوضحت إميلي: “هذه آلات ليس لديها أي تعاطف بشري وهي نفسها لا تفهم طبيعة اللغة التي تنتج بها الإجابات، ولا تفهم الوضع الذي يعيش فيه الناس، لكن النص الذي تنتجه يبدو معقولًا ولذا فمن المرجح أن يهتم به الناس”، بحسب ما نشرته وكالة الأنباء الألمانية.

ربما يعجبك أيضا