استخدمت منظمة غير ربحية في الصحة النفسية تقنية الذكاء الاصطناعي الحديثة، روبوت محادثة (chatbot)، للرد على الأشخاص الذين يبحثون عن الدعم النفسي.
ووفقًا لوكالة الأنباء الألمانية، أثارت التجربة نقاشًا أخلاقيًا حول الموضوع، إذ يُستخدم روبوت الدردشة Koko لمساعدة الأشخاص الذين يعانون من أزمات في الصحة العقلية والنفسية لتقديم المشورة والدعم لهم.
الاستعانة بروبوت محادثة لحل المشاكل النفسية
كتب عالم البيانات ومؤسس خدمة الصحة النفسية (كوكو بوت) “روب موريس” عبر حسابه على تويتر، سلسلة من التغريدات شرح من خلالها، كيف اختبرت الشركة استخدام روبوت الدردشة لتقديم الدعم النفسي لأكثر من 4000 شخص.
وقال موريس: “قدمنا دعمًا للصحة النفسية والعقلية لما يقارب من 4000 شخص، باستخدام GPT-3″، مضيفًا أنه تم تصنيف رسائل الذكاء الاصطناعي والتي يُشرف عليها البشر بدرجة أعلى بكثير من تلك التي كتبها البشر بأنفسهم.
وأضاف مؤسس الخدمة: “انخفضت أوقات الاستجابة 50٪ لتصل إلى أقل من دقيقة، ولكن بمجرد أن علم الناس أن الرسائل التي تلقوها تم الرد عليها بواسطة آلة، فإن الأمر لم ينجح، وقال: “محاكاة التعاطف تبدو غريبة وفارغة”.
وأشار روب موريس إلى أن الذكاء الاصطناعي جرى استخدامه في أكثر من 30 ألف رسالة، وفق ما ذكره موقع نيو ساينتست.
جدل أخلاقي حول روبوت الدردشة Koko bot
العملية التي يقودها روبوت محادثة صعبة للغاية في تحديد مشاعر الشخص، وفي اختبار أجرته مجلة Motherboard، يسألك روبوت المحادثة عما إذا كنت تبحث عن مساعدة مثل مشاكل في تكوين الصداقات، والعمل، والمدرسة، والأسرة، واضطرابات الصحة، وما إلى ذلك.
سيُطلب منك بعد ذلك كتابة مشكلتك بشكل محدد ووضع علامة على “الأفكار الأكثر سلبية” حول المشكلة، وبعد ذلك، يرسل الشخص تلك المعلومات إلى منصة Koko ويقوم البرنامج بإعادة توجيهها إلى شخص حقيقي على الجانب الآخر، مع العلم أن الشخص الذي يقود الحوار خلال كل هذا هو برنامج ذكاء اصطناعي، وفقًا لـ موقع Vice.
We provided mental health support to about 4,000 people — using GPT-3. Here’s what happened 👇
— Rob Morris (@RobertRMorris) January 6, 2023
ردود فعل المستخدمين
ولم يتم إبلاغ مستخدمي المنصة في البداية بأن الردود طورت بواسطة روبوت ذكاء اصطناعي بحسب ما ورد عن مؤسس الشركه في التغريدات.
وتلقت الخدمة المقدمة من منصة كوكو انتقادات من المستخدمين بعد إعلان الشركة أنها اختبرت هذه النتائج “الاستجابات والاستفسارات” عن طريق الذكاء الاصطناعي chatbot.
هل يعالج الذكاء الاصطناعي المرضى النفسيين؟
قالت أستاذة العلوم اللغوية في جامعة واشنطن “إميلي إم بندر”: إن الثقة في الذكاء الاصطناعي لعلاج مرضى الصحة العقلية تنطوي على احتمالية كبيرة لإلحاق الضرر”.
وأضافت أستاذة العلوم اللغوية: “استخدام شيء من هذا القبيل في المواقف الحساسة هو مخاطرة غير مأمونة العواقب، ما يطرح سؤالًا رئيسيًا، من المسؤول إذا قدم الذكاء الاصطناعي اقتراحات ضارة للأشخاص، وما حدود المسؤولية والمحاسبة من جانب الشركة إذا حدث ذلك؟”.
وأوضحت إميلي: “هذه آلات ليس لديها أي تعاطف بشري وهي نفسها لا تفهم طبيعة اللغة التي تنتج بها الإجابات، ولا تفهم الوضع الذي يعيش فيه الناس، لكن النص الذي تنتجه يبدو معقولًا ولذا فمن المرجح أن يهتم به الناس”، بحسب ما نشرته وكالة الأنباء الألمانية.
رابط مختصر : https://roayahnews.com/?p=1403513