ذى أتلانتيك | كيف يهدد الذكاء الاصطناعي مستقبل البشرية؟


٠٦ مارس ٢٠١٩ - ٠٨:٠٩ ص بتوقيت جرينيتش

ترجمة - شهاب ممدوح



لقد كانت المخاوف المتعلقة بإمكانية إحداث الذكاء الاصطناعي تحولاً جذريًّا في حياتنا عنصرًا أساسيًا للخيال العلمي لعقود طويلة. في أربعينيات القرن الماضي، عندما بدا أن التفاعل الواسع النطاق بين البشر والذكاء الاصطناعي ما يزال احتمالاً بعيدًا، وضع "إسحاق أسيموف" قوانينه الثلاثة الشهيرة للروبوتات، والتي كانت تهدف لمنع الروبوتات من إيذائنا.

ينبع القانون الأول للروبوتات -"لا ينبغي لروبوت أن يؤذي إنسانا أو يترك إنسانا في خطر دون مساعدة" - من فهم مفاده أن الروبوتات ستؤثر على البشر عبر التفاعل المباشر، سواء خيرًا أو شرًا. فكروا في أفلام الخيال العلمي الكلاسيكية: تعاون شخصيتي "C-3PO" و "R2-D "مع تحالف المتمردين لإحباط الإمبراطورية في فيلم "حرب النجوم"، أو تآمر شخصيتي "Hal 9000" من فيلم2001: A Space"  Odyssey " و"Ava" من فيلم "Ex Machina" لقتل أسيادهما. لكن تلك الأعمال الفنية الخيالية لم تركز على التأثيرات الاجتماعية الأوسع نطاقًا وربما الأكثر أهمية للذكاء الصناعي- مثل الطرق التي يمكن أن يؤثر بها الذكاء الاصطناعي على كيفية تفاعلنا نحن البشر مع بعضنا الآخر.

لقد أحدثت الابتكارات الجذرية في السابق تحولاً هائلاً في الطريقة التي يعيش بها البشر مع بعضهم، إذ إن ظهور المدن منذ نحو 5 إلى 10 آلاف سنة مضت، كان يعني تراجع الحياة البدوية وتزايد الكثافة السكانية. كما أننا تكيّفنا بشكل فردي وجماعي (على سبيل المثال، ربما طوّرنا مقاومة ضد بعض الأمراض التي نشأت بفضل تلك الظروف الجديدة). وفي وقت أقرب للحاضر، أدّى ابتكار التكنولوجيات من بينها آلة الطباعة والهاتف والإنترنت، لخلق ثورة في طريقة تخزين المعلومات وإيصالها. وبالرغم من الآثار المترتبة على تلك الابتكارات، إلا أنها لم تغير الجوانب الأساسية للسلوك الإنساني التي تتضمن ما أسميه "الحِزمة الاجتماعية": وهي مجموعة مهمة من القدرات التي تطورت على مدار مئات آلاف السنين، من بينها الحب والصداقة والتعاون والتعليم. لقد بقيت المعالم الأساسية لهذه السمات ثابتة بشكل مذهل عبر العالم، سواء كان المجتمع حضريًّا أو ريفيًّا، وسواء كان يستخدم التكنولوجيا الحديثة أم لا.

لكن إضافة الذكاء الاصطناعي بيننا يمكن أن يكون أشد وطأة، ونظرًا لأن الآلات يتم صناعتها لكي تشبهنا وتتصرف مثلنا وتتسلل عميقًا إلى داخل حياتنا، فإن هذا قد يغيّر مشاعر الحب والودّ والعطف لدينا، ليس في تفاعلاتنا المباشرة مع الآلات فحسب، لكن أيضًا في تفاعلاتنا مع بعضنا البعض.

لندرس بعض التجارب التي جرت في مختبري في جامعة"Yale"، حيث نستكشف أنا وزملائي التأثيرات المحتملة لهذه الآلات. في إحدى التجارب، وجّهنا مجموعات صغيرة من الأشخاص للعمل مع روبوتات شبيهة بالبشر لتمديد خطوط سكك حديدية في عالم افتراضي. تكوّنت كل مجموعة من ثلاثة أشخاص وروبوت صغير ذي لون أزرق وأبيض يجلس على طاولة مربعة، يعمل على حواسيب لوحية. لقد كان الروبوت مبرمجًا لارتكاب أخطاء بين الحين والآخر، ويعترف لهم بشكل مرح: "أسف يا شباب، لقد ارتكبت خطأ هذه المرة" مضيفًا: "أعلم أنه ربما من الصعب تصديق هذا، لكن الروبوتات ترتكب أخطاءً أيضًا".

وكما اتضح، فإن هذا الروبوت الأخرق المعترف بأخطائه، ساعد في تحسين أداء تلك المجموعات، وذلك عبر تحسين التواصل بين البشر. لقد أصبح هؤلاء الأشخاص أكثر ارتياحًا وتخاطبًا فيما بينهم، وكانوا يواسون بعضهم الآخر عندما يتعثر أحدهم في العمل، ويضحكون مع بعضهم في أغلب الأحيان. بالمقارنة مع مجموعات المراقبة (Control groups) التي كان الروبوت لديها يُصدر بيانات مملة، كانت المجموعات التي لديها روبوت يعترف بأخطائه أفضل قدرة على التعاون فيما بينها.

في تجربة افتراضية أخرى، قسّمنا 4 آلاف شخص إلى مجموعات تتكون كل واحدة منها من 20 شخصًا، وقمنا بتعيين "أصدقاء" لكل فرد داخل المجموعة، وقد شكّلت تلك الصداقات شبكة اجتماعية. ثم بعدها تم تكليف المجموعات بمهمة: يجب على كل شخص أن يختار واحدًا من ثلاثة ألوان، لكن اللون الذي يختاره الفرد لا يجب أن يتطابق مع أصدقائه المُعينين داخل الشبكة الاجتماعية. ما لم يعلمه هؤلاء الأشخاص، أن بعض المجموعات كانت تضم عددًا من الروبوتات التي بُرمجت لارتكاب بعض الأخطاء بين الفينة والأخرى. لقد أصبح الأشخاص المرتبطون بهذه الروبوتات أكثر مرونة وأكثر ميلاً لتجنب الأخطاء. بالإضافة إلى هذا، انتشرت تلك المرونة في عموم الشبكة الاجتماعية، بل إنها وصلت حتى للأشخاص الذين لم يكونوا مرتبطين مباشرة بالروبوتات. ونتيجة لذلك، تفوق أداء المجموعات التي كانت لديها روبوتات ترتكب أخطاءً بشكل ثابت على أداء المجموعات التي كان لديها روبوتات لم ترتكب أخطاءً. لقد ساعدت الروبوتات البشر على مساعدة أنفسهم.

هناك نتائج أخرى تعزز هذه الفكرة. على سبيل المثال، قام العالم السياسي "كيفين مونجر" بتوجيه أنواع محددة من الروبوتات للتدخل عقب توجيه أشخاص لشتائم عنصرية لأناس آخرين على الإنترنت. وقد أظهر هذا العالم أن الروبوت الذي ذكّر مُرسلي الشتائم بأن مَن شتموهم كانوا بشرًا، وأن مشاعرهم ربما تكون قد تأذت، ربما نجح في تقليل مستوى الخطاب العنصري لهذا الشخص لما يزيد على شهر.

في تجربة أخرى كان الهدف منها معرفة كيف يمكن للذكاء الصناعي أن يؤثر على ما يُسمى "مأساة المشاع" (tragedy of commons)- أي فكرة أن تصرفات الأفراد الأنانية ربما تلحق ضررًا جماعيًّا بمصالحهم المشتركة- أعطينا بضعة آلاف من المشاركين في التجربة أموالاً لاستخدامها خلال جولات متعددة للعبة يلعبونها على الإنترنت. في كل جولة، قيل للمشاركين إن بإمكانهم إما أن يحتفظوا بأموالهم أو التبرع بجزء منها أو كلها لجيرانهم في التجربة. لو قدّموا تبرعًا، نعطيهم تعويضًا للمبلغ الذي تبرعوا به، ما سيضاعف من الأموال التي يتلقاها جيرانهم. في بداية اللعبة، تصرف ثلثا اللاعبين بطريقة تتسم بالإيثار؛ إذ أدركوا أن تصرفهم بكرم مع جيرانهم في جولة لعب ربما يدفع جيرانهم لأن يكونوا كرماء معهم في الجولة التالية، ما يؤسس لمبدأ التعامل بالمثل. لكن من وجهة نظر أنانية وقصيرة المدى، فإن أفضل وسيلة هي احتفاظ اللاعبين بأموالهم وتلقي أموال من جيرانهم. لقد وجدنا في هذه التجربة أنه عندما أضفنا روبوتات (تتظاهر بأنها لاعبون بشريون) ذات سلوك أناني انتفاعي، استطعنا جعل هذه المجموعة تتصرف بطريقة مماثلة. في نهاية المطاف، توقف اللاعبون البشريين عن التعاون بصورة كاملة. وبهذا نجحت الروبوتات في تحويل مجموعة من البشر الكرماء إلى حمقى أنانيين.

دعونا نتوقف لنتأمل في تداعيات هذه النتائج: إن التعاون هو سمة مهمة في جنسنا البشري، وهو ضروري لحياتنا الاجتماعية. كما أن الثقة والكرم مهمان للتفريق بين المجموعات الناجحة وغير الناجحة. لو قدّم الجميع مساعدة وقاموا بتضحيات من أجل مساعدة المجموعة، فسيستفيد الجميع. لكن عندما ينهار هذا السلوك، ستختفي مجرد فكرة المنفعة العامة، وسيعاني الجميع، ولا شك أن احتمال نجاح الذكاء الاصطناعي بصورة جديّة في الحدّ من قدرتنا على التعاون هو أمر مقلق للغاية.

نحن نواجه بالفعل أمثلة من عالم الواقع عن مدى قدرة الذكاء الاصطناعي على إفساد العلاقات الإنسانية خارج جدران المختبرات. توصلت دراسة جرى فيها اختبار 5.7 مليون مستخدم لموقع تويتر في الفترة التي سبقت الانتخابات الرئاسية الأمريكية في عام 2016، إلى أن الحسابات الروسية الخبيثة وحسابات التصيُّد - من بينها حسابات تشغّلها روبوتات -  قد جرى إعادة تغريدها بانتظام على غرار الحسابات الأخرى غير الخبيثة، ما ساهم في التأثير بقوة على مستخدمي تويتر من ذوي التوجهات المحافظة. لقد تمكّنت الروبوتات - مستغلة في ذلك طبيعة البشر التعاونية واهتمامنا بتعليم بعضنا الآخر- من التأثير حتى على الأشخاص الذين لم تتفاعل معهم مباشرة، ما ساهم في زيادة الاستقطاب وسط الناخبين الأمريكيين.

وهناك آثار اجتماعية أخرى لأنواع بسيطة من الذكاء الاجتماعي تظهر حولنا يوميًا. إذ إن الآباء الذين يراقبون أطفالهم وهم يوجّهون بصوت مرتفع أوامر فظة لمُساعدات رقمية مثل "Alexa" و"Siri"، بدأوا يقلقون من أن هذه الفظاظة ستنتقل إلى طريقة تعامل هؤلاء الأطفال مع الناس، أو أن علاقات هؤلاء الاطفال مع آلات الذكاء الاصطناعي ستعيق أو تجهض العلاقات الإنسانية.

بعد أن أصبحت المُساعِدات الرقمية واسعة الانتشار، صرنا نحن البشر معتادين على التحدث إليها كما لو كانت بشرًا أحياء. لقد وصفت "جوديث شوليفتز" في مقالة لها على صفحات مجلة "ذي أتلانتيك" كيف بدأ بعضنا في التعامل مع هذه المُساعِدات الرقمية كما لو كانت كاتم أسرار، أو حتى كصديق أو معالج. تقول "شوليفتز" نفسها إنها تصارح "مُساعد غوغل" بأشياء لا تخبرها لزوجها. لو شعرنا بمزيد من الارتياح عند التحدث لأجهزتنا، ماذا سيحدث لزيجاتنا وصداقاتنا البشرية؟ وبفضل الاعتبارات التجارية، يصنع المصممون والمبرمجون عادة أجهزة تمنحنا شعورًا أفضل، لكنها ربما لا تساعدنا في إجراء تأمل ذاتي أو التفكير في الحقائق المؤلمة. نظرًا إلى نفاذ الذكاء الاصطناعي إلى نسيج حياتنا، فإنه يجب علينا مواجهة احتمال أن يُضعف هذا الذكاء الاصطناعي مشاعرنا ويعيق العلاقات البشرية العميقة، ما يجعل علاقاتنا مع بعضنا الآخر أقل تبادلية أو أكثر سطحية أو نرجسية.

يمكن لكل هذا في نهاية المطاف أن يغيّر شكل المجتمع بطريقة غير مقصودة. هل نرغب في أن تؤثر الآلات فيما إذا كان الأطفال لطفاء أم لا؟ هل نرغب في أن تؤثر الآلات في طريقة ممارسة البالغين للجنس؟

تعرب "كاثلين ريتشاردسون"، أخصائية علم الإنسان في جامعة "مانفورت" في المملكة المتحدة، عن قلقها العميق بشأن السؤال الأخير. وبصفتها مديرة جمعية "الحملة للمناهضة للروبوتات الجنسية"، فإنها تحذر من أن هذه الروبوتات ستنزع الإنسانية عن البشر وقد تدفع مستخدميها للابتعاد عن العلاقات الحميمية الحقيقية. لكن هناك مراقبين آخرين اقترحوا أن الروبوتات يمكنها تحسين الممارسة الجنسية بين البشر بطريقة جذرية، وفي كتابه الصادر عام 2007 بعنوان "الحب والجنس مع الروبوتات"، يُثني "ديفيد ليفي" بطل الشطرنج المتمرد الذي تحول إلى رجل أعمال على التداعيات الإيجابية لـ "الروبوتات الجذابة رومانسيًا والمرغوب بها جنسيًا"، ويشير "ديفيد" إلى أن بعض الناس سيفضلون الرفقاء الروبوتيين على الرفقاء البشريين (وهي نبوءة تؤيدها قصة الرجل الياباني الذي "تزوج" من مجسّم هولغرام يتحكم به الذكاء الاصطناعي في العام الماضي) كما أنه لن تكون الروبوتات الجنسية عرضة للأمراض المنقولة جنسيًا أو الحمل غير المرغوب به. كما يمكن لهذه الروبوتات أن تجعل البشر يخوضون تجارب وممارسات خالية من الإحساس بالعار، ما سيساعد البشر على أن يصبحوا "عشاقًا رائعين"؛ ولهذه الأسباب وغيرها، يعتقد "ليفي" أن الجنس مع الروبوتات سيُنظر إليه باعتباره أمرًا أخلاقيًا، وربما في بعض الحالات أمرًا متوقعًا.

لكن قبل أن يواجه معظمنا هذه المعضلات الحميمية التي سيخلقها الذكاء الاصطناعي، سيتعيّن علينا أن نكافح مع تحديات يومية أكثر اعتيادية. إذ بات عصر السيارات ذاتية القيادة يلوح أمامنا، وتعِد هذه السيارات بتقليل حالات الإجهاد وتشتت الانتباه التي يعاني منها السائقون البشريون بشكل كبير، ما سيمنع بالتالي وقوع الحوادث. لكن ما الآثار الأخرى المحتملة لهذه السيارات على الناس؟ إن قيادة السيارة هي نوع حديث جدًا للتفاعل الاجتماعي، وهي تتطلب مستويات مرتفعة من التعاون والتنسيق الاجتماعي. وأخشى من السيارات التي تعمل بدون سائق، عن طريق حرماننا من فرصة لممارسة هذه القدرات، أن تساهم ضعف هذه القدرات .

إن هذه السيارات ذاتية القيادة لن تكون مبرمجة فقط لتولّي مهام القيادة وبالتالي حرمان البشر من إصدار أحكام أخلاقية (على سبيل المثال، تحديد أي شخص من المشاة سيتم صدمه عندما يكون الاصطدام أمرًا لا مفر منه)، لكنها ستؤثر أيضًا على البشر الذين لا تتواصل معهم مباشرة. على سبيل المثال، قد يشعر السائقون الذين يقودون سياراتهم بجانب السيارات ذاتية القيادة التي تسير بسرعة ثابتة بالإغراء لقيادة سياراتهم باهتمام أقل، ما سيزيد بالتالي من احتمال وقوع حوادث بمجرد انتقالهم إلى جزء من الطريق السريع يشغله سائقون بشريون. على الجانب الآخر، ربما تكشف التجربة أن القيادة إلى جانب سيارات ذاتية القيادة تسير بانسجام تام مع قوانين المرور، تحسّن في الواقع من الأداء البشري. وفي كلتا الحالتين، سيكون من غير المسؤول إطلاق العنان لهذه الأشكال المختلفة للذكاء الصناعي من دون أخذ هذه التداعيات الاجتماعية أو لا في الاعتبار.

في عام 1985، وبعد مرور أربعة عقود على وضع "إسحاق آسيموف" لقوانينه الثلاثة المتعلقة بالروبوتات، أضاف قانونًا آخر لقائمته: لا ينبغي للروبوت مطلقًا أن يفعل شيئًا يؤذي البشرية، لكنه كافح مع طريقة تقييم هذا الأذى. كتب "آسيموف" لاحقًا أن "الكائن البشري هو شيء ملموس" وأضاف: " الضرر الذي يلحق بشخص يمكن تقييمه والحكم عليه، أما البشرية فهي شيء مجرد".

إن التركيز تحديدًا على التداعيات الاجتماعية يمكن أن يكون أمرًا مفيدًا، كما أن الآثار التي يتركها الذكاء الاصطناعي على المجالات الأخرى يمكن أن تؤدي لوضع قواعد وقوانين وتدعم المطالب المنادية بإنشاء آلية مراقبة ديمقراطية. وسواء كنا نتحدث عن تلويث شركة ما لإمدادات المياه أو قيام فرد بنشر دخان التبغ غير المباشر في مقر العمل، فإنه بمجرد أن تبدأ أفعال الناس في التأثير سلبًا على الآخرين، ربما يتدخل المجتمع. ولأن تأثيرات الذكاء الاصطناعي على التفاعل بين البشر ستكون قوية وواسعة النطاق، ونظرًا لسرعة التطورات، فإنه يتعيّن علينا إجراء تحقيق منهجي بشأن التأثيرات الجانبية التي قد تبرز، ومناقشة كيفية تنظيمها لخدمة المصلحة العامة.  
 
وبالفعل تتعاون مجموعة متنوعة من الباحثين والممارسين (علماء حاسوب ومهندسون وعلماء حيوان وعلماء اجتماعيين إلى جانب آخرين) لاستحداث مجال خاص ب "سلوك الآلة" آملين في وضع فهمنا للذكاء الصناعي على أساس نظري وتقني أمتن. لا ينظر هذا المجال للروبوتات فقط باعتبارها أشياءً من صنع الإنسان، ولكن بوصفها طبقة جديدة من الجهات الاجتماعية الفاعلة.  

والآن هناك حاجة ماسة لإجراء تحقيق بشأن الذكاء الاصطناعي، ففي المستقبل غير البعيد، ربما تُظهر الآلات المدعومة بالذكاء الاصطناعي، بفضل برمجتها أو تعلّمها المستقل، أشكالاً من الذكاء والسلوك قد تبدو غريبة بالمقارنة مع سلوكياتنا. سنحتاج لأن نميّز بسرعة بين السلوكيات التي تعد غريبة فحسب والسلوكيات التي تمثل خطرًا حقيقيًّا علينا.

وقد زعم فيلسوف عصر التنوير "توماس هوبيس" أن البشر كانوا بحاجة إلى اتفاق جماعي حتى يمنعوا أنفسهم من أن يكونوا فوضويين ومتوحشين، غير أنه كان مخطئًا. فقبل وقت طويل من إنشاء البشر للحكومات، زوّد التطوّر البشر بمجموعة من الصفات الاجتماعية التي مكّنتهم من العيش سويًا بصورة سلمية وناجعة. وفي عصر ما قبل الذكاء الاصطناعي، استمرت القدرات الموروثة جينيًا مثل الحب والصداقة والتعاون والتعليم في مساعدتنا على العيش في شكل جماعي.  

وللأسف، لا يملك البشر الوقت لتطوير قدرات فطرية مماثلة تمكّنهم من العيش مع الروبوتات؛ لهذا يجب علينا اتخاذ خطوات تضمن أن تعيش الروبوتات بصورة غير مدمّرة إلى جانبنا.  




للاطلاع على الموضوع الأصلى .. اضغط هنا



اضف تعليق