فورين بوليسي| نتائج عكسية.. كيف يمكن أن تتسبب تكنولوجيا السرعة فى انهيار الأسواق وهزيمة الجيوش؟


١٧ سبتمبر ٢٠١٨ - ٠٨:٤٩ ص بتوقيت جرينيتش

ترجمة - آية سيد




تتسابق الجيوش حول العالم من أجل بناء المزيد من الطائرات بدون طيار, والصواريخ, والأسلحة السيبرانية ذاتية التشغيل. يسمح التشغيل الذاتي بردود فعل أكثر سرعة في ميدان المعركة, وهي ميزة تتمتع بقوة اليوم مثلما فعلت منذ 2500 عام عندما كتب سون تزو: "السرعة هي جوهر الحرب." يمكن للآلات الذكية الحالية أن تتفاعل بسرعات فائقة. توقع أكاديميون عسكريون صينيون معاصرون حدوث "تفرد في ميدان المعركة," حيث ستتفوق وتيرة القتال على صنع القرار البشري.

إن عواقب تنازل البشر عن السيطرة الفعالة على ما يحدث في الحرب ستكون وخيمة ومن المحتمل أن تكون آثارها كارثية. في حين أن المزايا التنافسية المكتسبة من السماح للآلات بإدارة ميدان المعركة واضحة, إلا أن المخاطر ستكون جسيمة: قد تتسبب الحوادث في خروج الصراعات عن السيطرة.

فكروا في ما حدث بأسواق الأوراق المالية, حيث تستخدم أجهزة الكمبيوتر اللوغاريتمات لاتخاذ القرارات بسرعة كبيرة لدرجة أن الميكروثانية تصنع فرقًا بملايين الدولارات. هذا التداول أدرّ مبالغ مالية ضخمة على الوسطاء – لكنه تسبب أيضًا في انهيارات مفاجئة حادة والتي بإمكانها أن تجعل الأسواق تنهار في غضون دقائق. أدارت الجهات التنظيمية هذه المخاطر عن طريق تركيب قواطع دوائر والتي يمكنها أن تفصل سهم ما عن الإنترنت إذا كان السعر يتحرك بسرعة كبيرة, لكن ميادين المعركة تفتقد لأنظمة الأمان هذه. إن الانهيارات المفاجئة سيئة؛ والحرب المفاجئة ستكون كارثية بكل معاني الكلمة.

تنازل البشر بالفعل عن السيطرة للآلات في مجالات عسكرية معينة. 30 دولة على الأقل – بقيادة إسرائيل, وروسيا, والولايات المتحدة – توظف أسلحة ذاتية التشغيل تخضع للإشراف البشري من أجل الدفاع عن القواعد, والمركبات, والسفن. هذه المنظومات, مثل منظومة أيجيس القتالية, يمكنها الكشف عن الصواريخ القادمة وإذا لم يفعل المشرفون البشر شيئًا, سيكون الرد من تلقاء نفسها عبر إطلاق النار للتخلص من التهديد. هذه الردود التلقائية تسمح للمنظومات بالدفاع ضد ما يُعرف بالهجمات الساحقة, حيث يُطلق وابل من الصواريخ على هدف دون إخطار مسبق لدرجة أنه قد يهزم المشغلين البشر.

في الوقت الحالي, تُستخدم هذه الأسلحة ذاتية التشغيل فقط لحماية المنشآت أو المركبات المشغولة بالبشر. يُشرف هؤلاء البشر على عمل الأسلحة في الزمن الحقيقي ويمكنهم التدخل عند اللزوم، بيد أن الأسلحة ذاتية التشغيل المستقبلية قد تفتقر لهذه التدابير الاحترازية. يطور حاليًا عدد من الجيوش المتقدمة – من ضمنها جيوش الصين, وفرنسا, وإسرائيل, وروسيا, والمملكة المتحدة, والولايات المتحدة – طائرات الشبح المقاتلة بدون طيار المعدة لاختراق المجال الجوي للعدو. بمجرد تغلغلها في صفوف العدو, ربما تجد هذه الطائرات اتصالاتها مشوشة, لذلك تُصمم بطريقة تضمن أنها تواصل العمل من تلقاء نفسها.

لم توضح معظم الدول كيف ستعمل الطائرات بدون طيار في ظل هذه الظروف وما قواعد الاشتباك التي ستتبعها. قد تشترط الدول حصول طائراتها بدون طيار على إذن بشري قبل شن أي هجوم. إن فعل هذا سيسمح للطائرات بدون طيار بقصف أهداف ثابتة تمت الموافقة عليها مسبقًا لكنه سيتطلب منها العودة إلى مقراتها والحصول على تصريح قبل مهاجمة أية أهداف مُكتشفة حديثًا. يبدو هذا النهج جيدًا من الناحية النظرية, لكن المشكلة هي أنه في الوقت الحالي الكثير من الأهداف ذات الأولوية القصوى, مثل منظومات الدفاع الجوي وقاذفات الصواريخ الباليستية, متحركة بدرجة كبيرة. هذا التحرك سوف يغري المخططين العسكريين لتفويض سلطة اتخاذ القرار للآلات, حيث إن فعل هذا قد يمنحهم ميزة في زمن الرد.

لا يوجد ميدان معركة ساكن, والقدرة على الرد بسرعة على بيئة متحركة ضرورية من أجل نجاح المهمة – سواء في الجو, أو على الأرض, أو في الفضاء السيبراني. يُسمي خبراء القتال الجوي الاستراتيجيون هذا بحلقة (المراقبة, والتوجيه, واتخاذ القرار, والتصرف) في المعارك الجوية. في النموذج القتالي لهذه الحلقة, يربح الطيارون المعارك الجوية؛ ليس لأنهم يتمتعون بأفضل المعدات بل لأنهم يقيمون ويتفاعلون مع المواقف أسرع من خصومهم, على الرغم من أن أجهزة الاستشعار والقدرة على المناورة الأفضل ربما تساعد في تقليل زمن الرد. وحيث إن الآلات يمكنها الرد أسرع من البشر, سوف يوفر التشغيل الآلي مزايا هائلة في هذه المنافسة. هذا يعني أن نفس الضغوط التنافسية التي أدت إلى إنشاء منظومات مثل أيجيس قد تُطرح على نطاق أوسع.

يستطيع الجيش الذي دمج أنظمة التشغيل الذاتي بشكل كامل أن يبقى دائمًا متقدمًا بخطوة على عدوه في القتال وأن يشكّل تهديدًا متغيرًا باستمرار. مثلما أخبر الجنرال بول سيلفا, نائب رئيس هيئة الأركان المشتركة الأمريكية, لجنة القوات المسلحة بمجلس الشيوخ في يوليو 2017, "إنه شيء مذهل عندما ينظر المرء للقدرات التي يستطيع الذكاء الاصطناعي تحقيقها في سرعة ودقة القيادة والسيطرة والقدرات التي قد تجلبها الروبوتات المتقدمة إلى ميدان المعركة المعقد, لا سيما التفاعل على مستوى الآلات في الفضاء والفضاء السيبراني, حيث تكون السرعة أهم شيء."

مع هذا, السرعة ليست جيدة بصورة خالصة. إن القوات التي ترد على العدو بسرعة كبيرة لدرجة أن قائدها لا يفهم ماذا يحدث قد تخاطر بحدوث انهيار في القيادة والسيطرة, وهي مشكلة صارع معها القادة العسكريون لآلاف السنين. اليوم, حلت رسائل البريد الإلكتروني والمحادثات محل الخيل والأعلام, لكن المشكلة الأساسية مستمرة. تواجه الجيوش هذا الخلاف المتأصل بين الأوامر من أعلى والحقيقة على الأرض بمفهوم يُعرف بقصد القائد: بيانات مقتضبة موجهة نحو الهدف تُصدر للمرؤوسين والتي تشرح الهدف المرجو لمهمة معينة, وبالتالي تضمن التزامهم بالخطة العامة, وتتيح لهم أيضًا المرونة للتكيف مع الأحداث على الأرض. هذه البيانات تمنع القوات من أن تصبح قابلة للتنبؤ وتمنح المرؤوسين الحرية للتغلب على العقبات بطرق مبتكرة.  

المشكلة هي أن الأنظمة آلية التشغيل – على الأقل تلك التي تستخدم التكنولوجيا الحالية – تتجه لأن تكون هشة. الآلات جيدة في التعامل مع المهام الروتينية في الظروف المتوقعة, مثل تسيير طائرة تجارية. لكن التشغيل الآلي قد يفشل فشلًا كبيرًا في بعض الأحيان في المواقف الجديدة, وهو سبب رئيس وراء أن السيارات ذاتية القيادة, التي يجب أن تتعامل مع بيئات متحركة وخارجة عن السيطرة بشدة, أثبتت أنها من الصعب تطويرها عن الطائرات ذاتية القيادة.

تُظهر أنظمة التعلم, التي تركز على مجموعة من القواعد لمعالجة ودمج البيانات إلى سلوك بدلًا من تعليمات صارمة, مرونة أكبر لكنها لا تزال محدودة بنوعية المعلومات. يمكن أن يفشل التعلم الآلي إذا أثبت العالم الحقيقي أنه مختلف عن نماذج التدريب – وهي مشكلة كبرى في السياق العسكري, حيث من المستبعد أن يوفر الخصوم سهولة الوصول إلى تكتيكاتهم ومعداتهم. إن الذكاء البشري قوي وقابل للتكيف بطرق لا يقدر عليها الذكاء الآلي – حتى الآن. وهكذا ستصبح الجيوش الأكثر فاعلية هي تلك التي تجد طرقًا لدمج الذكاء البشري والآلي بنجاح في أنظمة معرفية مشتركة – وهو نهج يسميه محللو الدفاع "نهج القنطور الحربي."

بالرغم من المزايا التي يتمتع بها البشر في عملية اتخاذ القرار, غير أن سباق التسلح في السرعة ربما يدفع البشر ببطء إلى خارج حلقة  (المراقبة, والتوجيه, واتخاذ القرار, والتصرف). من غير المرجح أن تنشر الجيوش عن سابق معرفة أسلحة لا يمكنها التحكم بها, لكن الحرب بيئة محفوفة بالمخاطر وتتطلب موازنة المخاطر المتنافسة. عند مواجهة الاختيار بين التخلف عن الخصم أو نشر سلاح جديد لم يتم اختباره بشكل كامل, من المرجح أن تفعل الجيوش ما يجب عليها فعله لكي تجاري أعداءها.

مثلما ذكرنا بالأعلى, تداول الأسهم الآلي يقدم نافذة مفيدة لفهم مخاطر هذه الحركية. في 2010, خسر مؤشر داو جونز الصناعي حوالي 10% من قيمته في غضون دقائق. والسبب؟ تغير مفاجئ في أسعار السوق مدفوع جزئيًا بتداول آلي, أو ما بات معروفًا بالانهيار المفاجئ.

في العقد الماضي, بدأت الأسواق المالية في التعرض لهذه الانهيارات, أو على الأقل نسخ مصغرة منها, بصفة دورية. إن قواطع الدوائر التي وضعتها الجهات التنظيمية لسحب الأسهم من الإنترنت لا تستطيع منع وقوع الحوادث, لكنها تستطيع منع الانهيارات المفاجئة من الخروج عن السيطرة. مع هذا, لا تزال قواطع الدوائر تتعثر بانتظام, وفي 24 أغسطس 2015, توقف أكثر من 1200 منها عن العمل في تبادلات متعددة بعد أن خفضت الصين من قيمة اليوان فجأة.

في البيئات التنافسية مثل أسواق البورصة وميادين المعركة, التفاعلات غير المتوقعة بين اللوغاريتمات أمر طبيعي. لا تزال أسباب الانهيار المفاجئ لعام 2010 محل خلاف. في كل الاحتمالات, كانت هناك مجموعة من الأسباب, من ضمنها تفاعل لوغاريتم بيع آلي مع تقلبات السوق الحادة, التي تفاقمت بسبب التداول المتكرر والغش المتعمد للوغاريتمات التداول. من أجل منع النظير العسكري لتلك الأزمات, حيث تصبح الأسلحة ذاتية التشغيل محاصرة في سلسلة من الاشتباكات المتصاعدة, سيتعين على الدول الموازنة بين مزايا السرعة ومخاطر وقوع الحوادث. مع هذا, ستجعل المنافسة المتزايدة ذلك التوازن أكثر صعوبة. في 2016, أوجز روبرت ورك, نائب وزير الدفاع الأمريكي في ذلك الوقت, المشكلة على النحو التالي: "إذا اتجه منافسونا إلى المدمرين (تيرميناتورز), واتضح أن المدمرين يستطيعون اتخاذ القرارات أسرع, حتى لو كانت سيئة, كيف سنرد؟"

مرة أخرى, تُظهر أسواق البورصة مدى أهمية أن تجيب الدول على هذا السؤال بالطريقة المناسبة. في 2012, تسببت حادثة تداول قائمة على اللوغاريتمات في إفلاس شركة نايت كابيتال جروب. تسبب خلل فني في تحديث روتيني للنظام في أن تبدأ حواسيب الشركة بتنفيذ مجموعة من التداولات الخاطئة السريعة, بقيمة 2,6 مليون دولار في الثانية. في الوقت الذي تولت فيه الشركة زمام اللوغاريتم الجامح, كانت الآلات قد نفذت 4 مليون تداول بخسارة صافية تساوي 460 مليون دولار – أكثر من أصول الشركة كلها. ومن أجل إعطاء إحساس بحجم المسألة: في 1994, استغرق الأمر أكثر من عامين من الخداع لكي يستطيع المضارب المحتال نيك ليسون إفلاس بنك بارينجز. في الحادثة التي أصبحت معروفة بكابوس وول ستريت, نجحت آلة في إلحاق نفس الضرر في غضون 45 دقيقة. في تلك الحالة, على الرغم من تدمير الشركة, لم تكن هناك خسارة في الأرواح. السلاح ذاتي التشغيل الجامح سيكون أكثر خطورة بكثير.

تشير حوادث العالم الحقيقي التي تنطوي على أسلحة آلية التشغيل إلى هذه المخاطر. خلال الغزو الأول للعراق في 2003, أسقطت منظومة باتريوت الدفاعية الأمريكية طائرتين صديقتين بالخطأ؛ ما تسبب في مقتل ثلاثة أفراد من القوات الحليفة. كانت الحادثة الأولى بسبب حشد من العوامل: عيب معروف تسبب في أن يعرّف الرادار طائرة هابطة على أنها صاروخ, ومعدات قديمة, وخطأ بشري.

الحادثة الثانية كانت بسبب موقف لم يظهر من قبل. أثناء الزحف المحموم إلى بغداد, نشر مشغلو باتريوت راداراتهم بتشكيلة غير اعتيادية والتي نتج عنها تداخل كهرومغناطيسي بين الرادارات؛ ما تسبب في ظاهرة "الأثر الشبح" – وهي إشارة على الرادارات عن صاروخ ليس موجودًا. كانت بطارية الصواريخ في وضع التشغيل التلقائي وأطلقت صواريخ على الأثر الشبح, ولم يوقفها أحد. تصادف وجود مقاتلة إف-18 في المكان الخطأ في الوقت الخطأ. كانت الحادثتان مصادفة تسببت بهما ظروف فريدة من نوعها – لكن لم يكن هناك مفر منها من الناحية الإحصائية. شنت طائرات التحالف 41 ألف غارة في المراحل الأولية من حرب العراق, وفي ظل وجود أكثر من 60 بطارية باتريوت في المنطقة, كانت هناك الملايين من التفاعلات المحتملة, ما رفع من خطر وقوع الحوادث ضعيفة الاحتمال على نحو خطير.

قال ريتشارد دانزيج, الأمين العام للبحرية الأمريكية سابقًا, إن البيروقراطيات تقلل بصورة منهجية من قدر خطر وقوع الحوادث الذي تشكّله أسلحتها. إنها مشكلة أيضًا أنه من شبه المستحيل اختبار الأداء الفعلي لمنظومة ما بشكل كامل خارج الحرب. في غزو العراق, كان لهذه الحوادث عواقب مأساوية لكنها لم تغيّر مسار الحرب. إن الحوادث التي تنطوي على أسلحة ذاتية التشغيل بصورة كاملة، حيث لا يستطيع البشر التدخل، قد يكون لها نتائج أسوأ بكثير, متسببة في قتال بين الأصدقاء, أو خسائر مدنية, أو حتى هجمات غير مقصودة على الأعداء.

إن محاولات الحد من التسلح تعود إلى العصور القديمة, بداية من تحريم الإنجيل لتدمير البيئة الوحشي في سفر التثنية، إلى قوانين مانو الهندية التي حرمت الأسلحة الشائكة, أو المسممة, أو المخبأة. في القرون المنصرمة, نجحت بعض الجهود الرامية إلى منع أو تنظيم أسلحة معينة, مثل الأسلحة الكيميائية أو البيولوجية, أو الليزر المسبب للعمى, أو الألغام الأرضية, أو الذخائر العنقودية, أو استخدام البيئة كسلاح, أو وضع أسلحة في الفضاء, أو بعض آليات تنفيذ أو وضعيات نشر الأسلحة النووية. فشلت الكثير من المحاولات الأخرى للحد من التسلح, بداية من المراسيم الباباوية التي تشجب استخدام القوس المستعرض في العصور الوسطى إلى محاولات القرن العشرين لمنع الهجمات الجوية على المدن, أو تنظيم حرب الغواصات, أو القضاء على الأسلحة النووية. بدأت الأمم المتحدة مجموعة من الاجتماعات في 2014 لمناقشة مخاطر الأسلحة ذاتية التشغيل. لكن حتى الآن كان التقدم أبطأ بكثير من وتيرة التطورات التكنولوجية.

على الرغم من غياب النجاح, بدأ عدد متزايد من الأصوات في المطالبة بحظر الأسلحة ذاتية التشغيل. منذ 2013, انضمت 76 منظمة غير حكومية من 32 دولة إلى "حملة وقف الروبوتات القاتلة" العالمية. حتى يومنا هذا, وّقع حوالي 4 آلاف باحث في الذكاء الاصطناعي والروبوتات على خطاب مفتوح يدعو لفرض الحظر. صرحت أكثر من 25 حكومة وطنية أنها تؤيد الحظر, على الرغم من أنه ليس من بينها واحدة من القوى العسكرية الكبرى أو مطوري الروبوتات. لكن هذه الإجراءات تتجه للنجاح فقط عندما تكون الأسلحة المعنية ذات قيمة هامشية, أو يُنظر لها على أنها مروعة أو مزعزعة للاستقرار على نحو خاص, أو مملوكة فقط لجهات فاعلة قليلة, أو مميزة بشكل واضح عن الأسلحة الأخرى, أو يمكن تفتيشها بسهولة للتحقق من نزع السلاح. لا تنطبق أي من هذه الشروط على الأسلحة ذاتية التشغيل.

حتى لو اتفقت كل الدول على الحاجة لكبح هذه الفئة من الأسلحة, فإن الخوف مما قد يفعله الآخرون والعجز عن التحقق من نزع السلاح قد يشعلان سباق تسلح. إن القواعد التنظيمية الأقل طموحًا قد تحقق نتائج أفضل, مثل الحظر المحدود على الأسلحة ذاتية التشغيل المضادة للأفراد, أو مجموعة من القواعد للتفاعلات بين الأسلحة ذاتية التشغيل, أو مبدأ شامل للمشاركة البشرية في القوة القاتلة. في حين أن هذه الجهود المتواضعة ربما تخفف من حدة بعض المخاطر, إلا أنها ستترك الدول حرة لتطوير أنواع كثيرة من الأسلحة ذاتية التشغيل والتي قد تؤدي إلى ضرر واسع الانتشار.

تقف الإنسانية على مستهل عصر جديد في الحرب, حيث ستتخذ الآلات القرارات المصيرية بسرعات كبيرة جدًا على الفهم البشري. إن مخاطر هذا العالم حقيقية وعميقة. قد تؤدي الأسلحة ذاتية التشغيل إلى الموت والخراب العرضي على نطاقات كارثية في لحظة. إن السعي غير المقيد وراء الأسلحة ذاتية التشغيل بشكل كامل قد يؤدي إلى مستقبل حيث يتنازل البشر عن السيطرة على ما يحدث في ميدان المعركة, لكن القرارات الحاسمة حول كيفية استخدام هذه التكنولوجيا لا تزال في أيدي البشر.



للاطلاع على الموضوع الأصلى .. اضغط هنا



اضف تعليق