«الخوارزميات تتخذ القرار».. إشكالات أخلاقيّة بشأن استخدام إسرائيل الذكاء الاصطناعي في غزة

إشكالات أخلاقيّة بعد استخدام إسرائيل الذكاء الاصطناعي في غزة

محمد النحاس

من منظور أخلاقي، يطرح البعض أن السماح لخوارزمية بتحديد من يجب أن يعيش ومن يجب أن يموت في سيناريو معين تعني أنه جرى "تشييء الإنسان". ويذكر تقرير من هيومن رايتس ووتش أن "الأسلحة ذاتية التحكم الكاملة يمكن أن تقوض مبدأ الكرامة"


بعد نحو 6 أسابيع من شن إسرائيل حربها على قطاع غزة، وتحديدًا في أواخر نوفمبر 2023، نشرت مجلة “972+” الإسرائيلية اليسارية تحقيقًا مطولًا بعنوان “آلة القتال الجماعي.. تفاصيل القصف الإسرائيلي الموجه على غزة”.

التحقيق الذي أعده الصحفي البارز يوفال أبراهام، يصف حملة القصف الجماعي التي نفذها الجيش الإسرائيلي بمساعدة أنظمة الذكاء الاصطناعي الجديدة، مثل نظام حبسورة (أي الإنجيل)، والذي مكّن قوات الاحتلال من 100 هدف للهجوم في اليوم الواحد، في خضم الحرب المستمرة على قطاع غزة، وفق ما نقل مقال مطوّل لمجلة “تيك بوليسي”.

الذكاء الاصطناعي “آلة للقتل”

استدراكًا لتحقيقه الأول، نشر أبراهام في أبريل 2024 تقريرًا أكثر تفصيلًا يناقش نظامين إضافيين يستخدمهما الجيش الإسرائيلي، هما “لافندر” و”ويير إز دادي” أو (أين أبي؟).

أما التقرير الثاني، يستند إلى مقابلات أجريت مع مطلعين استخدموا هذه الأنظمة في الحرب على غزة، ما يعطي صورة موسعة عن كيفية تنفيذ الجيش الإسرائيلي هجماته على القطاع، وتنفيذ “سلسلة القتل”، وهي عملية تبدأ بتحديد هدف لهجوم محتمل، وتنتهي بالقضاء على هذا الهدف.

وتوفر تحقيقات أبراهام معلومات مُفصلة بشأن نظام “لافندر”، الذي يُقال إن الجيش الإسرائيلي يستخدمه لتحديد “مستوى الخطورة”، أي تقييم ما إذا كان العنصر محل الاستهداف عضوًا بمجموعات المقاومة الفلسطينية.

تصور قاتم

يصف أبراهام كيف يُقال إن “لافندر” “سجل ما يصل إلى 37 ألف فلسطيني كمشتبه بهم كعناصر مسلحة”.

في إطار ذلك، يحاول مقال “تيك بوليسي” تقديم تحليل أخلاقي لاستخدام أنظمة التوصية بالذكاء الاصطناعي في الحرب، باستخدام “لافندر” كدراسة حالة.

يورد المقال بدايةً إشارة مهمة، حيث يلفت إلى أن تحقيقات أبراهام ترسم صورة قاتمة ومروعة عن الطريقة المدمرة التي استخدم بها الجيش الإسرائيلي الذكاء الاصطناعي في غزة، وحتى لو يمكن طرح أبراهام دقيقًا، كما زعم الجيش الإسرائيلي، فإن تحقيقاته تقدم تصورًا مرعبًا لما يمكن أن تكون عليه الحروب الحديثة، مع اعتماد الجيوش على أنظمة الذكاء الاصطناعي في المستقبل القريب.

أخلاقيات الروبوتات الفتاكة

النقاش بشأن أخلاقية استخدام أنظمة الذكاء الاصطناعي في الحرب لم يبدأ في غزة، بل هناك جهد دولي واسع النطاق لوقف “الروبوتات القاتلة” (ذاتية التحكم) LAWS مستمر منذ 2013.

قد يثير مصطلح “الروبوتات القاتلة” صورة أرنولد شوارزنيجر في فيلم “ذا ترمنايتور” (حيث تشبه الروبوتات البشر)، لكن في الواقع فإن الأمر ليس كذلك، وتكون الروبوتات الفتاكة ذاتية التحكم على شكل طائرات بدون طيار، أو ذخائر “متسكعة” تمتلك القدرة التكنولوجية لاختيار الهدف والانخراط في هجوم دون تدخل مشرف.

كل ذلك يطرح مخاوف جادة وأسئلة أخلاقية، أبرزها:

  • غياب إمكانية تقنين الضوابط الأخلاقية
  • فجوات المسؤولية
  • التشييء

هل يمكن تقنين الأخلاق؟

بدايةً، تعود أطروحة عدم قابلية تقنين الأخلاق إلى الفيلسوف جون مكدويل، الذي يطرح غياب إمكانية تقنين النظرية الأخلاقية الصحيحة من حيث المبادئ والقواعد البسيطة ومن ثم لن يتمكن أي نظام اصطناعي من تحقيق القدرة الأخلاقية لفهم ما هو العمل الصحيح في موقف معين، عند تطبيق هذا على السياق العسكري، فإن الحجة هي أن الحرب فوضوية وصعبة الفهم وتتطلب الحكم ومهارات الارتجال.

جرّاء ذلك، لا يمكن ضمان أن تصرفات نظام الربوتات الفتاكة أو (الأسلحة ذاتية التحكم الفتاكة) لن تنتهك القوانين الإنسانية الدولية، على سبيل المثال، هناك مبادئ جوهرية في القانون الإنساني الدولي، على شاكلة مبدئي التمييز والتناسب، تعني هذه المبادئ أنه قبل اتخاذ أي قرار في القتال، يجب علينا “التمييز” بين المقاتلين والمدنيين، وضمان أن يكون هجومنا، والأضرار الناتجة عنه، متناسبًا مع الجدوى العسكرية والفائدة المُكتسبة.

لكن هذه المبادىء تحوي قدرًا من الغموض والضبابية، هل يجب اعتبار الصبي الذي يحمل (سكين احتفالي) مقاتلًا مسلحًا؟ ماذا عن الفتاة الصغيرة التي تبلغ عن مواقع الجنود عبر الهاتف المحمول؟ هل يبرر قتل متمرد واحد “الأضرار الجانبية” التي تلحق بخمسة من أفراد أسرته؟ هذه مجرد أمثلة قليلة تحاول تأكيد صعوبة ضمان أن تفي الأنشطة العسكرية بمعايير القانون الإنساني الدولي.

28israel9

من المسؤول؟

أما فجوات المسؤولة، فتتعلق بقضية المسؤولية عن أي نتيجة خاطئة لهجوم عسكري.

عندما يرتكب جنديًا جريمة حرب أو عندما يصدر قائد أمرًا غير قانوني، نعرف ببساطة من يجب أن يُحاسب أخلاقيًا وقانونيًا، لكن عندما تؤدي تصرفات نظام اصطناعي إلى نتائج غير مقصودة، قد لا نكون في وضع يسمح لنا بمحاسبة أي شخص.

يُشار إلى هذا التحدي غالبًا بإشكالية “الأيدي المتعددة” التي تطرح عدم مسؤولية أي جهة عن أفعال الذكاء الاصطناعي، نظرًا لانخراط العديد من الجهات في تصميم وصيانة أنظمة الروبوتات، فلن يكون لأي جهة واحدة إسهام كاف في الفعل لتحمل المسؤولية.

على سبيل المثال، إذا اصطدمت طائرة انتحارية ذاتية التحكم عمدًا بحافلة مدرسية، ما أسفر عن مقتل 20 طفلًا، قد نشعر بأن شخصًا ما يجب أن يتحمل المسؤولية عن هذه المأساة، ولكن من؟ فلن يتمكن مُصمم النموذج من التنبؤ بأن النظام ذاتي التعلّم سيولد قاعدة غير متوقعة أدت إلى تعرف النظام على الحافلة المدرسية كهدف مشروع؛ قانونيًا، ربما نتمكن من تحديد أن بعض الجهات مسؤولة عن مثل هذه الحالات، ولكن أخلاقيًا، يبدو أننا نواجه “مأساة بلا جاني”.

نزع “الأنسنة”

أخيرًا إشكالية التشييء.. ومن منظور أخلاقي يطرح البعض أن السماح لخوارزمية بتحديد من يجب أن يعيش ومن يموت في سيناريو معين تعني أنه جرى “تشييء الإنسان”، ويذكر تقرير من “هيومن رايتس ووتش” أن “الأسلحة ذاتية التحكم الكاملة يمكن أن تقوض مبدأ الكرامة بصفتها آلات غير حية، لا يمكن للأسلحة ذاتية التحكم أن تفهم حقًا قيمة الحياة الفردية أو خطورة فقدانها”.

وفق المقال، يتحدث بعض منظري الأخلاق في الحروب الحديثة، عن أن هذه الأنظمة “تتعامل مع الأعداء كأنهم حشرات، كما لو يمكن القضاء عليهم بدون اعتبار أخلاقي على الإطلاق”.

بطبيعة الحال، تنضوي هذه الأفكار تحت إطار أخلاقي، مفاده أنه حتى في خضم الحروب، هناك قواعد تؤطر لنا ما هو مقبول أخلاقيًا وما هو غير مقبول، وأن حتى أعدائنا لديهم حقوق أساسية يجب على الحكومات احترامها.

هل يمكن التغلب على الاعتراضات؟

بناءً على الاعتراضات الثلاثة ضد استخدام أنظمة الروبوتات الفتاكة أو القاتلة ذاتية التحكم  LAWS، هل يمكن لأنظمة التوصية مثل “لافندر” (تعني التوصية وجود موافقة بشرية تصدق على خيارات النظام الآلي) تجنب أي من هذه الإشكالات الأخلاقية؟

يرى المقال أن الأمر يتعلق بطبيعة النظام والدور، الذي يلعبه العامل البشري ومدى انخراطه، أو حتى غياب العنصر البشري، في عملية اتخاذ القرار، وفي دراسة سابقة عن ذات الموضوع يناقش دانيل أموروسو وجولييلمو تامبوريني معايير يجب الإيفاء بها لتحقيق هذا النوع من السيطرة، وفقًا لنظريتهم، يجب أن يحتفظ العامل البشري بأدوار الشخص موضع المسائلة، والوكيل الأخلاقي، والتوصية البشرية.

من الناحية النظرية، يمكن لنظام التوصية تحقيق هذه المعايير، لأن المحللين يمكنهم رفض التوصيات غير المطابقة لمتطلبات القانون الدولي الإنساني، لكن تجارب استخدام أنظمة التوصية مثل “لافندر” في الحرب على غزة تظهر عكس ذلك.

لافندر في حرب غزة

خلال المراحل الأولى من الحرب، اعتمد الجيش الإسرائيلي بشكل كبير على “لافندر” دون فحص دقيق للقرارات، حيث أشار أحد المصادر إلى أن الضباط كانوا مجرد “مُصدّق” على قرارات الآلة، ما أدى إلى فقدان الشعور بالمسؤولية بسبب الانحياز التلقائي، حيث يميل البشر إلى قبول مخرجات الأنظمة الآلية دون تفكير نقدي، وعلاوة على ذلك، يخلق التعقيد في الأنظمة القائمة على التعلم الآلي مشكلة “الصندوق الأسود”، حيث يصعب فهم كيفية وصول النظام إلى قرارات معينة، ما يعيق المساءلة ويجعل من الصعب الاعتراض على مخرجات النظام.

وأظهرت فحوصات داخلية أن دقة “لافندر” تصل إلى 90% فقط، مما يعني أن 10% من الأهداف المميزة كانت خاطئة، أي إذا حدد “لافندر” 37 ألف هدف، فإن 3,700 شخص كانوا مستهدفين بشكل خاطئ، بالإضافة إلى ذلك، يُستخدم “لافندر” لتقييم المخاطر عبر جمع بيانات ضخمة وتحليلها، ما يخلق تمثيلات مشوهة للواقع، علاوةً على ذلك لدى النظام بيانات غير دقيقة لتحديد من هو العضو في حماس.

بناءً على كل هذا، يصل المقال لنتجية مفادها أن أنظمة التوصية العسكرية مثل “لافندر” تقوّض القرارات البشرية وتحول الحروب إلى عمليات حسابية بحتة، ما يؤدي إلى تجريد العملية برمتها من الإنسانية، ويُعرض حياة الأبرياء للخطر دون مساءلة حقيقية.

ربما يعجبك أيضا