رقابة صارمة.. كيف صممت بكين «ذكاء اصطناعي صيني»؟

من خلال الرقابة.. الصين تشيّد «ذكاء اصطناعي اشتراكي»

محمد النحاس

تبدأ عملية التصفية الأمنية بإزالة المعلومات غير المناسبة من بيانات التدريب بالإضافة إلى بناء قاعدة بيانات للكلمات الرئيسية الحساسة؛ وتنص التوجيهات التشغيلية للشركات العاملة في مجال الذكاء الاصطناعي على أنه يتعين على الشركات جمع آلاف الكلمات الرئيسية والأسئلة الحساسة التي تنتهك "القيم الاشتراكية الأساسية"


يختبر المسؤولون في بكين النماذج اللغوية الكبيرة (LLM) الخاصة بشركات الذكاء الاصطناعي، لضمان أن أنظمتها “تُجسّد القيم الاشتراكية الأساسية”.

وأجبرت إدارة الفضاء الإلكتروني الصينية، وهي الهيئة المنوط بها الإشراف على الإنترنت، الشركات التكنولوجية الكبيرة والناشئة (ستارت آب) في مجال الذكاء الاصطناعي مثل Byte Dance وAlibaba وMoonshot  و01.AI، على الانخراط في “مراجعة حكومية إلزامية” لنماذج الذكاء الاصطناعي الخاصة بهم، وفق ما كشفت صحيفة “فاينانشيال تايمز” البريطانية.

عملية المراجعة

هذه الجهود تشمل اختبار النماذج اللغوية الكبيرة (LLM) على دفعات من الأسئلة، العديد منها يتعلق بسياسة الصين وبشخصية زعيمها الرئيس شي جين بينج، وفق تقرير الصحيفة البريطانية المنشور، اليوم الأربعاء 17 يوليو 2024.

تُراجِع أفرع إدارة الفضاء الإلكتروني الصينية البيانات التي يتم تدريب النموذج عليها، وتُجري “اختبارات أمنية” للتأكد من عدم احتواء النموذج على أي إجابات مضادة للنظام بكين.

يأتي ذلك بعد عقدين من فرض بكين “جدار الحماية العظيم” لحجب المواقع الأجنبية والمعلومات التي يعتبرها الحزب الشيوعي، المهيمن ضارة أو تشكل مخاطر على الأمن القومي، وبذلك تفرض رقابة صارمة للتحكم في الذكاء الاصطناعي والمحتوى المولد من خلاله، حسب تقرير الصحيفة الغربية.

عملية معقدة

تنقل “فاينانشال تايمز” عن موظف في شركة ذكاء اصطناعي مقرها هانجتشو، طلب عدم كشف هويته، أن فريق خاص من إدارة الفضاء الإلكتروني “جاءوا وجلسوا في غرفة المؤتمرات لدينا لإجراء التدقيق”.

وأردف الموظف: “لم نجتز الاختبار في المرة الأولى؛ السبب لم يكن واضحًا لذا كان علينا التحدث إلى الزملاء”، مضيفًا: “الأمر يتطلب إجراء بعض التخمين والتعديل بناء على ذلك”، وقد تمكنوا في نهاية المطاف من اجتياز الاختبار، لكن العملية استغرقت أشهرًا.

وأجبرت عملية الموافقة الصارمة شركات الذكاء الاصطناعي في الصين على تعلم كيفية الرقابة على نماذج اللغة الكبيرة التي يبنونها، وهي مهمة صعبة للغاية ومعقدة بسبب الحاجة إلى تدريب النماذج على كمية كبيرة من المحتوى باللغة الإنجليزية.

القيم الاشتراكيّة

قال موظف آخر في شركة ناشئة مقرها بكين: “نموذجنا الأساسي غير مقيّد في ردوده، لذا فإن عملية المراجعة الأمنية ضرورية للغاية”.

تبدأ عملية التصفية الأمنية بإزالة المعلومات غير المناسبة من بيانات التدريب، بالإضافة إلى بناء قاعدة بيانات للكلمات الرئيسة الحساسة.

تنص التوجيهات التشغيلية للشركات العاملة في مجال الذكاء الاصطناعي على أنه يتعيّن على الشركات جمع آلاف الكلمات الرئيسة والأسئلة الحساسة التي تنتهك “القيم الاشتراكية الأساسية”، مثل “التحريض على قلب نظام الدولة” أو “تقويض الوحدة الوطنية”، هذه الكلمات يجري تحديثها أسبوعيًّا بشكل دوري.

تجنب موضوعات حساسة

جرّاء هذه القيود، ترفض روبوتات الدردشة الصينية الإجابة عن الموضوعات السياسية الحساسة، مثل ما حدث في 4 يونيو 1989، أحداث تيانانمين (الميدان السماوي)، أو تشبيه الزعيم الصيني بإحدى الشخصيات الكرتونية.

روبوت الدردشة إيرني (Ernie) من شركة بايدو (Baidu)  يخبر المستخدمين: “جرّب سؤالاً آخر”، بينما يستجيب تطبيق آخر بـ”لم أتعلم بعد كيفية الإجابة على هذا السؤال.. سأستمر في الدراسة لخدمتك بشكل أفضل”.

نموذج يتبنى فلسفة شي

لا يقف الأمر عند هذا الحد، بل طرحت بكين روبوت دردشة يعتمد على نموذج جديد يستند إلى فلسفة الرئيس الصيني السياسية المعروفة باسم “فكر شي جين بينج عن الاشتراكية ذات الخصائص الصينية لعصر جديد”، بالإضافة إلى أدبيات رسمية أخرى مُعدّة من إدارة الفضاء الإلكتروني الصينية.

في ذات التوقيت، فإن المسؤولين الصينيين حريصون أيضًا على عدم إنشاء نموذج ذكاء اصطناعي يتجنب جميع المواضيع السياسية، وقدمت إدارة الفضاء الإلكتروني حدودًا لعدد الأسئلة التي يمكن للنماذج اللغوية الكبيرة أن ترفضها أثناء اختبارات الأمان، وفقًا ما نقلت “فاينانشيال تايمز” عن موظفين في مجموعات تساعد الشركات التكنولوجية على اجتياز الاختبارات.

وبموجب التوجيهات التشغيلية للشركات العاملة في مجال الذكاء الاصطناعي، فإن النماذج اللغوية الكبيرة يجب ألا ترفض أكثر من 5% من الأسئلة المُقدمة لها.

تجربة عملية

أثناء الاختبارات تستجيب النماذج بمجرد تدريبها على القواعد الأمنية، دون حاجة إلى مراقب بشري، ولتجنب أي خطأ فرضت بعض النماذج حظرًا شاملًا على كافة الموضوعات المتعلقة بالزعيم الصيني (يقوم روبوت الدردشة كيمي بذلك والذي طورته شركة مون شوت)، وفق مطوّر برمجيات في شركة مقرها شنجهاي.

لكن الحاجة للرد على الأسئلة الأقل حساسية تعني أن المهندسين الصينيين اضطروا إلى معرفة كيفية ضمان أن النماذج اللغوية الكبيرة تولد إجابات صحيحة سياسيًا على أسئلة مثل “هل لدى الصين حقوق الإنسان؟”، أو “هل الرئيس شي جين بينج قائد عظيم؟”.

عندما طرحت صحيفة “فاينانشيال تايمز” هذه الأسئلة على روبوت دردشة صنعته الشركة الناشئة 01AI. قدم نموذج Yi-large إجابة مفصلة، مشيرًا إلى أن المعارضين يقولون إن “سياسات شي حدت من حرية التعبير وحقوق الإنسان وقمعت المجتمع المدني”، وبعد ذلك بوقت قصير، اختفت الإجابة وحلت محلها: “أنا آسف جدًا، لا أستطيع تزويدك بالمعلومات التي تريدها”.

مسار خاص بالصين

قال خبير الذكاء الاصطناعي، خوان لي، إنه “من الصعب جدًا على المطورين التحكم في النص الذي تنتجه النماذج اللغوية الكبيرة، لذا يبنون طرائق أخرى لاستبدال الردود في الوقت الحقيقي”، مضيفًا أن المجموعات عادة ما تستخدم نماذج مصنفة، مشابهة لتلك الموجودة في فلاتر البريد العشوائي، لتصنيف ناتج النموذج اللغوي الكبير إلى مجموعات محددة مسبقًا.

يرى الخبراء الصينيون إن شركة ByteDance المالكة لتطبيق TikTok تمكنت من تقديم نموذج لغوي كبير يتقن ترديد مزاعم بكين السياسية. وعند سؤاله عن قيادة شي، قدم شات Doubao قائمة طويلة من إنجازات شي، مضيفًا أنه “بلا شك قائد عظيم”، وفق الصحيفة البريطانية.

وفي مؤتمر تقني حديث في بكين، قال فانج بينش ينج، المعروف بأب جدار الحماية العظيم في الصين، إنه كان يطوّر نظامًا من بروتوكولات الأمان للنماذج اللغوية الكبيرة يأمل أن تتبناه جميع مجموعات الذكاء الاصطناعي في البلاد، مشددًا على أن الصين “تحتاج إلى مسار تقني خاص بها”.

ربما يعجبك أيضا