حظر الروبوتات القاتلة يثير الجدل في جنيف
سويسرا دولة رائدة عالميًا في مجال الروبوتات والذكاء الاصطناعي، وكلاهما مجالان بحثيان يمكن استخدام نتائجهما للأغراض المدنية والعسكرية والبحثية أيضًا، حيث تغيب الرقابة الدولية.
في مارس 2020، استخدمت الحكومة الليبية طائرة كارغو 2 كوادكوبتر في الحرب الأهلية، وفقًا لتقرير رابط خارجيللأمم المتحدة. هذه الطائرة بدون طيار “تصوب على” هدف بشري دون أن تتلقى تعليمات بذلك. كانت هذه هي المرة الأولى في التاريخ التي يتم فيها استخدام سلاح فتاك ذاتي التشغيل – يسمى أيضًا الروبوت القاتل.
أنظمة الأسلحة هذه، التي تم تطويرها باستخدام الروبوتات والذكاء الاصطناعي، لا تتطلب تدخلاً بشريا. الطائرات بدون طيار ذاتية القيادة، على سبيل المثال، مبرمجة للاقتراب من موقع معين وتحديد والتصويب نحو الهدف دون أي اتصال بإنسان متحكم. كما تظهر الحادثة في ليبيا، يمكن للروبوتات القاتلة أن تصبح رابط خارجيذرابط خارجياتية التشغيلرابط خارجي تماماً. وعلى عكس أسلحة الدمار الشامل، لا توجد معاهدات أو أنظمة محددة تحظر هذه الأسلحة وهذه التقنيات دوليًا.
أسلحة الدمار الشامل هي أسلحة ذات قوة تدميرية أكبر من الأسلحة التقليدية، مثل الأسلحة النووية والبيولوجية والكيميائية (NBC). ويمكنها قتل عدد كبير من الناس وتدمير البيئة في غضون وقت قصير للغاية.
في مجال أسلحة الدمار الشامل، هناك معاهدات نزع السلاح وعدم الانتشار الملزمة بموجب القانون الدولي مثل معاهدة عدم انتشار الأسلحة النوويةرابط خارجي واتفاقية الأسلحة البيولوجية رابط خارجيواتفاقية الأسلحة الكيميائيةرابط خارجي. وهي مصممة لمنع انتشار الأسلحة النووية وتحريم الأسلحة البيولوجية والكيميائية في جميع أنحاء العالم.
بالإضافة إلى ذلك هناك أربعة أنظمة ملزمة سياسيًا تقوم فيها الدول المشاركة المعنية بتوسيع ومواءمة ضوابط التصدير الخاصة بها: مجموعة موردي المواد النووية ومجموعة أستراليا ونظام التحكم في تكنولوجيا الصواريخ، وترتيب فاسنار. سويسرا تشارك في الأربعة.
تختلف الآراء حول ما إذا كان ينبغي اعتبار ذلك فجوة قانونية. رداً على طلب من SWI swissinfo.ch، كتبت وزارة الخارجية السويسرية أن القانون الإنساني الدولي ينطبق على جميع الأسلحة والتقنيات، بما في ذلك الجديدة مثل أنظمة الأسلحة ذاتية التحكم. “لذلك لا توجد فجوة قانونية بالنسبة لاستخدام الروبوتات والذكاء الاصطناعي والتقنيات الرقمية الأخرى في النزاعات المسلحة.”
لكن لا يشارك كل أعضاء المجتمع الدولي هذه الرؤية. تقول لورا برون، الخبيرة في التقنيات العسكرية والأمنية الجديدة في المعهد الدولي لأبحاث السلام في ستوكهولم: “تعتقد بعض الدول أن التشريعات الحالية ليست كافية”. بينما يغطي القانون الدولي الإنساني جميع أنواع الأسلحة، لا يتم تنظيم استخدام التقنيات العسكرية التي يحركها الذكاء الاصطناعي بشكل صريح، على حد قولها. وتضيف برون أن هذا يخلق فراغًا معياريًا، اعتمادًا على كيفية تفسير القانون.
وتشير قواعد الاتحاد الأوروبي أو منظمة يونسكو بشأن الاستخدام الأخلاقي للذكاء الاصطناعي، على حد قول برون، إلى حالات الاستخدام المدني، وليس العسكري. لكن مع تقدم التقنيات الجديدة مثل الذكاء الاصطناعي، يصبح من الصعب بشكل متزايد التمييز بين الإمكانات المدنية والعسكرية للتطوير، ما يعقّد عملية التنظيم والرقابة هو حقيقة أن هذه التقنيات وطرق استخدامها سهلة النشر والتداول، حتى عبر المصادر المفتوحة، كما هو الحال بالنسبة لبرامج الذكاء الاصطناعي عموما.
“بالطبع، ينطبق القانون الدولي الإنساني على استخدام مثل هذه الأسلحة، ولكن هناك حاجة إلى قواعد جديدة للقانون الدولي تأخذ أنواعًا جديدة من التقنيات بعين الاعتبار” ، كما تقول الباحثة الأمنية وخبيرة القانون الدولي إليزابيت هوفبرغر بيبان من المعهد الألماني للشؤون الدولية والأمنية في برلين.
اجتماع ميؤوس منه في جنيف
في هذا السياق تجري الأمم المتحدة مفاوضات بشأن حظر أنظمة الأسلحة ذاتية التشغيل في جنيف منذ عام 2017. وتؤيد سويسرا هذه المفاوضات من حيث المبدأ، لأنها على الرغم من أنها ترفض الحظر الكامل، إلا أنها تفضل التنظيم والرقابة وفرض قيود. في العام الماضي، صاغت البعثة السويسرية لدى الأمم المتحدة اقتراحًا لتنظيم الأسلحة الفتاكة ذاتية التشغيل، لتنضم إلى مجموعة الدول التي تضغط من أجل اتخاذ تدابير ملزمة قانونًا.
لكن لم يتم إحراز أي تقدم، حيث رفضت روسيا تقريبًا كل مقترح لتقنين هذه الأسلحة. حتى أن روسيا قاطعت الجولة الأخيرة من المفاوضات في مارس بسبب الحرب الدائرة في أوكرانيا. لكن إسرائيل والولايات المتحدة وتركيا والمملكة المتحدة وكوريا الجنوبيةرابط خارجي ترفض أيضاً تقنيناً ملزمًا لأنظمة الأسلحة ذاتية التشغيل، لأنها ترى أن القانون الإنساني الدولي كافٍ للتعامل المسؤول مع هذه الأسلحة.
المزيد
الروبوتات القاتلة: هل تحتاج إلى قواعد تنظيمية صارمة؟
وستعقد اللجنة آخر اجتماع لها في شهر يوليو. الخبراء لا يتوقعون الكثير من التقدم، فالدول المشاركة تتحدث بالفعل خلف الأبواب المغلقة عن فشل مفاوضات جنيف. رداً على سؤال من SWI swissinfo.ch، قالت وزارة الخارجية السويسرية إنه في الوقت الحالي لا يوجد اتفاق بين الدول.
وتقول هوفبيرغر: “ربما لن ترغب جميع الدول في مواصلة دعم مفاوضات جنيف لأنها ببساطة لا تستحق العناء”. لذلك فهي تتوقع البحث عن هيئات بديلة للتفاوض بشأن قواعد أنظمة الأسلحة المستقلة.
لماذا ترفض الدول الحظر؟
وفقًا لشتيفن هيرتسوغ من مركز الدراسات الأمنية، فإن حقيقة أن سويسرا، مثل معظم الدول، لا تسعى إلى حظر كامل على الأسلحة لها أسباب اقتصادية ودبلوماسية. سويسرا تخشى تأثير ذلك على صادراتها. تعد سويسرا واحدة من الدول الرائدة في مجالات الروبوتات والذكاء الاصطناعي.
لا تستطيع هوفبيرغر فهم هذه المخاوف. في الوقت الحالي، يتعلق الأمر في المقام الأول بتنظيم استخدام أنظمة الأسلحة ذاتية التحكم بموجب القانون الدولي، وليس بضوابط التصدير نفسها في هذه الحالة، كما تقول. من ناحية أخرى، فإن خوف العديد من البلدان من أن الحظر الكامل قد يجعل البحث العلمي في هذا المجال صعبًا هو أمر حقيقي. وتقول هوفبيرغر بيبان: “سيقول المستثمرون لماذا نقدم المال إذا لم يُسمح باستخدام الاختراعات على أي حال”. هذا بالتأكيد يمثل تحديًا للولايات المتحدة على وجه الخصوص، ولكن أيضًا للعديد من القوى العسكرية الكبرى الأخرى.
نهج الولايات المتحدة هو أنه يجب اختبار الأسلحة ذاتية التشغيل قبل حظرها. هذا سُيمكن من معرفة نجاعة هذه الأسلحة على الإطلاق. تعتقد بعض الدول أن للأسلحة ذاتية التحكم مزايا: على الأقل من جانب الطرف الذي يستخدم هذه الأسلحة، حيث يمكن تجنب الوفيات وتوفير تكاليف الأفراد.
في عام 2017، عارضت الحكومة السويسرية أيضًا فرض حظر كامل لأسباب مماثلة، مشيرة إلى أنه يمكن أن يؤدي إلى حظر الأنظمة التي يحتمل أن تكون مفيدة، مثل تجنب الأضرار الجانبية التي تلحق بالمدنيين. لهذا السبب، ترى برون ، أنه يجب أن تسير المناقشة حول تنظيم التطبيقات المدنية والعسكرية جنبًا إلى جنب. “الاعتراف بأن التمييز بين الاستخدامين أصبح غير واضح سيكون الخطوة الأولى نحو السيطرة على التكنولوجيا.”
وتلاحظ هوفبيرغر تحولًا نموذجيًا عندما يتعلق الأمر بالطائرات بدون طيار: في حين كان يُنظر إليها بشكل نقدي للغاية، فإنها تحظى بقبول متزايد دوليًا، حتى بين السكان. في الحرب الجارية الآن، على سبيل المثال، نشرت القوات الأوكرانية طائرات بدون طيار مدنية على نطاق واسع. بالإضافة إلى الطائرات العسكرية بدون طيار، مما يمنحها ميزة غير متوقعة على روسيا. وفي حين أن عمليات الطائرات بدون طيار في القتال ضد الإرهابيين على وجه الخصوص لا تزال مشكلة قانونية وأخلاقية للغاية، ورغم أن حرب العدوان الروسية في أوكرانيا لا يمكن مقارنتها إلا إلى مستوى محدد، فإن هذا المثال يٌظهر أن الطائرات بدون طيار ليست محظورة أخلاقياً، فربما هناك أيضًا استخدامات معقولة لأنظمة الأسلحة التي تعمل بشكل مستقل إلى حد كبير.
تقول هوفبيرغر بيبان: “روح العصر جلبت التحديث للجيش وبالتالي فهمًا أكبر للمكننة”. لذلك من المحتمل جدًا أن يتغير الرأي العام تجاه الأسلحة المستقلة أيضًا.
أنظمة الأسلحة ذاتية التشغيل
تؤيد سويسرا هذه المفاوضات من حيث المبدأ لأنها، على الرغم من أنها ترفض الحظر الكامل، إلا أنها تفضل التنظيم والرقابة والتقييد. في العام الماضي، صاغت البعثة السويسرية لدى الأمم المتحدة اقتراحًا لتنظيم الأسلحة الفتاكة ذاتية التشغيل، لتنضم إلى مجموعة الدول التي تضغط من أجل اتخاذ تدابير ملزمة قانونًا.
لكن لم يتم إحراز أي تقدم، حيث رفضت روسيا تقريبًا كل اقتراح للتنظيم. حتى أن روسيا قاطعت الجولة الأخيرة من المفاوضات في مارس بسبب الحرب الدائرة في أوكرانيا. لكن إسرائيل والولايات المتحدة وتركيا والمملكة المتحدة وكوريا الجنوبية لا يريدون أيضًا تنظيمًا ملزمًا لأنظمة الأسلحة ذاتية التشغيل، لأنهم يعتقدون أن القانون الإنساني الدولي كافٍ للتعامل المسؤول مع هذه الأسلحة.
عندما يمكن استخدام المنتجات أو التقنيات للأغراض المدنية والعسكرية، فإنها تُسمى ذات استخدام مزدوج. تكمن المشكلة في أن اختراعًا مثل التكنولوجيا النووية يمكن أن يجلب فوائد مدنية للبشرية في شكل محطات طاقة نووية (على الرغم من أنها مثيرة للجدل أيضًا) أو علاجات طبية، ولكن يمكن أيضًا أن تدمر الحياة في شكل قنابل. لذلك فإن حظر التكنولوجيا والأبحاث ذات الصلة تمامًا ليس منطقيًا ولكن يجب التعامل معه بمسؤولية.
اتفاق فاسنار هو تحالف دول يهدف إلى منع التراكم المزعزع للاستقرار للأسلحة التقليدية وكذلك السلع ذات الاستخدام المزدوج التي تساهم فيها.
متوافق مع معايير الصحافة الموثوقة
المزيد: SWI swissinfo.ch تحصل على الاعتماد من طرف "مبادرة الثقة في الصحافة"
يمكنك العثور على نظرة عامة على المناقشات الجارية مع صحفيينا هنا . ارجو أن تنضم الينا!
إذا كنت ترغب في بدء محادثة حول موضوع أثير في هذه المقالة أو تريد الإبلاغ عن أخطاء واقعية ، راسلنا عبر البريد الإلكتروني على arabic@swissinfo.ch.