نشطاء من حملة "أوقفوا الروبوتات القاتلة"، وهو تحالف من المنظمات غير الحكومية المعارضة للأسلحة المستقلة الفتاكة، ينظمون احتجاجًا أمام بوابة براندنبورغ بالعاصمة الألمانية برلين عام 2019 (رويترز)
تقف البشرية على حافة عصر جديد من الحروب، حيث يمكن أن تتخذ آلات فتاكة مؤتمتة بالكامل وتفتقد لأي تعاطف أو مشاعر إنسانية، قرارات القتل أوتوماتيكيا، بشكل مستقل عن البشر، ولا يبدو أن هناك حظرا شاملا قريبا على استخدام تلك الأسلحة.
بفضل التطورات السريعة في مجال الذكاء الاصطناعي، تتسارع وتيرة الأسلحة التي يمكنها تحديد العدو بشكل ذاتي ومستقل ثم تتخذ قرارا ميدانيا -قد يتضمن قتل البشر- دون وجود ضابط يوجه الهجوم أو جندي يسحب الزناد.
ومن المتوقع أن تصبح تلك الآلات بمرور الوقت أساس الحروب والعمليات العسكرية الجديدة، ويُطلق عليها اسم أنظمة الأسلحة المميتة الذاتية/ المستقلة، لكن مناهضيها يسمونها "الروبوتات القاتلة".
واستثمرت العديد من الدول، بما في ذلك الولايات المتحدة والصين والمملكة المتحدة والهند وإيران وإسرائيل وكوريا الجنوبية وروسيا وتركيا، بشكل كبير في تطوير مثل هذه الأسلحة في السنوات الأخيرة، بحسب تقرير نشره موقع الجزيرة الإنجليزية.
روبوت رمزي وضعه نشطاء من حملة "أوقفوا الروبوتات القاتلة" للتحذير من الأسلحة المستقلة الفتاكة (رويترز)
وتساءل التقرير هل يمكن أن يصل المجتمع الدولي إلى توافق حول هذه الآلات القاتلة؟ وهل تدفع المخاوف الأخلاقية والقانونية والتكنولوجية إلى حظر هذه الأسلحة قبل فوات الأوان؟ وهل سيكون الحظر الكامل ممكنًا من الأساس؟ أم أن تبني مجموعة من اللوائح المنظمة فحسب يمكن أن يكون خيارا أكثر واقعية؟
وتطالب أصوات حقوقية وسياسية -خاصة من دول الجنوب- بتقييد هذه الأسلحة، ويعتقد الخبراء أنه من الممكن وضع قواعد عالمية لمناهضة هذه الأسلحة على غرار حظر وتقييد استخدام الأسلحة الكيميائية.
مخاطر حرب عالمية ثالثة
يقول توبي والش، خبير الذكاء الاصطناعي في جامعة "نيو ساوث ويلز" في سيدني بأستراليا، إنه قلق من إمكانية أن تؤدي الأسلحة الذاتية/ المستقلة إلى إطلاق سلسلة من الأحداث والخطوات التصاعدية التي لا يمكن التنبؤ بعواقبها.
ويقارن الوضع بعالم البورصة والسوق المالية، حيث يتم إغلاق التداول لفترة عندما تنشأ فوضى، باستخدام آلية المكابح أو "قواطع التيار"، لكن بالنسبة لمخاطر التصعيد الناجم عن استخدام آلات مستقلة ذاتية في الحرب "لا يمكننا فعل ذلك، للتراجع عن بدء الحرب العالمية الثالثة"، كما قال.
ولا يعني ذلك أن يتوقف الباحثون عن تطوير التكنولوجيا الخاصة بأنظمة الأسلحة الآلية، بحسب والش، الذي يشير إلى أن هذه التكنولوجيا قد تجلب فوائد في مجالات أخرى.
وعلى سبيل المثال، تستخدم خوارزميات أنظمة سلامة السيارات التي تتجنب التصادم مع المشاة نفس "الخوارزميات التي تعمل بها الطائرة المسيرة الذاتية/المستقلة التي تحدد المقاتلين وتتعقبهم"، ويرى والش أنه من الخطأ التام أن نحرم العالم من فرصة تقليل حوادث الطرق، على حد تعبيره.
روبوت قتالي بمدفع رشاش ذاتي/ مستقل لا يحتاج لبشر لاتخاذ قرار الاشتباك (غيتي)
عند التهديد باستخدام الأسلحة الكيميائية، تتصدر الأخبار عناوين الصفحات الأولى وتثير استياء عالميا واسعا. وتحظر اتفاقية الأمم المتحدة للأسلحة الكيميائية تطويرها وإنتاجها وتخزينها واستخدامها. وقد أدى ذلك -بالإضافة قواعد التحريم الدولي حول الأسلحة الكيميائية- إلى وقف شركات الأسلحة الكبرى مشاريع إنتاجها المستقبلية.
وأضاف والش: "لا يمكننا إعادة المارد إلى المصباح، لكن يبدو أن هذه التدابير استطاعت أن تلجم إلى حد كبير استخدام الأسلحة الكيميائية في ساحات المعارك حول العالم اليوم".
أسئلة أخلاقية
لا شك أن أنظمة الأسلحة الذاتية/ المستقلة التي تعمل بالذكاء الاصطناعي لها فوائد من منظور عسكري، فهي يمكن أن تنفذ بعض المهام في ساحة المعركة دون الاستعانة بالجنود، مما يقلل من مخاطر الخسائر البشرية.
ويقول المؤيدون إن التكنولوجيا العالية المستخدمة في هذه الأنظمة يمكن أن تتفادى الأخطاء البشرية في صنع القرارات أو تقلل منها ومن التحيزات أيضا، ويمكن أن تؤدي دقة التوجيه في المستوى الأعلى إلى تقليل الخسائر البشرية غير المقصودة.
يمكن أيضًا نشر أنظمة الأسلحة الذاتية/ المستقلة لتعزيز القدرات الدفاعية، حيث يمكن لخوارزميات الكشف السريعة اكتشاف وتحييد التهديدات المحتملة بكفاءة ودقة أكبر من البشر.
ومع ذلك، يعتقد العديد من الخبراء والجماعات الحقوقية أن المخاطر المترتبة على هذه الأنظمة تفوق أي مزايا محتملة، وتتراوح بين احتمال وجود أعطال تقنية دون رقابة إلى انتهاكات للقانون الدولي والمخاوف الأخلاقية المتعلقة بآلات خالية من المشاعر تتخذ قرارات الموت والحياة.
وفي قلب كل هذه المخاوف يكمن سؤال المسؤولية، فمن المسؤول حين يرتكب نظام قتالي بالذكاء الصناعي خطأ عسكريا أو أخلاقيا فادحا.
من المسؤول؟
في عام 2019، وافقت 126 دولة على معاهدة الأمم المتحدة بشأن بعض الأسلحة التقليدية (CCW) تقوم على 11 مبدأ توجيهيا أوصت بها مجموعة من الخبراء المعينة من الأمم المتحدة للتعامل مع المخاوف المتعلقة بالأسلحة الذاتية.
من بين هذه المبادئ الاتفاق على تطبيق القانون الإنساني الدولي على تطوير ونتائج هذه الأسلحة الجديدة، لكن الخبراء يقولون إنه ليس من الواضح كيف سيتم تطبيق هذا المبدأ في أتون الحرب. فعلى سبيل المثال، إذا ارتكب الروبوت جريمة حرب، هل سيعتبر ضابط القيادة في ساحة الصراع مسؤولًا؟ أم أن المسؤولية ستتوقف عند المسؤولين الذين قرروا نشر الآلة العسكرية في المقام الأول؟ وهل سيكون مصنّع السلاح مسؤولًا هو الآخر أم لا؟
ولا يوجد حتى الآن "تعريف رسمي أو متفق عليه دوليا" لأنظمة الأسلحة الذاتية/ المستقلة، كما قال للجزيرة الباحث في معهد ستوكهولم الدولي لأبحاث السلام (SIPRI)، فينسنت بولانين، على الرغم من أن معظم الدول تتفق على أن "العنصر الحاسم هو أن النظام الذاتي المستقل يكون قادرًا على التعرف واختيار ومهاجمة الهدف دون تدخل بشري".
ويضيف بولانين، مدير برنامج حوكمة الذكاء الاصطناعي في (SIPRI)، أن هذا الوصف ينطبق على أنظمة الأسلحة المستخدمة حاليا، مثل نظام صواريخ باتريوت الأميركي المضاد للطائرات، والذي تستخدمه العديد من الدول.
وبدلاً من الحظر الشامل، يرى بولانين أن مجموعة مزدوجة من اللوائح ستكون حلا أكثر واقعية، حيث يتم حظر بعض أنظمة الأسلحة، والسماح بالبعض الآخر إذا استوفت مجموعة صارمة من المتطلبات، لكنه يتساءل عن حدود هذا التصنيف الثنائي، وهو سؤال لم تتوصل الدول المختلفة بعد إلى اتفاق حوله.
التنظيم السياسي أم القانوني؟
هناك انقسام أكثر جوهرية بين الدول حول كيفية التعامل مع مسألة الأسلحة الذاتية/ المستقلة: هل يجب أن يسعى العالم إلى وضع مجموعة من القواعد ذات الإلزام القانوني أم إلى إعلان سياسي للنوايا فقط، على غرار الإعلان المشترك الذي أصدرته الصين وروسيا والمملكة المتحدة والولايات المتحدة وفرنسا بشأن منع الحرب النووية وتجنب سباق التسلح (يناير/كانون الثاني 2022)، حيث أكدت فيه من بين أمور أخرى أن الحرب النووية "لن ينتصر فيها أحد، ويجب ألا تُخاض".
الثقة المفقودة
في ظل التوترات الجيوسياسية المتصاعدة، تشعر العديد من الدول بالقلق حيال ما إذا كان بإمكانها الثقة بما يقدمه الأعداء رسميا، حسب ما يقول المحللون. ويظهر غياب الثقة على مستويات مختلفة، إذ تعتمد المواثيق الدولية مثل الاتفاقية الخاصة بالأسلحة التقليدية على التوافق الكامل.
ويقول والش إنه "يكفي أن يكون هناك بلد واحد مشاغب لإيقاف التقدم في المحادثات… وحتى لو تم وضع قانون دولي جديد أو مجموعة من اللوائح، فهل سيتم تنفيذها بفعالية، فالعديد من الدول لا تحترم قواعد النظام القائم".
يتفق بولانين مع تلك المخاوف، ويقول "يمكن أن تتفق الدول، هذا أمر جيد، لكن الامتثال شيء آخر، أعتقد أن بعض الدول تشعر بالقلق من أنه إذا لم يلتزم أعداؤها بالقواعد وطوّروا الأسلحة الآلية/الذاتية، فإن ذلك سيضعها في موقف ضعف إستراتيجي".
ومع ذلك، فإن هذه المخاطر لا تعني أنه "لا ينبغي أن نستمر في محاولة الاتفاق على معايير جديدة للسلوك المسؤول"، حسب ما يرى بولانين.
وعلى الرغم من ذلك، لا يواكب أي تطور في القانون الدولي الوتيرة السريعة التي تتطور بها التكنولوجيا، كما يقول بولانين.
ويبرز في المناقشات حول أخلاقيات أنظمة الأسلحة المستقلة تاريخ الجدل حول قواعد وقوانين النزاع المسلح منذ ظهورها الأول في مقدمة معاهدة لاهاي عام 1899؛ إذ تفيد بأنه في حالة عدم وجود معاهدة محددة حول موضوع ما، فإن الأشخاص يظلون محميين بموجب "العرف" و"مبادئ الإنسانية" و"الضمير العام".
في عام 2019، قال الأمين العام للأمم المتحدة، أنطونيو غوتيريش، إن الآلات التي تمتلك القوة والتصرف لسلب الأرواح دون تدخل بشري "غير مقبولة سياسيا" و"منافية للأخلاق".
ويبدو أن العديد من الأفراد العسكريين الذين تحدث إليهم والش في بحثه يشعرون بالقلق حيال الأسلحة المؤتمتة بالكامل أيضًا، إذ قال إنه وجد "بشكل شبه عام أنه كلما انخفضت الرتبة، واقتربت من ساحة المعركة، هناك المزيد من المقاومة والرفض لفكرة أن تقاتل ضد الروبوتات التي لا تحترم كرامة الإنسان".