الآلات القاتلة قادمة، الأسلحة الروبوتية التي تُحدِّد الهدف وتدمّره دون إشراف بشري على وشك أن تبدأ ثورة في الحرب، مشابهة لتلك التي أحدثها اختراع البارود أو القنبلة النووية.

يُشكِّل هذا الاحتمال تهديدًا خطيرًا للمدنيين، وقد يؤدِّي إلى وقوع بعض السيناريوهات الأكثر كآبة التي يخرج فيها الذكاء الاصطناعي على السيطرة، لذا تشتد الحاجة إلى فرض حظر على الروبوتات القاتلة، مثل ذلك المفروض على الأسلحة الكيماوية والبيولوجية، غير أن بعض القوى العسكرية الكبرى تعارضه.

إن رهاب التكنولوجيا المرتبط بالربوتات ليس وهمًا، ففي يوليو عام 2017 على سبيل المثال، أعلنت مجموعة كلاشينكوف الروسية بدْءَ تطوير رشّاش عيار 7.62 ملم مزوِّد بكاميرا، يستخدم شبكة عصبية لاتخاذ قرارات "إطلاق النار/عدم إطلاق النار".

جيل كامل من الأسلحة ذاتية التحكم، تشمل طائرات دون طيار وسُفنًا ودباباتٍ، تتجه نحو مستويات مختلفة من التشغيل الذاتي، ويبدو أن الولايات المتحدة الأمريكية تضطلع بدور ريادي في مجال البحث والتطوير المتعلّق بالأنظمة ذاتية التحكم، بتخصيص 18 مليار دولار أمريكي للاستثمار في هذا الصدد، خلال الفترة من 2016 حتى 2020، غير أن دولًا أخرى لديها مصانع أسلحة كبيرة تضع كذلك استثماراتها الخاصة في هذا المجال.

يزعم المُخطّطون العسكريون أن "أنظمة الأسلحة الفتاكة ذاتية التشغيل" -مصطلح أكثر تسكينًا- يمكنها نظريًا، إضافة دقة مجرَّدة إلى المعارك الحربية، قد تحدّ هذه الأسلحة ذاتية التشغيل من الحاجة للجنود وتقلل وقوع خسائر بشرية، إذ تُترَك الآلات لتخوض المعركة حتى الحسم، لكن التحكم بالخوارزميات من المحتمل أن "يخرج على السيطرة".

الذكاء الاصطناعي الحاليّ لا يمكنه استنتاج نوايا الآخرين أو اتخاذ قرارات حاسمة بالاستدلال من خبرات سابقة في أثناء فوضى الحرب، وعدم القدرة على قراءة الفروق السلوكية الدقيقة للتمييز بين المدني والمحارب أو الصديق والخصم، لا بدَّ أن يستدعي سؤالًا: هل ينبغي أن تحل أنظمة الذكاء الاصطناعي محل الجنود في مهمة خلال المستقبل القريب أم لا؟ الروبوت الفتاك من أي نوع سيكون قاتلًا مدرَّبًا، مثل أرنولد شورازنيجر في فيلم "ذا تيرمينيتور"، أضف إلى ذلك، بعد أن تنتهي المعركة، إلى من ستؤول مسؤولية ارتكاب الآلة للقتل؟ الروبوت، أم مالكه، أم صانعه؟

مع وجود كل هذه السلبيات، قد يخلق روبوت ذاتي التشغيل بالكامل -مصمم باستخدام التكنولوجيا قريبة الأمد- تهديدًا جديدًا في أيدي الدول الأصغر حجمًا، أو الإرهابيين ذوي الخبرات الضئيلة والموارد المالية الشحيحة، أسراب من الطائرات بلا طيار صغيرة مزوَّدة بسلاح، التي ربما صُنِعَت باستخدام طابعة ثلاثية الأبعاد، قد تُخلِّف أضرارًا بالغة في المناطق المكتظة بالسكان.

يجري الآن اختبار نماذج أوَّلية بالفعل، فقد جرَّبت وزارة الدفاع الأمريكية سربًا -غير مزوّد بالسلاح- مؤلفًا من أكثر من 100 طائرة ميكروية بلا طيار في عام 2016، وأشار ستوارت راسل من جامعة كاليفورنيا في بيركلي -أحد الشخصيات البارزة في مجال أبحاث الذكاء الاصطناعي- إلى أن "الروبوتات الميكروية المضادة للأفراد" التي ينشرها شخص واحد فقط، بإمكانها قتل عدَّة آلاف من البشر، مما يجعلها سلاح دمار شامل محتملًا.

منذ عام 2013 دأبتْ اتفاقية الأمم المتحدة المعنية بأسلحة تقليدية معيّنة (CCW) على مناقشة ماذا نفعل بشأن أنظمة الأسلحة الفتاكة ذاتية التشغيل، وهي الاتفاقية التي تُنظِّم استخدام القنابل الحارقة وأسلحة الليزر المسببة للعمى، وغيرها من الأسلحة التي يُعتقد أنها تتسبب في ضرر مفرط. وبسبب معارضة الولايات المتحدة الأمريكية وروسيا وبعض الدول الأخرى، لم ترتقِ المناقشات إلى مرحلة وضع مسوَّدة بصيغة رسمية للحظر، من ناحيتها، احتجَّت الولايات المتحدة الأمريكية بأن سياستها تشترط بالفعل أن يتولى أفراد عسكريون السيطرة على الأسلحة ذاتية التشغيل، وأن تشريعًا سابقًا لأوانه قد يُعرقل أبحاث الذكاء الاصطناعي الجارية.

لا يلزم أن يكون الحظر مفرطًا في التقييد، تؤكِّد حملة "وقف الروبوتات القاتلة" -تحالف مؤلَّف من 89 منظمة غير حكومية من 50 دولة ضغطت من أجل حظر كهذا- أن الحظر سيكون مقصورًا على الأسلحة الهجومية، ولن يمتد ليشمل الأنظمة المضادة للقذائف، وغيرها من الأنظمة الدفاعية التي تطلق النار آليًا ردًا على رؤوس حربية قادمة.

ودفع المأزق الحاليّ الحملة إلى النظر في حشد بعض الدول على الأقل للاتفاق على الحظر خارج الإطار الذي تقدمه اتفاقية الأمم المتحدة المعنية بأسلحة تقليدية معينة، وهو خيار استُخدم من قبل لإطلاق اتفاقيات متعدّدة الجنسيات تحظر استخدام الألغام الأرضية والقنابل العنقودية. فرضُ حظرٍ وقائيٍ على الآلات القاتلة ذاتية التشغيل، مصحوبٍ بمتطلبات واضحة للامتثال، من شأنه وصم التقنية والمساعدة على إبقاء الروبوتات القاتلة بعيدًا عن الترسانات العسكرية.

ومنذ عرضها لأوّل مرّة خلال المؤتمر الدولي المشترك للذكاء الاصطناعي في استوكهولم خلال شهر يوليو، وقَّعت 244 منظمة و3187 فردًا على تعهد "بعدم المشاركة في تطوير أو تجارة أو استخدام الأسلحة الفتاكة ذاتية التشغيل أو دعمها"، تَمثّل السبب الجوهري في إجراء تعهّد كهذا في أنه لم تُمَرر بعد قوانين لحظر الروبوتات القاتلة، ودون الوصول إلى إطار قانوني كهذا، قد يأتي قريبًا اليوم الذي تتخذ فيه خوارزمية قرارًا مصيريًا بإزهاق روح بشرية.

نشرت هذه المقالة في الأصل بعنوان "لا تتركوا الروبوتات تضغط الزناد" في دورية ساينتيفيك أميريكان 320،3،6 (عدد مارس 2019)

doi:10.1038/scientificamerican0319-6