اخبارالرئيسيةعلمي

ليست خيالا علميا.. الروبوتات القاتلة تثير جدلا في الأمم المتحدة

الحرة-

تابع خبراء الذكاء الاصطناعي والاستراتيجيات العسكرية ونزع السلاح باهتمام بالغ اجتماع للأمم المتحدة عقد في جنيف، الجمعة، بهدف تنظيم أو حظر الأسلحة ذاتية التشغيل، وهي أسلحة تشهد تطورا تكنولوجيا كبيرا، بعد أن كانت محض خيال علمي.

وللمرة الأولى، قالت غالبية الدول الـ 125 التي تنتمي إلى اتفاقية الأسلحة التقليدية المعينة إنها تريد فرض قيود على الروبوتات القاتلة. لكنهم وجدوا معارضة من قبل الأعضاء الذين يعملون على تطوير هذه الأسلحة، خاصة الولايات المتحدة وروسيا، وفق ما نقلت صحيفة “نيويورك تايمز”.

واتفاقية الأسلحة التقليدية المبرمة عام 1980، تحظر أو تقيد الأسلحة التي تسبب إصابات مفرطة أو معاناة لا مبررة، بالإضافة إلى الأسلحة عشوائية الأثر مثل المتفجرات الحارثة وأشعة الليزر المسبب للعمى.

ولا تحتوي هذه الاتفاقية على أي أحكام متعلقة بما يسمى بـ “الروبوتات القاتلة”.

واعتبر خبراء نزع السلاح الاجتماع الأممي أفضل فرصة حتى الآن لابتكار طرق لتنظيم أو حظر استخدام الروبوتات القاتلة بموجب اتفاقية مكافحة الإرهاب.

لكن الخبراء لم يتمكنوا حتى من التوصل إلى اتفاق بشأن المسائل الأساسية التي تساهم في تحديد التحديات والأساليب الممكنة للحد من تهديدات الروبوتات القاتلة.

ما هي الروبوتات القاتلة؟

تختلف الآراء حول التعريف الدقيق للروبوتات القاتلة، لكنها التعريف الأبرز تتمثل في أنها أسلحة تتخذ القرارات دون مشاركة بشرية أو مشاركة بشرية ضئيلة معتمدة على الذكاء الاصطناعي.

ولا تعتبر الطائرات بدون طيار التي استخدمتها الولايات المتحدة على نطاق واسع في أفغانستان والعراق وأماكن أخرى روبوتات؛ لأنها تدار عن بعد من قبل أشخاص يختارون الأهداف ويقررون إطلاق النار.

بالنسبة لمخططي الحرب، تقدم الأسلحة ذاتية التشغيل وعدا بإبقاء الجنود بعيدا عن الأذى، واتخاذ قرارات أسرع من الإنسان، من خلال إعطاء المزيد من المسؤوليات في ساحة المعركة للأنظمة المستقلة مثل الطائرات بدون طيار والدبابات ذاتية القيادة التي تقرر بشكل مستقل أين ومتى تضرب.

لماذا الاعتراضات؟

يجادل النقاد بأنه من البغيض أخلاقيا إسناد اتخاذ القرارات المميتة للآلات، بغض النظر عن التطور التكنولوجي. ويتساءلون كيف تفرق الآلة بين بالغ وطفل، مقاتل مع بازوكا ومدني مع مكنسة، مقاتل معادٍ عن جندي جريح أو مستسلم؟

قال رئيس اللجنة الدولية للصليب الأحمر، بيتر مورير، وهو معارض صريح للروبوتات القاتلة، “بشكل أساسي، تثير أنظمة الأسلحة ذاتية التشغيل مخاوف أخلاقية للمجتمع بشأن استبدال القرارات البشرية المتعلقة بالحياة والموت بأجهزة الاستشعار والبرمجيات والعمليات الآلية”.

قبل مؤتمر جنيف، دعت منظمة “هيومن رايتس ووتش” والعيادة الدولية لحقوق الإنسان التابعة لكلية هارفارد للقانون إلى اتخاذ خطوات نحو اتفاقية ملزمة قانونا تتطلب السيطرة البشرية على الأسلحة في جميع الأوقات.

جادلت هذه المجموعات في “افتقار الروبوتات إلى التعاطف والرحمة والحكم الضروري لمعاملة البشر بطريقة إنسانية، ولا يمكنهم فهم القيمة المتأصلة في حياة الإنسان”.

ماذا يقول المؤيدون؟

تصر دول مثل روسيا، على أن أي قرار يجب أن يكون بالإجماع، فيما تجادل الولايات المتحدة بأن القوانين الدولية الحالية كافية وأن حظر تكنولوجيا الأسلحة ذاتية التشغيل سيكون سابقا لأوانه.

واقترح مندوب الولايات المتحدة الرئيسي في المؤتمر، جوشوا دوروسين، “مدونة سلوك” غير ملزمة لاستخدام الروبوتات القاتلة – وهي فكرة رفضها دعاة نزع السلاح باعتبارها تكتيكا للمماطلة.

واستثمر الجيش الأميركي بكثافة في الذكاء الاصطناعي، حيث عمل مع أكبر شركات الأسلحة، بما في ذلك لوكهيد مارتن، وبوينغ، ورايثيون، ونورثروب غرومان.

وشمل العمل مشاريع لتطوير صواريخ بعيدة المدى تكشف عن الأهداف المتحركة بناءً على ترددات الراديو، وطائرات بدون طيار يمكنها تحديد هدف ومهاجمته، وأنظمة دفاع صاروخي آلية، وفقا لبحث أجراه معارضو أنظمة الأسلحة.

وقالت الخبيرة في تكنولوجيا الأمن العسكري الناشئة في مركز الأمن والدبلوماسية والاستراتيجية في بروكسل، مايكي فيربروجن، إن التعقيد والاستخدامات المتنوعة للذكاء الاصطناعي تجعل التنظيم أكثر صعوبة من الأسلحة النووية أو الألغام الأرضية.

وقالت إن الافتقار إلى الشفافية بشأن ما تبنيه الدول المختلفة خلق “الخوف والقلق” بين القادة العسكريين الذين يجب مواكبة ذلك.

من جهته، قال الباحث في المعهد الدولي للدراسات الإستراتيجية، فرانز ستيفان جادي، إن “سباق التسلح لأنظمة الأسلحة ذاتية التشغيل جاري بالفعل ولن يتم إلغاؤه في أي وقت قريب”.

 

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى