[ad_1]
18 ديسمبر 2021 – 14 جمادى الأول 1443
11:49 AM
الأسلحة ذاتية التشغيل التي لا تعتمد على التدخل البشري تثير جدلًا بالأمم المتحدة
جندي مع بازوكا أم مدني ومكنسة؟.. الكبار يعارضون: نريدها “روبوتات قاتلة”!
تابع خبراء الذكاء الاصطناعي والاستراتيجيات العسكرية ونزع السلاح باهتمام بالغ؛ اجتماعًا للأمم المتحدة عُقد في جنيف، الجمعة، بهدف تنظيم أو حظر الأسلحة ذاتية التشغيل، وهي أسلحة تشهد تطورًا تكنولوجيًا كبيرًا، بعد أن كانت محض خيال علمي.
وللمرة الأولى قالت غالبية الدول الـ125 التي تنتمي إلى اتفاقية الأسلحة التقليدية المعينة: إنها تريد فرض قيود على الروبوتات القاتلة، لكنهم وجدوا معارضة من قبل الأعضاء الذين يعملون على تطوير هذه الأسلحة، خاصة الولايات المتحدة وروسيا؛ وفق ما نقلت صحيفة “نيويورك تايمز”.
واتفاقية الأسلحة التقليدية المبرمة عام 1980 تحظر أو تقيد الأسلحة التي تسبب إصابات مفرطة أو معاناة لا مبررة، بالإضافة إلى الأسلحة عشوائية الأثر مثل المتفجرات الحارثة وأشعة الليزر المسبب للعمى، ولا تحتوي هذه الاتفاقية على أي أحكام متعلقة بما يسمى بـ”الروبوتات القاتلة”؛ وفق “الحرة”.
واعتبر خبراء نزع السلاح الاجتماع الأممي أفضل فرصة حتى الآن لابتكار طرق لتنظيم أو حظر استخدام الروبوتات القاتلة بموجب اتفاقية مكافحة الإرهاب، لكن الخبراء لم يتمكنوا حتى من التوصل إلى اتفاق بشأن المسائل الأساسية التي تساهم في تحديد التحديات والأساليب الممكنة للحد من تهديدات الروبوتات القاتلة.
ما هي الروبوتات القاتلة؟
تختلف الآراء حول التعريف الدقيق للروبوتات القاتلة، لكن التعريف الأبرز يتمثل في: أنها أسلحة تتخذ القرارات دون مشاركة بشرية، أو بمشاركة بشرية ضئيلة معتمدة على الذكاء الاصطناعي.
ولا تعتبر الطائرات بدون طيار التي استخدمتها الولايات المتحدة على نطاق واسع في أفغانستان والعراق وأماكن أخرى روبوتات؛ لأنها تدار عن بعد من قبل أشخاص يختارون الأهداف ويقررون إطلاق النار.
بالنسبة لمخططي الحرب تقدم الأسلحة ذاتية التشغيل وعدًا بإبقاء الجنود بعيدًا عن الأذى، واتخاذ قرارات أسرع من الإنسان، من خلال إعطاء المزيد من المسؤوليات في ساحة المعركة للأنظمة المستقلة مثل الطائرات بدون طيار والدبابات ذاتية القيادة التي تقرر بشكل مستقل أين ومتى تضرب.
لماذا الاعتراضات؟
يجادل النقاد بأنه من البغيض أخلاقيًا إسناد اتخاذ القرارات المميتة للآلات، بغض النظر عن التطور التكنولوجي. ويتساءلون: كيف تفرق الآلة بين بالغ وطفل، مقاتل مع بازوكا ومدني مع مكنسة، مقاتل معادٍ عن جندي جريح أو مستسلم؟
قال رئيس اللجنة الدولية للصليب الأحمر بيتر مورير، وهو معارض صريح للروبوتات القاتلة: “بشكل أساسي تثير أنظمة الأسلحة ذاتية التشغيل مخاوف أخلاقية للمجتمع بشأن استبدال القرارات البشرية المتعلقة بالحياة والموت بأجهزة الاستشعار والبرمجيات والعمليات الآلية”.
قبل مؤتمر جنيف دعت منظمة “هيومن رايتس ووتش” والعيادة الدولية لحقوق الإنسان التابعة لكلية هارفارد للقانون، إلى اتخاذ خطوات نحو اتفاقية مُلزمة قانونًا تتطلب السيطرة البشرية على الأسلحة في جميع الأوقات.
جادلت هذه المجموعات في “افتقار الروبوتات إلى التعاطف والرحمة والحكم الضروري لمعاملة البشر بطريقة إنسانية، ولا يمكنهم فهم القيمة المتأصلة في حياة الإنسان”.
ماذا يقول المؤيدون؟
تصر دول مثل روسيا على أن أي قرار يجب أن يكون بالإجماع، فيما تجادل الولايات المتحدة بأن القوانين الدولية الحالية كافية وأن حظر تكنولوجيا الأسلحة ذاتية التشغيل سيكون سابقًا لأوانه.
واقترح مندوب الولايات المتحدة الرئيسي في المؤتمر، جوشوا دوروسين، “مدونة سلوك” غير ملزمة لاستخدام الروبوتات القاتلة، وهي فكرة رفضها دعاة نزع السلاح باعتبارها تكتيكًا للمماطلة.
واستثمر الجيش الأميركي بكثافة في الذكاء الاصطناعي؛ حيث عمل مع أكبر شركات الأسلحة، بما في ذلك لوكهيد مارتن، وبوينغ، ورايثيون، ونورثروب غرومان.
وشمل العمل مشاريع لتطوير صواريخ بعيدة المدى تكشف عن الأهداف المتحركة بناءً على ترددات الراديو، وطائرات بدون طيار يمكنها تحديد هدف ومهاجمته، وأنظمة دفاع صاروخي آلية؛ وفقًا لبحث أجراه معارضو أنظمة الأسلحة.
وقالت الخبيرة في تكنولوجيا الأمن العسكري الناشئة في مركز الأمن والدبلوماسية والاستراتيجية في بروكسل، مايكي فيربروجن: إن التعقيد والاستخدامات المتنوعة للذكاء الاصطناعي تجعل التنظيم أكثر صعوبة من الأسلحة النووية أو الألغام الأرضية.
وقالت إن الافتقار إلى الشفافية بشأن ما تبنيه الدول المختلفة خلق “الخوف والقلق” بين القادة العسكريين الذين يجب مواكبة ذلك.
من جهته قال الباحث في المعهد الدولي للدراسات الإستراتيجية فرانز ستيفان جادي: إن “سباق التسلح لأنظمة الأسلحة ذاتية التشغيل جار بالفعل ولن يتم إلغاؤه في أي وقت قريب”.
[ad_2]
Source link