جدل دولي حول قرارات القتل التي تتخذها أنظمة الذكاء الاصطناعي
يمثل ظهور أنظمة الاستهداف “الذكية” تحديًا كبيرًا لقوانين الحرب الحالية.
إذ يطرح تطور الأسلحة المعتمدة على الذكاء الاصطناعي سؤالًا جوهريًا: من المسؤول عندما يتخذ نظام ذكي قرار القتل؟
تاريخيًا، استندت قوانين الحرب إلى فرضية أساسية تقوم على أن استخدام القوة المميتة يجب أن يكون فعلًا إنسانيًا صادرًا عن شخص يمكن مساءلته أخلاقيًا وقانونيًا.
وعبر الفقيه القانوني فرانسيس ليبر عن ذلك فيما يعرف بـ”قانون ليبر” عام 1863 الذي وضعه بتكليف من الرئيس الأمريكي آنذاك أبراهام لينكولن الذي نص على أنه حتى في الحرب، يجب أن يكون هناك فاعل بشري مسؤول يمكن استجوابه ومحاسبته.
ورغم أن هذا القانون لم يكن مثاليًا وتعرض لتطبيقات انتقائية، فإن فكرته الأساسية استمرت عبر الحروب العالمية واتفاقيات جنيف وتطور الأسلحة الحديثة وذلك وفقا لما ذكره موقع “ريسبونسيبل ستايت كرافت” الذي أشار إلى أن ظهور أنظمة الاستهداف المعتمدة على الذكاء الاصطناعي قوض هذا الأساس بشكل جذري.
واليوم، أصبحت أنظمة الذكاء الاصطناعي قادرة على تحديد الأهداف واتخاذ قرارات مميتة دون أن تكون قادرة على تفسير أسبابها أو المثول أمام أي جهة قانونية.
وتعمل هذه الأنظمة بطرق معقدة وغير شفافة، مما يجعل حتى المشغلين البشريين غير قادرين على فهم كيفية اتخاذ القرار وهو ما يعني إقصاء “الفاعل الأخلاقي” بما يمثل تحولًا غير مسبوق في تاريخ الحروب.
وفي عملية “الغضب الملحمي” في إيران، قالت القيادة المركزية الأمريكية (سنتكوم) إنها استهدفت أكثر من ألف هدف خلال 24 ساعة فقط، وأوضحت أن الفضل في هذا الإيقاع العملياتي يرجع إلى أنظمة الذكاء الاصطناعي بما يمثل تحولًا في طبيعة اتخاذ القرار، حيث لم يعد الإنسان قادرًا على مراجعة كل هدف بشكل دقيق، بل يكتفي بالمصادقة على توصيات الخوارزميات.
وتكمن المشكلة الأعمق في أن أنظمة الذكاء الاصطناعي لا تزيد فقط من احتمالات الخطأ، بل تخلق بيئة قانونية جديدة يغيب فيها الأساس المعرفي لأي قرار عسكري.
وفي القانون الدولي الإنساني، يجب أن يكون القائد قادرًا على شرح سبب اعتقاده بأن الهدف مشروع وهو شرط ضروري لتقييم التناسب والمسؤولية الجنائية لكن عندما يكون القرار صادرًا عن خوارزمية غير قابلة للتفسير، فإن هذا الأساس يختفي.
وتعتمد أنظمة الذكاء الاصطناعي على ملايين المعاملات والبيانات، وتنتج مخرجات على شكل احتمالات أو تصنيفات دون تقديم سلسلة واضحة من الاستدلال حتى أن مطوري هذه الأنظمة لا يستطيعون دائمًا تفسير سبب اتخاذ قرار معين وبالتالي، فإن الشخص الذي يوافق على استهداف معين لا يكون قادرا بشكل فعلي على التحقق من صحته، إنما يمنح غطاءً شكليًا لقرار لا يفهمه.
ووفقا لـ”ريسبونسيبل ستايت كرافت” فإن هذه الإشكالية تظهر بوضوح في حالات واقعية، مثل استخدام نظام “لافندر” في حرب غزة، الذي أنشأ قوائم أهداف تلقائية.
ورغم وجود بشر ضمن النظام فإن دورهم اقتصر على الموافقة السريعة دون مراجعة حقيقية، ما حولهم إلى مجرد واجهة لإضفاء الشرعية على قرارات الخوارزمية.
ولا يقتصر انتشار هذه التكنولوجيا على الدول الكبرى، بل يمتد إلى حلفائها عبر صفقات التسليح، دون وجود أطر رقابية صارمة.
وتزداد المشكلة تعقيدًا بسبب طبيعة البيانات التي تيتم تدريب هذه الأنظمة عليها فهي غالبًا ما تعكس تحيزات وأخطاء النزاعات السابقة.
فعلى سبيل المثال، في الحروب الأمريكية بعد 11 سبتمبر/أيلول، تم أحيانا استهداف فئات واسعة من الأشخاص بناء على خصائص عامة مثل العمر أو الموقع الجغرافي وعندما يتم تدريب الذكاء الاصطناعي على هذه البيانات، فإنه يعيد إنتاج هذه الأخطاء بشكل آلي ثم يصبح من الصعب تحديد المسؤولية عن مقتل المدنيين.
وعلى المستوى الدولي، لم يتم حتى الآن التوصل إلى إطار قانوني ملزم لتنظيم استخدام أسلحة الذكاء الاصطناعي ورغم المناقشات منذ عام 2014، لم يتم اعتماد أي معاهدة واضحة أو آلية رقابة فعالة.
وتختلف مواقف الدول، حيث تطالب دول الجنوب العالمي بقيود قانونية، بينما تفضل الدول الغربية مبادئ طوعية.
وتدور الاقتراحات حول الإجراءات العديدة التي يتطلبها تحقيق المساءلة مثل فرض الشفافية على الخوارزميات، وإجراء تحقيقات مستقلة في الحوادث، ووضع مسؤولية قانونية واضحة على الدول عندما تؤدي أنظمة الذكاء الاصطناعي إلى أضرار مدنية، بالإضافة إلى فرض رقابة صارمة على تصدير هذه التقنيات.
أخيرا فإن خطورة الذكاء الاصطناعي في الحرب لا تكمن فقط في زيادة كفاءة القتل، بل في تقويضه للأسس الأخلاقية والقانونية التي تنظم النزاعات حيث يجعل قرارات الحرب غامضة، ونتائجها مدمرة، ويحول دون إمكانية الطعن فيها أو مساءلة المسؤولين عنها.
