روايتان متضادتان لهجوم نووي ينهيان القصة بنهاية حاسمة
مع تصاعد المواجهة هذا الأسبوع بين شركة الذكاء الاصطناعي «أنثروبيك» ووزارة الدفاع الأمريكية (البنتاغون)، قدّم الطرفان روايتين متباينتين بشكل حاد حول نقاش محوري تناول سيناريو افتراضيًا لتوجيه ضربة نووية ضد الولايات المتحدة.
روايتان كشفَتا حجم الاحتدام في الصدام، بشأن احتمال استخدام الجيش الأمريكي أسلحة ذاتية التشغيل قاتلة.
وقال مسؤول دفاعي إن كبير مسؤولي التكنولوجيا في البنتاغون اختزل النقاش خلال اجتماع الشهر الماضي في سيناريو نووي مصيري: إذا أُطلق صاروخ باليستي عابر للقارات باتجاه الولايات المتحدة، فهل يمكن للجيش استخدام نظام «كلود» للذكاء الاصطناعي التابع لـ«أنثروبيك» للمساعدة في إسقاطه؟
وهو نوع من المواقف التي قد تكون فيها القوة التكنولوجية وسرعة المعالجة حاسمتين في الرصد والرد المضاد، حيث يُقاس وقت اتخاذ القرار بالدقائق والثواني، بحسب صحيفة «واشنطن بوست» الأمريكية.
وبحسب المسؤول، فإن رد الرئيس التنفيذي لـ«أنثروبيك» داريو أمودي أثار استياء البنتاغون، إذ صوّره المسؤول على النحو التالي: «يمكنكم الاتصال بنا وسنبحث الأمر».
غير أن متحدثًا باسم الشركة نفى أن يكون أمودي قد أدلى بمثل هذا الرد، واصفًا الرواية بأنها «عارية تمامًا عن الصحة»، مؤكدًا أن الشركة وافقت على إتاحة استخدام «كلود» في مجال الدفاع الصاروخي. لكن مسؤولين أشاروا إلى هذه الحادثة وأخرى تتعلق باستخدام «كلود» في عملية اعتقال الرئيس الفنزويلي نيكولاس مادورو باعتبارهما نقطتي اشتعال في مواجهة متصاعدة بين الشركة والبنتاغون في الأيام الأخيرة.
وذكرت صحيفة «واشنطن بوست»، أن اجتماعًا مباشرًا عُقد الثلاثاء بين أمودي ووزير الدفاع بيت هيغسيث أدى إلى تفاقم الوضع. ويبدو أن الطرفين يتجهان الآن نحو صراع قوة حاسم حول ما إذا كان ينبغي للحكومة الأمريكية أن تتمتع بحرية استخدام هذه التكنولوجيا القوية في التجسس على البشر أو قتلهم، استنادًا جزئيًا إلى سيناريوهات قصوى وافتراضات نظرية، بحسب صحيفة «واشنطن بوست» الأمريكية,
ومنح البنتاغون «أنثروبيك» مهلة حتى الساعة 5:01 مساء الجمعة للتخلي عن اعتراضاتها على استخدام «كلود» فيما يتعلق بالأسلحة الذاتية التشغيل والمراقبة الشاملة للمواطنين الأمريكيين.
نهاية حاسمة
وبعد انتهاء المهلة، وجه وزير الدفاع الأمريكي بيت هيغسيث، بتصنيف شركة أنثروبيك جهة في سلاسل التوريد تشكل خطرا على الأمن القومي
وحظر هيغسيث، على أي متعاقد أو مورد أو شريك يتعامل مع الجيش الأمريكي ممارسة أي نشاط تجاري مع أنثروبيك، مشددًا على أن الجنود الأمريكيين لن يكونوا رهائن لأهواء شركات التكنولوجيا الكبرى وقراري بشأن أنثروبيك نهائي.
في السياق نفسه، قال الرئيس الأمريكي دونالد ترامب الجمعة إنه أصدر توجيهات إلى جميع الوكالات الاتحادية بإيقاف استخدام تكنولوجيا أنثروبك فورا، مضيفا أنه سيكون هناك فترة انتقالية مدتها ستة أشهر للوكالات التي تستخدم منتجات الشركة مثل وزارة الدفاع.
وقال ترامب في منشور على تروث سوشال: “أوجه كل وكالة اتحادية في حكومة الولايات المتحدة بالتوقف فورا عن استخدام تكنولوجيا أنثروبك. نحن لا نحتاجها ولا نريدها ولن نتعامل معهم مجددا!”.
وقال شون بارنيل، كبير المتحدثين باسم البنتاغون، في منشور على منصة «إكس»، إن الوزارة لا تنوي إجراء مراقبة داخلية جماعية أو نشر أسلحة ذاتية التشغيل، لكنها تريد استخدام الذكاء الاصطناعي «لكل الأغراض المشروعة».
وأضاف: «إنه طلب بسيط ومنطقي من شأنه منع أنثروبيك من تعريض عمليات عسكرية حيوية للخطر، وربما وضع مقاتلينا في مهب المخاطر».
من جهته، قال أمودي في بيان متأخر الخميس إن شركته مستعدة لمواصلة العمل مع البنتاغون، لكنها لن تغيّر موقفها. وأوضح أن أنظمة الذكاء الاصطناعي الحالية ليست موثوقة بما يكفي لتشغيل أسلحة روبوتية دون تعريض الجنود والمدنيين للخطر، كما أن القوانين القائمة بشأن المراقبة الداخلية لا تأخذ في الحسبان الإمكانات الواسعة لأدوات التجسس المعززة بالذكاء الاصطناعي.
صدام غير متوقع
وقال في أول تعليق علني له على المواجهة: «في مجموعة محدودة من الحالات، نعتقد أن الذكاء الاصطناعي قد يقوّض القيم الديمقراطية بدلًا من الدفاع عنها». وأضاف أن حالتين من هذا القبيل «لم تُدرجا قط في عقودنا مع وزارة الحرب، ونعتقد أنه لا ينبغي إدراجهما الآن».
ولم تتوقع «أنثروبيك» أن تجد نفسها في صدام مع قيادات البنتاغون عندما أصبحت في أواخر 2024 أول مختبر ذكاء اصطناعي كبير يبرم اتفاقًا للعمل على شبكات عسكرية أمريكية سرية.
غير أن النزاع يسلّط الضوء على الصعوبات التي واجهتها الشركة الناشئة — التي تأسست عام 2021 على يد منشقين مهتمين بالسلامة عن شركة OpenAI المطوِّرة لـ«تشات جي بي تي» — في التعامل مع واشنطن خلال الولاية الثانية للرئيس دونالد ترامب.
وكانت «أنثروبيك» قد عززت حضورها في واشنطن، وأنفقت ملايين الدولارات على أنشطة الضغط السياسي، وضمّت إلى مجلس إدارتها مسؤولين سابقين، كما استكشفت استثمارات من جهات قريبة من ترامب، لكن قادتها دخلوا أيضًا في اشتباكات علنية مع البيت الأبيض.
وبينما تؤكد وزارة الدفاع أن سياستها تقضي ببقاء «إنسان في الحلقة» في جميع القرارات المتعلقة باستخدام الأسلحة النووية، يظل الباب مفتوحًا أمام تأثير الذكاء الاصطناعي في اختيار الأهداف وتسريع الاستجابة. ويثير ذلك تساؤلات أعمق حول مدى تأثير الخوارزميات في قرارات الحياة والموت.
بدائل مكلفة
وفي ظل استخدام «كلود» بالفعل داخل وزارة الدفاع، فإن استبعاد «أنثروبيك» والتحول إلى منافسين قد يكون مكلفًا. وقد ألمح مسؤولون إلى إمكانية استخدام «قانون الإنتاج الدفاعي» لإجبار الشركة على مشاركة تقنياتها، وهو خيار يراه بعض الخبراء «خطًا أحمر» قد يبعث برسالة مقلقة إلى شركات الذكاء الاصطناعي التي تعتمد عليها المؤسسة العسكرية.
وهكذا، يتحول الخلاف من مجرد نزاع تقني إلى مواجهة فلسفية وسياسية حول من يملك القرار النهائي في توظيف أقوى أدوات الذكاء الاصطناعي في ساحات الحرب — الدولة أم الشركات المطوِّرة.
