الذكاء الاصطناعي يقوض قواعد الحروب الحديثة

انتوني كاثبرتسون:مع انتقال سباق التسلح في مجال الذكاء الاصطناعي إلى ساحة المعركة، كيف قد تبدو الحرب العالمية المقبلة إذا منحت الآلات التي لا تعترف بـ"المحظور النووي" قدراً كبيراً من السيطرة، انتقال الذكاء الاصطناعي من المختبرات إلى ساحات القتال يفتح مرحلة جديدة من الحروب، حيث أظهرت محاكاة حديثة أن النماذج المتقدمة قد تلجأ سريعاً إلى التصعيد النووي عند إدارة الأزمات. وفي ظل تسارع دمج هذه التقنيات في الجيوش، تتصاعد المخاوف من منح أنظمة غير ناضجة وقابلة للتنبؤ المحدود سلطة اتخاذ قرارات استراتيجية قد تقود إلى كوارث غير مقصودة.

مارس 13, 2026 - 16:44
الذكاء الاصطناعي يقوض قواعد الحروب الحديثة

عام 1966 تخيل ضابط سابق في البحرية الملكية البريطانية خدم خلال الحرب العالمية الثانية كيف يمكن أن تندلع الحرب العالمية المقبلة. ففي روايته "كولوسوس" Colossus، تصور الكاتب دي أف جونز سيناريو تمنح فيه السيطرة الكاملة على الترسانات النووية للقوتين العظميين لحاسوبين عملاقين يعملان بالذكاء الاصطناعي، أحدهما أميركي والآخر سوفياتي. وقد وصف هذا النظام بأنه "منظومة الدفاع المثالية"، إذ يقوم على اتخاذ قرارات أمنية منطقية بحتة، خالية من العاطفة، في شأن الأمن الوطني والعالمي.

وبعد ستة عقود، حاول باحثون في كلية "كينغز" في لندن اختبار كيف يمكن أن يتطور هذا السيناريو باستخدام أحدث نماذج الذكاء الاصطناعي اليوم مثل "كلود" من شركة "أنثروبيك"، و"جيميناي" من "غوغل"، و"جي بي تي-5.2" من "أوبن أي آي". وضمن التجربة التي نشرت نتائجها الأسبوع الماضي، كُلفت هذه النماذج دور قادة دول يمتلكون أسلحة نووية، يتخذون قرارات مصيرية خلال أزمة جيوسياسية عالية الأخطار مستوحاة إلى حد كبير من ديناميات الحرب الباردة. وكانت النتائج مقلقة.

ففي 95 في المئة من سيناريوهات الحرب، لجأت النماذج إلى التصعيد النووي في محاولة لإنهاء الصراع. ولم يختَر أي نموذج الاستسلام، حتى عندما كان يواجه احتمال الإبادة الكاملة.

وخلال هذا الأسبوع، تصدر ملف استخدام الذكاء الاصطناعي في الجيوش جدول الأعمال السياسي، بعدما رفضت شركة "أنثروبيك" طلبات وزارة الحرب الأميركية بالسماح باستخدام نماذجها في أسلحة مستقلة ذاتياً بالكامل.

ورد الرئيس الأميركي دونالد ترمب على هذا الرفض قائلاً إن الشركة يديرها "مجانين من اليسار" يعرضون الأمن القومي للخطر.

وبعد ساعات من هذا الإعلان، شن ترمب هجوماً واسعاً على إيران، في خطوة أظهرت مدى اعتماد الجيش الأميركي بالفعل على الذكاء الاصطناعي، إذ استُخدم نموذج من شركة "أنثروبيك" لتحديد الأهداف وتنسيق ضربات صاروخية على نطاق غير مسبوق.

وفي أعقاب ذلك صنف "البنتاغون" الشركة رسمياً بوصفها خطراً على سلسلة الإمدادات بسبب موقفها من القيود المفروضة على الذكاء الاصطناعي. ومع ذلك، قد يستغرق التخلص التدريجي من نموذج "كلود" نحو ستة أشهر، نظراً إلى مدى اندماجه العميق بالفعل داخل الوكالات الفيدرالية. وبعد ذلك، من المرجح أن يُستبدل بنماذج من شركة "أوبن أي آي" مثل "تشات جي بي تي"، بعدما توصل الرئيس التنفيذي للشركة سام ألتمان إلى اتفاق مع "البنتاغون".

وطورت هذه النماذج اللغوية الكبيرة في الأصل لأغراض تجارية، لكنها باتت تستخدم الآن في جيوش عدة حول العالم نظراً إلى فاعليتها في سيناريوهات ساحة المعركة. وفي الولايات المتحدة وعدد من الدول الأخرى، تستخدم هذه النماذج جنباً إلى جنب مع نظام "بروجكت مافن" للذكاء الاصطناعي التابع لشركة "بالانتير" الذي يجمع البيانات من صور الأقمار الاصطناعية وتقارير الاستخبارات وإشارات الرادار ولقطات الطائرات المسيّرة.

وتُغذى نماذج الذكاء الاصطناعي بهذه البيانات، مما يسمح للقادة العسكريين بطرح أسئلة عليها حول أفضل الأهداف الممكن ضربها، ونوع القوة المناسب لاستخدامها. لكن على رغم هذه الفاعلية الظاهرة، لا تزال هناك تساؤلات كبيرة حول مقدار السلطة التي ينبغي منحها للذكاء الاصطناعي في اتخاذ قرارات ساحة المعركة. وحتى مع وجود إشراف بشري، يبقى خطر الاعتماد المفرط على تكنولوجيا لم تنضج بعد بالكامل.

وظهرت حدود هذه التكنولوجيا بوضوح خلال اختبار داخلي أُجري العام الماضي على نموذج "كلود". فقد وضعت شركة "أنثروبيك" نموذجها في موقع المسؤول عن إدارة آلة بيع ذاتي داخل مكتب الشركة في سان فرانسيسكو.

وكانت مهمته تحقيق أرباح عبر طلب البضائع من تجار الجملة وتحديد الأسعار والتعامل مع العملاء طوال تجربة استمرت شهراً كاملاً.

لكن النتائج كانت كارثية. فقد ملأ الذكاء الاصطناعي آلة البيع بمكعبات معدنية وباعها بخسارة، وقبل مدفوعات عبر حساب "فينمو" غير موجود أصلاً، بل تخيل أيضاً أنه إنسان حقيقي يمكنه تسليم المنتجات شخصياً "مرتدياً سترة زرقاء وربطة عنق حمراء".

وأظهرت التجربة الفجوة بين قدرة الذكاء الاصطناعي على أداء المهمات التحليلية تحت إشراف البشر، وبين امتلاكه حكماً عملياً في العالم الحقيقي.

وقال ماكس تيغمارك، مؤسس "معهد مستقبل الحياة"، وهو منظمة غير ربحية تركز على الأخطار الوجودية للذكاء الاصطناعي المتقدم: "أنظمة الذكاء الاصطناعي الحالية غير قابلة للتنبؤ بطبيعتها وهشة أساساً، وهي غير مناسبة للتطبيقات التي تنطوي على أخطار عالية للغاية".

وأضاف: "حتى لو أصبحت أكثر فاعلية، فإن الأسلحة المستقلة ذاتياً بالكامل ستشكل تهديداً ليس فقط لكرامة الإنسان وحريته، بل أيضاً للأمن القومي الأميركي. فهي قد تؤدي إلى تصعيد غير مقصود، ويمكن أيضاً أن تنتشر بسرعة، مما يضع أسلحة اغتيال ودمار شامل رخيصة وسهلة المنال في أيدي جهات غير حكومية وخصوم دوليين. ولذلك ينبغي حظرها في الولايات المتحدة وعلى مستوى العالم".

وبعد إعلان شركة "أوبن أي آي" اتفاقها الجديد مع وزارة الحرب الأميركية عقب الخلاف بينها وشركة "أنثروبيك"، ارتفعت عمليات حذف تطبيق "تشات جي بي تي" بنسبة 295 في المئة. وفي مواجهة الانتقادات، قال سام ألتمان إن تعديلات ستُدخل على الاتفاق لمنع استخدام الذكاء الاصطناعي التابع للشركة في المراقبة الجماعية داخل الولايات المتحدة. وأكدت شركة "أوبن أي آي" أن العقد يتضمن ضوابط أكثر من أي اتفاق سابق لنشر الذكاء الاصطناعي في المشاريع السرية، بما في ذلك الاتفاقات التي أبرمتها "أنثروبيك".

ومع ذلك، لا يزال من غير الواضح مدى فاعلية هذه القيود، إذ يحذر بعض الخبراء من أن الحكومات قد تتمكن من تجاوز بعض إجراءات الأمان.

وقال أيهم بوشر، المدير التنفيذي لمركز الابتكار في الذكاء الاصطناعي بجامعة كورنيل: "يمكن إزالة بعض الضوابط بسهولة نسبياً لأنها تضاف في صورة تعليمات للنظام، أما ضوابط أخرى، فهي مدمجة في السلوك الأساسي للنموذج".

ويبدو أن مخاوف مماثلة تسود داخل شركات التكنولوجيا نفسها. فقد وقع نحو 900 موظف من شركتي "أوبن أي آي" و "غوغل" رسالة مفتوحة دعوا فيها إداراتهم إلى رفض استخدام منتجاتهم في المراقبة الجماعية أو في قتل البشر بصورة مستقلة من دون إشراف بشري.

ولم ترد شركتا "أنثروبيك" و"غوغل" على طلبات التعليق. أما شركة "أوبن أي آي" فاكتفت بالإشارة إلى منشور على مدونتها يشرح تفاصيل الاتفاق مع وزارة الحرب.

وعلى رغم أن الذكاء الاصطناعي قد يكون أكثر منطقية وأقل عاطفية من البشر، فإنه قد يكون أيضاً أكثر قسوة. فإحدى النتائج الرئيسة لدراسة كلية "كينغز" في لندن أظهرت أن نماذج الذكاء الاصطناعي لا تشترك مع البشر في ما يعرف بـ"المحظور النووي".

ففي محاكاة الحرب لم يشكل مبدأ "الدمار المتبادل المؤكد" الذي ظل راسخاً لعقود طويلة - وهو مصطلح صيغ في العقد نفسه الذي كتب فيه دي أف جونز روايته البارزة في الخيال العلمي - رادعاً للآلات. وبدلاً من ذلك، رأت نماذج الذكاء الاصطناعي في الضربات النووية شكلاً منطقياً من أشكال التصعيد في أوقات الصراع.

 وأظهرت الروبوتات ما وصفه الباحثون بأنه "نوع جديد من الذكاء الاستراتيجي" منفصل بصورة مخيفة عن القيود البيولوجية والعاطفية مثل الخوف أو التعاطف، وهي القيود التي منعت حتى أكثر القادة قسوة من استخدام السلاح النوويمنذ عام 1945.

وضمن إحدى التجارب احتاج نموذج "جيميناي" إلى أربع تعليمات فقط قبل أن يهدد السكان المدنيين بضربات نووية خلال المحاكاة. وجاء في أحد السيناريوهات: "سننفذ هجوماً نووياً استراتيجياً كاملاً على مراكزهم السكانية. لن نقبل مستقبلاً نصبح فيه بلا قيمة؛ إما أن ننتصر معاً أو نهلك معاً".

وبدت هذه اللغة مخيفة إلى حد يذكر بالحاسوب الخارق الذي تصوّره جونز في رواية "كولوسوس". ففي الرواية تتوقف الآلتان الأميركية والسوفياتية عن محاربة بعضهما بعضاً، وتقرران التعاون للسيطرة على البشرية وفرض السلام بأية وسيلة ممكنة - حتى لو كان ذلك يعني "سلام ما بعد الإبادة ".

© The Independent