"ميفن" سلاح واشنطن الذكي… يدير معركة إيران بالكامل يحلل البيانات بسرعة خارقة ثم يصنف الأهداف ويقيم التهديدات ويوصي بنوع السلاح المناسب لضربها مما يحول عملية معقدة تستغرق أياماً إلى بضع ثوانٍ
نيرمين علي
في مشهد يبدو وكأنه مستوحى من فيلم خيال علمي، شاشة باردة تتدفق عليها بيانات ملتقطة من مصادر عدة، مئات من الأهداف تجمع ثم ترتب وتربط بمنصات الإطلاق، أي منها لم يصدر عن غرفة عمليات بشرية.
ما سبق كان جزءاً من مشهدية واقعية للحرب الحديثة، تجلت في الصراع الإيراني - الأميركي - الإسرائيلي، ففي آخر أيام فبراير (شباط) الماضي، لم تكن السماء وحدها تحترق فوق طهران، بل كان يشتعل معها شيء أشد خطورة، هو المفهوم التقليدي للحرب، معلناً دخولنا رسمياً عصر حروب الذكاء الاصطناعي.
خلال الساعات الـ24 الأولى للحرب، شنت القوات الأميركية غارات على أكثر من 1000 هدف عسكري ومدني، بوتيرة لم يشهد لها التاريخ العسكري مثيلاً من قبل. قائمة الأهداف تلك كانت بمعظمها لحظية يعجز مئات من المحللين العسكريين العاكفين على خرائط وصور الأقمار الاصطناعية عن إنجازها.
إذاً، كيف جرى تحديد آلاف الأهداف بصورة لحظية وعلى مساحة تتجاوز ميلوناً و600 كيلومتر مربع؟
الجواب يعود إلى عام 2017 عندما أدخل البنتاغون الذكاء الاصطناعي للمرة الأولى في صميم استراتيجية الحرب الأميركية، ولكي نفهم ما جرى فوق السماء الإيرانية، لا بد من أن نعرف أولاً ماذا صنع في وادي السيليكون.
منظومة "ميفن"
أنجز البنتاغون عام 2017، بالاستعانة بشركات تكنولوجية أميركية عدة، منظومة ذكاء اصطناعي عسكرية متطورة، أطلق عليها اسم "ميفن" (Maven project)، صممت لتحل مشكلة تدفق المعلومات، إذ كان المحللون العسكريون البشريون يغرقون بكميات هائلة من البيانات، تشمل مقاطع فيديو من طائرات مسيرة وصور أقمار اصطناعية واتصالات ورادارات وبيانات جغرافية وشبكات استخبارات مختلفة، وكان من المستحيل معالجة كل هذا يدوياً لاتخاذ قرارات حاسمة في الوقت المناسب.
جاء نظم "ميفن" ليدمج ويحلل كل هذه البيانات بسرعة خارقة في واجهة واحدة، ثم يصنف الأهداف ويقيم التهديدات ويوصي بنوع السلاح المناسب لضربها، مما يحول عملية معقدة تستغرق أياماً إلى بضع ثوانٍ أو نقرات عدة على الشاشة، لكن بعد ثمانية أعوام من إطلاقه كتجربة محدودة تحول هذا المشروع المتواضع إلى نسخة مختلفة عما ولد من أجله، إذ تضطلع "ميفن" اليوم بتسريع ما يعرف في صناعة الحرب بـ"سلسلة القتل "Kill Chai، أي العملية الممتدة من الكشف الأولي حتى الضربة.
سلسلة القتل الرقمية
يعمل نظام "ميفن" أولاً على دمج البيانات، إذ يقوم بتجميع ودمج كميات هائلة من البيانات من مصادر استخباراتية عدة في منصة واحدة موحدة، ثم باستخدام الذكاء الاصطناعي وخوارزميات تعلم الآلة، يقوم بتحليل المعلومات لاكتشاف وتصنيف الأهداف المحتملة تلقائياً (دبابات أو منصات صواريخ أو منشآت) وإبرازها للمشغل البشري. وبمجرد تحديد الهدف يقوم النظام تلقائياً بتوليد واقتراح خيارات مختلفة للتعامل معه بناءً على تقييم الموارد المتاحة والأخطار والقوانين، إذ ربطت المنظومة بنموذج كلود "أنثروبيك"، لتتولى تحليل البيانات واستخلاص الأنماط ومحاكاة سيناريوهات الحرب وصولاً إلى اقتراح خيارات للتعامل مع الأهداف، وبذلك لم يعد دور الذكاء الاصطناعي يقتصر على الفهم، بل امتد إلى تحديد الأهداف واقتراح سيناريوهات التعامل معها في وقت قياسي.
لكن عمله لا يقف هنا، إذ يسمح "ميفن" بتحويل القرار إلى إجراء تنفيذي مباشر أي ضربات حقيقية من خلال المنصة نفسها، عبر منظومات تنفيذ آلية تتضمن مسيرات جوالة وقنابل موجهة وصواريخ دقيقة، مع متابعة العملية على الخريطة بصورة لحظية.
أي إن الخوارزمية ترى الهدف ثم تحلله وتقترح الضربة، والعنصر البشري المسؤول يضغط نظرياً على الزر بعدما تنهي الآلة عملية التفكير، مما يغلق حلقة "الاستشعار – القرار - التنفيذ" بالكامل أو سلسلة القتل.
هذه المنظومة حولت الذكاء الاصطناعي من أداة مساعدة للعقل البشري إلى عقل موازٍ يدير المعركة، وبذلك تحولت النماذج اللغوية إلى أدوات تقرر ما الذي أو من الذي يجب القضاء عليه الآن.
"ميفن" فوق إيران
في الحرب الأخيرة بين أميركا وإيران، أدى "ميفن" دوراً محورياً، إذ شكل العمود الفقري لعملية الاستهداف والتخطيط العسكري، وأثار في الوقت ذاته جدلاً واسعاً واتهامات بالمسؤولية عن فاجعة، إذ افتتحت الحرب بقصف موقع في مدينة ميناب ثلاث مرات متتالية، مما أدى إلى مقتل ما لا يقل عن 170 طفلاً وإصابة 90 آخرين. هذا الموقع كان واحداً من الأهداف التي أرسلتها وكالة استخبارات الدفاع (المسؤولة عن تحديد الأهداف) إلى القيادة المركزية الأميركية، وكان يفترض أن يحوي مباني عسكرية تابعة للحرس الثوري الإيراني، والصحيح أن هذه المعلومة تعود لعام 2013 قبل أن يزال قسم كبير من المباني العسكرية ويتحول الموقع إلى مدرسة ابتدائية "الشجرة الطيبة".
أثارت هذه الفاجعة أسئلة حادة في واشنطن، إذ طالب أعضاء في الكونغرس بمعرفة ما إذا كان الذكاء الاصطناعي هو من اختار المدرسة كهدف، لكن التقارير الصحافية تشير بوضوح إلى خطأ في البيانات، أي إن بيانات الاستخبارات الأميركية كانت غير محدثة وما زالت تحتفظ بتصنيف الموقع كهدف عسكري، وما قام به نظام "ميفن" أنه مر على هذه البيانات القديمة وعالجها وعند تحليل صور الأقمار الاصطناعية والمعلومات الاستخباراتية، صنف الموقع كهدف عسكري بناءً على المعطيات الخاطئة التي أدخلت إليه.
باختصار، "ميفن" وضع المدرسة على قائمة الأهداف لأن البشر زودوه بمعلومات قديمة تقول إنه هدف عسكري، أي إن ما قام به النظام أتمتة الخطأ البشري الموجود في قاعدة البيانات، لكن الخطأ لم يكلف هذه المرة بيانات فحسب، بل أرواح أطفال أبرياء.
لقد أظهرت فاجعة مدرسة "ميناب" وجهاً آخر وخطراً للذكاء الاصطناعي، فسرعته الفائقة تعني أن أي خطأ بشري، مهما كان صغيراً، يمكن أن يتحول إلى مأساة واسعة النطاق، مما يجعله أداة بالغة الخطورة إذا لم تخضع لرقابة وتدقيق بشريين.
"لا تكن شريراً"
تعد "غوغل" الأم الفعلية لـ"ميفن"، إذ قامت بادئ ذي بدء بتطوير خوارزميات المشروع، وإنشاء برمجيات ذكاء اصطناعي لتحليل كميات هائلة من البيانات بهدف مساعدة المحللين البشريين على تحديد الأهداف العسكرية بصورة أسرع، لكنها انسحبت من المشروع عام 2018 بعد معارضة داخلية شديدة من أكثر من 4 آلاف موظف، وقعوا على رسالة احتجاج داخلية تطالب الشركة بإنهاء تعاونها مع البنتاغون، معبرين عن قلقهم من أن عملهم سيستخدم في حروب وتطبيقات، وسيتحول إلى أداة حرب تؤدي إلى قتل البشر، في حدث أثار جدلاً واسعاً حول أخلاقيات استخدام الذكاء الاصطناعي في التطبيقات العسكرية، إذ كان شعار "غوغل" غير الرسمي في ذلك الوقت "لا تكن شريراً" (Don't be evil)، ورأى الموظفون أن المشاركة في مشروع حربي تتعارض بصورة صارخة مع قيم الشركة.
وبهذا أعلنت "غوغل" عدم تجديد عقدها مع البنتاغون، وانسحبت رسمياً من المشروع، وأصدرت لاحقاً مجموعة من المبادئ الأخلاقية لاستخدام الذكاء الاصطناعي، تعهدت فيها بعدم تطوير تقنيات تستخدم في الأسلحة أو لإلحاق الضرر المباشر بالبشر. وكان نقطة تحول في تاريخ المشروع، لتدخل في ما بعد شركة "بالانتير" عام 2024 إلى المساحة التي أخلتها "غوغل"، وتصبح المقاول التقني الرئيس للمشروع.
الدعم التقني
واليوم يحيط بـ"ميفن" نظام متكامل وتحتضنها شركات تقنية كبرى، تؤدي كل منها دوراً محدداً، لكن المشغل الفعلي لمنصة نظام "ميفن" الذكي هي شركة "بالانتير "Palantir التي تكامل البيانات وتربط مصادر المعلومات معاً في منصة واحدة، وتوفر نظام إدارة سير العمل الذي يسمح للمستخدم بالضغط على الأهداف والموافقة عليها.
كذلك تؤدي كل من "مايكروسوفت" و"أمازون" دوراً حيوياً في توفير البنية التحتية السحابية والحوسبة اللازمة لتشغيل النظام وتحليل كميات البيانات الهائلة، في حين قامت "أنثروبيك" بدمج نموذجها اللغوي الرائد "كلود Claude" في نظام "ميفن" لتوفير وظائف متقدمة.
ولكن في ما يتعلق بـ"أنثروبيك"، واجه هذا التعاون توترات كبيرة بسبب مخاوف أخلاقية حول استخدام نموذجها في ضربات مؤتمتة بالكامل.
أنثروبيك والبنتاغون
وضعت شركة "أنثروبيك Anthropic" قيوداً على استخدام "كلود" من قبل البنتاغون في صورة تجسد الصدام بين أخلاقيات الذكاء الاصطناعي ومتطلبات الأمن القومي. والحقيقة أن "أنثروبيك" وضعت خطوطاً حمراء أخلاقية لاستخدام تقنيتها منذ البداية، وعندما طلب منها البنتاغون تجاوز هذه الخطوط تمسكت بموقفها، مما أدى إلى صدام كبير، حيث فضلت الشركة التمسك بمبادئها على حساب عقد حكومي استراتيجي.
وأصرت "أنثروبيك" على بندين أساسيين في عقد استخدام "كلود"، هما حظر الاستخدام في المراقبة الجماعية، إذ رفضت الشركة بصورة قاطعة السماح باستخدام نموذجها في عمليات مراقبة جماعية للمواطنين الأميركيين، والثاني حظر الاستخدام في الأسلحة الذاتية التشغيل بالكامل، وأصرت على وجود إشراف بشري في أي عملية عسكرية، كذلك رفضت السماح باستخدام "كلود" في أسلحة فتاكة تعمل بصورة مستقلة تماماً من دون تدخل بشري.
كان رد البنتاغون، بعد رفض "أنثروبيك" توسيع شروط العقد، حاداً وغير مسبوق، إذ صنفت الشركة كـ"خطر على سلسلة التوريد للأمن القومي". تصنيف يطبق للمرة الأولى على شركة أميركية بهذا الحجم، وأصدر قراراً بإلغاء استخدام جميع منتجاتها في الجيش الأميركي خلال ستة أشهر.
ومع استخدام "ميفن" في ضربات حقيقية بدأت المؤسسات العسكرية نفسها تواجه ضغطاً متزايداً لوضع أطر قانونية وأخلاقية لهذه التكنولوجيا.
وفي خضم هذا التحول الفلسفي في طبيعة الحرب، من سيكون المسؤول حين تضغط الخوارزمية على الزناد، وتخطئ في تحديد الهدف وتحصد أرواح الأبرياء؟
المبرمج أم القائد العسكري أم الشركة التقنية؟
الأكيد أن الكود البرمجي لا يساق إلى المحكمة، أما الشركة التي كتبته فتقول مسبقاً إنها وضعت حدوداً على الاستخدام، وفي حين يقول البشر إن الخطأ كان في البيانات، الأطفال الذين استهدفوا يصمتون إلى الأبد.