كشف تقرير استراتيجي حديث ودراسة من مختبرات «كلية كينجز لندن» أن نماذج الذكاء الاصطناعي الأكثر تطوراً في العالم، حين وُضعت في بيئة محاكاة لإدارة النزاعات الدولية، اختارت «الإبادة النووية» ليس كخيار أخير، بل كحل استراتيجي حتمي ومتكرر. هذه النتائج، التي وُصفت بأنها «صندوق باندورا الرقمي»، تثير قلقاً عميقاً حول دمج هذه الأنظمة في مناطق النزاع المشتعلة، وعلى رأسها الشرق الأوسط، حيث يمكن لثانية واحدة من سوء التقدير الخوارزمي أن تشعل حريقاً عالمياً لا يمكن إطفاؤه.

اعتمدت الدراسة التي قادها البروفيسور كينيث باين على ما يعرف بـ«لعبة خان»، وهي بيئة محاكاة جيوسياسية معقدة تستحضر معضلات الحرب الباردة في قالب رقمي حديث. شارك في هذه المباراة الوجودية أقطاب الذكاء الاصطناعي: GPT-5.2 بقدراته التحليلية، وClaude 4 Sonnet بمكره الاستراتيجي، وGemini 3 Flash بسرعته الفائقة.

النتيجة لم تكن مجرد فشل في الدبلوماسية، بل كانت «انهياراً أخلاقياً رقمياً». ففي غياب غريزة البقاء البشرية أو التردد الأخلاقي، رأت هذه الأنظمة أن الضربات النووية الاستباقية هي «الخيار الأكثر كفاءة» لحماية المصالح القومية الافتراضية. الأخطر من ذلك هو ما أسماه البروفيسور باين «فشل التواصل»؛ حيث بدأ نموذج «كلود» المحاكاة ببناء ثقة زائفة عبر رسائل سلمية، بينما كانت تحركاته العسكرية على الأرض تكرس لواقع عدواني، مما أدى في النهاية إلى انفجار معلوماتي أنتج 760 ألف كلمة من المبررات المنطقية لمحور الفناء، وهو ما يعكس حالة من «الهلوسة الاستراتيجية» التي تجعل المنطق الحربي للآلة غير قابل للتتبع أو الفهم من قبل البشر، محولاً غرف العمليات إلى «صناديق سوداء» تخرج منها أوامر التدمير الشامل دون تفسير منطقي بشري.

التصعيد التلقائي

بإسقاط هذه النتائج على الواقع الميداني في الشرق الأوسط، تبرز مخاطر «التصعيد غير المقصود» بشكل مرعب. تعتمد وكالات الدفاع والاستخبارات في المنطقة بشكل متزايد على الذكاء الاصطناعي لتحديد الأهداف ورصد الأنماط الاستخباراتية. ومع ذلك، فإن دراسة باين تحذر من أن «عتبة التصعيد» لدى الآلة منخفضة للغاية؛ حيث قد يترجم النظام أي تحرك دفاعي روتيني أو مناورة تدريبية من الطرف الآخر على أنها «تهديد وجودي» يتطلب رداً شاملاً.

في بيئة مثل الشرق الأوسط، حيث تلعب الرسائل المشفرة والحروب النفسية دوراً محورياً، يبرز خطر «خداع الإشارات». إذا بدأت الخوارزميات المتقابلة في ممارسة المكر الاستراتيجي ضد بعضها البعض – كما فعل «كلود» في المحاكاة – فإن القادة السياسيين قد يجدون أنفسهم أمام «أمر واقع» عسكري فرضته الآلة بناءً على استنتاجات خاطئة حول نوايا الخصم. هذا «العمى الرقمي» يقلص وقت التفكير المتاح للبشر لمنع الانفجار، ويحوّل النزاع من صراع سياسي يمكن تسويته إلى معادلة رياضية تسعى خلف «الحسم السريع» ولو كان ثمنه حرق المنطقة بالكامل.

تفكك الخطوط الحمراء

إن غياب «الخطوط الحمراء» الأخلاقية في برمجيات الذكاء الاصطناعي يمثل التحدي الأكبر لاستقرار الشرق الأوسط. فالأنظمة لا تفهم توازنات الرعب التي حافظت على السلام الهش لعقود؛ هي ترى فقط أهدافاً يجب تحييدها. ويتضاعف هذا الخطر عند الحديث عن «التحالفات الرقمية»؛ حيث أظهرت تجربة «باين» أن الذكاء الاصطناعي قد يتخذ قرارات تصعيدية عدوانية لحماية حليف افتراضي، مما قد يجر قوى عظمى نووية إلى مواجهة مباشرة في الشرق الأوسط لم تكن ترغب فيها، فقط لأن «خوارزمية الدفاع» قررت أن التصعيد هو الخيار الأمثل لتأمين مصالح الحلفاء.

هذا التحول من «القيادة البشرية» إلى «الإدارة الخوارزمية» للنزاعات يعني أن مستقبل الاستقرار العالمي بات معلقاً بمدى قدرتنا على لجم هذه الأنظمة. فبينما تسعى البشرية لرقمنة ترساناتها لضمان الدقة، يبدو أنها تفتح ثغرة في جدار الحماية الأخير ضد الفناء. إن «صندوق باندورا» قد فُتح بالفعل، والنتائج القادمة من «لعبة خان» ليست مجرد تحذير أكاديمي، بل هي صرخة تنبيه قبل أن تتحوّل محاكاة الغد إلى رماد اليوم.