العمليات غير المنسوبة والذكاء الاصطناعي

الذكاء الاصطناعي في التسليح والدفاع

A.M

1/22/2026

يشهد النظام الدولي المعاصر تحوّلًا نوعيًا في طبيعة استخدام القوة، يتمثل في تزاوج العمليات غير المنسوبة سياسيًا مع أنظمة الذكاء الاصطناعي. هذا التزاوج لا يغيّر فقط أدوات الحرب، بل يُعيد تعريف مفاهيم المسؤولية، القرار، والمساءلة. يحلل هذا المقال كيف أسهم الذكاء الاصطناعي في تعميق “حروب الظل”، عبر نقل الإنكار من مستوى الدولة إلى مستوى الخوارزمية، وما يترتب على ذلك من تداعيات استراتيجية وقانونية بعيدة المدى.

منذ نهاية الحرب الباردة، اتجهت الدول الكبرى بشكل متزايد إلى استخدام القوة دون إعلان رسمي للمسؤولية، مستفيدة من أدوات عسكرية واستخباراتية تتيح هامش إنكار سياسي واسع. ومع تسارع إدماج الذكاء الاصطناعي في أنظمة القيادة والسيطرة، دخل هذا النمط مرحلة جديدة، حيث لم يعد الإنكار مقتصرًا على الفاعل السياسي، بل امتد ليشمل آلية اتخاذ القرار نفسها.

هذا التحول يثير تساؤلات جوهرية حول من يقرر، ومن يُحاسَب، وكيف تُدار القوة في بيئة يغيب عنها الوضوح المتعمّد.

1. العمليات غير المنسوبة: الإطار المفاهيمي

تشير العمليات غير المنسوبة (Unattributed / Covert Operations) إلى أنشطة عسكرية أو أمنية

  • تُنفَّذ دون إعلان رسمي

  • تفتقر إلى إقرار قانوني صريح

  • تعتمد على قابلية الإنكار السياسي

وقد أصبحت هذه العمليات عنصرًا مركزيًا في إدارة النزاعات منخفضة الشدة، خصوصًا في البيئات التي تجعل المواجهة المباشرة مكلفة سياسيًا أو استراتيجيًا.

تشير دراسات صادرة عن معهد الدراسات الاستراتيجية الدولية (IISS) إلى أن هذا النمط بات يشكل القاعدة التشغيلية في عدد متزايد من النزاعات، وليس الاستثناء.

2. الذكاء الاصطناعي كعامل تمكين

لم يُدمج الذكاء الاصطناعي في المجال العسكري بوصفه بديلًا عن الإنسان، بل كوسيلة لتعزيز:

  • سرعة جمع المعلومات

  • دقة التحليل

  • كفاءة الفرز والترتيب

إلا أن هذه الوظائف التقنية سرعان ما تحولت إلى مكوّن حاكم في دورة القرار.

فوفق تقارير وزارة الدفاع الأمريكية، تُستخدم أنظمة مدعومة بالذكاء الاصطناعي اليوم في:

  • تحليل الصور الفضائية

  • فرز الأهداف

  • دعم القرار العملياتي
    وهي تقلّص زمن التحليل بنسبة تتراوح بين 60% و90% مقارنة بالأساليب التقليدية.

3. من الإنكار السياسي إلى الإنكار الخوارزمي

تقليديًا، كان الإنكار السياسي يقوم على الغموض القانوني واللغوي. أما اليوم، فقد أضيف إليه بعد جديد: الإنكار الخوارزمي.

في هذا النموذج:

  • تُنسب التوصية إلى “النظام”

  • يُختزل دور القائد إلى المصادقة

  • تتشتت المسؤولية بين الإنسان والآلة

في دراسة صادرة عن DARPA أظهرت أن القادة العسكريين يميلون إلى قبول توصيات الأنظمة الذكية بنسبة تتجاوز 70% في البيئات عالية الضغط الزمني، حتى عند وجود شكوك غير محسومة.

هذا الانحياز يُضعف مبدأ المسؤولية الفردية، ويخلق منطقة رمادية جديدة في استخدام القوة.

4. التداعيات الاستراتيجية

4.1 خفض عتبة استخدام القوة

عندما يصبح القرار أسرع وأقل كلفة سياسية، تميل الدول إلى استخدام القوة بوتيرة أعلى، ما يؤدي إلى:

  • تطبيع العنف منخفض الشدة

  • توسيع نطاق العمليات غير المعلنة

4.2 زيادة مخاطر سوء التقدير

الأنظمة الذكية تعتمد على بيانات تاريخية وأنماط سلوكية، لكنها تفتقر إلى:

  • السياق السياسي الكامل

  • التقدير الأخلاقي

  • الحساسية الثقافية

وهو ما يزيد احتمالات التصعيد غير المقصود.

5. الإشكاليات القانونية والأخلاقية

يطرح الدمج بين العمليات غير المنسوبة والذكاء الاصطناعي إشكاليات عميقة، أبرزها:

  • غياب إطار قانوني دولي واضح يحكم القرارات المدعومة خوارزميًا

  • صعوبة تحديد المسؤولية الجنائية عند وقوع أخطاء

  • تآكل مبدأ الرقابة المدنية على استخدام القوة

تشير تقارير الأمم المتحدة إلى أن هذه الفجوة القانونية تُعد من أخطر التحديات التي تواجه القانون الدولي الإنساني في العقد القادم.

6. هل نحن أمام تحول دائم؟

تشير معظم التحليلات الصادرة عن مراكز التفكير الغربية والآسيوية إلى أن هذا المسار غير قابل للتراجع، بل مرشح للتوسع، خاصة مع:

  • سباق التسلح في الذكاء الاصطناعي

  • تصاعد النزاعات الرمادية

  • تراجع الإجماع الدولي حول قواعد استخدام القوة

السؤال لم يعد: هل سيُستخدم الذكاء الاصطناعي في حروب الظل؟
بل: كيف يمكن ضبطه قبل أن يُعيد تشكيل النظام الدولي على أساس الغموض الدائم؟

يمثل الانتقال من الإنكار السياسي إلى الإنكار الخوارزمي تحولًا بنيويًا في استخدام القوة المعاصرة. فبينما يمنح الذكاء الاصطناعي الدول قدرة غير مسبوقة على إدارة الصراع دون إعلان، فإنه في المقابل يُضعف أسس المسؤولية والمساءلة التي يقوم عليها النظام الدولي.

إن التحدي الحقيقي لا يكمن في التقنية ذاتها، بل في غياب الإطار الناظم لاستخدامها. وإذا لم يُعالج هذا الخلل، فقد تتحول حروب الظل من أداة استثنائية إلى نمط دائم، تُدار فيه القوة بسرعة الآلة… دون حكمة القيادة.

قائمة المراجع

  1. U.S. Department of Defense, Annual Report on Artificial Intelligence, Washington D.C.

  2. DARPA, AI and Human Decision-Making in High-Tempo Operations.

  3. International Institute for Strategic Studies (IISS), The Military Balance, London.

  4. RAND Corporation, Artificial Intelligence and Escalation Risks.

  5. United Nations, Report of the Secretary-General on Lethal Autonomous Weapons Systems.

  6. NATO, Allied Joint Doctrine for the Conduct of Operations.

  7. Harvard Kennedy School, Plausible Deniability and Modern Conflict.