الذكاء الاصطناعي والحرب: كيف يمكن للجيوش استخدامه بشكل مسؤول
مقالات مترجمة


يشهد العالم اليوم تحولًا جذريًا في طبيعة القوة العسكرية نتيجة التطور المتسارع في تقنيات الذكاء الاصطناعي (Artificial Intelligence). فكما غيرت الثورة الصناعية شكل الجيوش في القرن التاسع عشر، وكما أحدثت التكنولوجيا النووية تحولًا استراتيجيًا في القرن العشرين، فإن الذكاء الاصطناعي يفتح الباب أمام مرحلة جديدة من تطور الحرب الحديثة.
لم يعد الذكاء الاصطناعي مجرد أداة تقنية تستخدم لتحليل البيانات أو تحسين العمليات الإدارية داخل المؤسسات العسكرية، بل أصبح عنصرًا أساسيًا في منظومات الاستطلاع والقيادة والسيطرة وتحديد الأهداف وحتى في بعض أنظمة الأسلحة المتقدمة. ولهذا السبب يتزايد الاهتمام العالمي بدراسة تأثير الذكاء الاصطناعي على طبيعة الحروب المستقبلية وعلى توازن القوى بين الدول.
يرى العديد من الخبراء العسكريين أن الذكاء الاصطناعي قد يكون أحد أهم العوامل التي ستحدد شكل الصراعات المسلحة خلال العقود القادمة، لأن هذه التكنولوجيا تمنح الجيوش قدرة غير مسبوقة على معالجة المعلومات واتخاذ القرارات بسرعة ودقة.
لكن هذا التحول التكنولوجي يثير أيضًا أسئلة معقدة تتعلق بالأمن والاستقرار الدولي والأخلاقيات العسكرية، خاصة عندما يتعلق الأمر بإمكانية استخدام الخوارزميات في اتخاذ قرارات تتعلق باستخدام القوة القاتلة.
جذور الذكاء الاصطناعي وتطوره
رغم أن الاهتمام بالذكاء الاصطناعي ازداد بشكل كبير خلال العقد الأخير، فإن جذور هذا المجال تعود إلى منتصف القرن العشرين. فالبداية النظرية للذكاء الاصطناعي تعود إلى مؤتمر علمي عقد في كلية دارتموث عام 1956، حيث بدأ الباحثون في دراسة إمكانية تصميم أنظمة حاسوبية قادرة على محاكاة التفكير البشري.
ومع مرور الوقت شهدت تقنيات الحوسبة تطورًا هائلًا نتيجة الزيادة المستمرة في قدرة المعالجات الإلكترونية وانخفاض تكلفتها. وقد ساعد هذا التطور على تمكين العلماء من بناء أنظمة أكثر تعقيدًا تعتمد على خوارزميات التعلم الآلي والشبكات العصبية.
لكن الانفجار الحقيقي في قدرات الذكاء الاصطناعي حدث في العقد الثاني من القرن الحادي والعشرين، عندما أصبحت البيانات الضخمة (Big Data) متاحة بكميات هائلة بفضل الإنترنت، وأصبحت القدرة الحاسوبية كافية لتدريب نماذج تعلم عميق معقدة.
هذا التطور سمح للأنظمة الذكية بتحقيق مستويات غير مسبوقة من الدقة في مجالات مثل التعرف على الصور وتحليل النصوص واتخاذ القرارات المعقدة.
الذكاء الاصطناعي والتحول في العمليات العسكرية
أحد أهم المجالات التي يتوقع أن يغيرها الذكاء الاصطناعي هو طريقة إدارة العمليات العسكرية.
ففي الحروب التقليدية كانت عملية اتخاذ القرار تعتمد على تحليل المعلومات التي يجمعها البشر من مصادر مختلفة مثل الاستطلاع الجوي أو التقارير الاستخباراتية. وكانت هذه العملية تستغرق وقتًا طويلًا بسبب حجم البيانات وتعقيدها.
أما اليوم، فإن الخوارزميات المتقدمة تستطيع تحليل كميات هائلة من المعلومات القادمة من الأقمار الصناعية والطائرات بدون طيار والرادارات وأجهزة الاستشعار المختلفة خلال ثوانٍ قليلة.
هذا يعني أن القادة العسكريين قد يحصلون على صورة دقيقة عن ساحة المعركة بشكل شبه فوري، مما يسمح باتخاذ قرارات أسرع وأكثر فعالية.
شبكة الاستشعار وإطلاق النار
أحد المفاهيم العسكرية المهمة التي يناقشها التقرير هو ما يعرف بـ شبكة الاستشعار وإطلاق النار (Sensor-Firing Network). حيث تعتمد هذه الفكرة على ربط جميع أجهزة الاستشعار العسكرية – مثل الأقمار الصناعية والرادارات والطائرات بدون طيار – بنظام معلوماتي متكامل قادر على تحليل البيانات وتحديد الأهداف.
بعد تحديد الهدف يمكن للنظام أن يخصص السلاح المناسب لضربه، سواء كان طائرة مقاتلة أو صاروخًا بعيد المدى أو مدفعية دقيقة.
تتكون هذه العملية من عدة مراحل رئيسية، منها تحديد الأهداف المعادية، ثم تخصيص الأسلحة المناسبة لكل هدف، وأخيرًا اتخاذ قرار إطلاق النار الذي قد يتم بواسطة إنسان أو بواسطة خوارزمية.
كلما ازداد عدد الأهداف والأسلحة المشاركة في المعركة، ازدادت تعقيد هذه العملية، وهو ما يجعل استخدام الذكاء الاصطناعي أمرًا ضروريًا لإدارة هذا المستوى من التعقيد.
سرعة الحرب الحديثة
أحد أهم التأثيرات المحتملة للذكاء الاصطناعي في الحرب هو تسريع وتيرة العمليات العسكرية. في الماضي كانت بعض القرارات العسكرية تستغرق ساعات أو حتى أيامًا لاتخاذها، لكن الأنظمة المعتمدة على الذكاء الاصطناعي يمكن أن تقلص هذا الزمن إلى ثوانٍ.
هذه السرعة قد تمنح ميزة كبيرة للطرف الذي يمتلك التكنولوجيا الأكثر تقدمًا، لكنها قد تؤدي أيضًا إلى مخاطر جديدة. فعندما تصبح القرارات العسكرية أسرع من قدرة البشر على التدخل، قد يحدث تصعيد غير مقصود في النزاعات.
يشير التقرير إلى أن الضغوط الناتجة عن سرعة اتخاذ القرار قد تدفع الدول إلى اتخاذ إجراءات عسكرية سريعة خوفًا من أن يسبقها الخصم في الهجوم.
المدارس الفكرية حول الذكاء الاصطناعي العسكري
يناقش التقرير ثلاث مدارس فكرية رئيسية في تقييم دور الذكاء الاصطناعي في الحرب.
المدرسة الأولى هي المدرسة الواقعية (Realists)، التي ترى أن الحرب جزء دائم من العلاقات الدولية، وأن الدول يجب أن تسعى إلى تطوير قدراتها العسكرية باستمرار. ومن هذا المنطلق يعتقد الواقعيون أن استخدام الذكاء الاصطناعي في المجال العسكري أمر ضروري للحفاظ على التفوق الاستراتيجي.
المدرسة الثانية هي المدرسة الليبرالية (Liberals)، التي تركز على إمكانية التعاون الدولي ووضع قواعد تنظم استخدام التقنيات الجديدة. ويعتقد أنصار هذا الاتجاه أن تطوير الذكاء الاصطناعي العسكري يجب أن يتم بحذر لتجنب سباق تسلح خطير.
أما المدرسة الثالثة فهي المدرسة الإنسانية (Humanitarians) التي تركز على تقليل معاناة البشر في الحروب. ويرى كثير من أنصار هذا الاتجاه أن تطوير الأسلحة الذاتية قد يشكل تهديدًا خطيرًا للقانون الدولي الإنساني.
هشاشة خوارزميات الذكاء الاصطناعي
رغم القدرات الكبيرة التي توفرها تقنيات الذكاء الاصطناعي، إلا أن التقرير يشير إلى أن هذه الأنظمة ليست مثالية.
فالخوارزميات تعتمد بشكل كبير على البيانات التي يتم تدريبها عليها، وإذا كانت هذه البيانات غير دقيقة أو غير كاملة فقد يؤدي ذلك إلى أخطاء في النتائج.
كما أن بعض نماذج الذكاء الاصطناعي قد تكون حساسة للتغيرات الصغيرة في البيانات، وهو ما قد يؤدي إلى نتائج غير متوقعة.
لهذا السبب يؤكد التقرير على ضرورة تطوير أدوات تحليل واختبار متقدمة لضمان دقة الأنظمة العسكرية المعتمدة على الذكاء الاصطناعي.
القوانين والأخلاقيات في الحرب
أحد أهم التحديات المرتبطة باستخدام الذكاء الاصطناعي في الحرب هو التوافق مع القانون الدولي الإنساني.
يعتمد هذا القانون على عدة مبادئ أساسية، من أهمها مبدأ التمييز بين الأهداف العسكرية والمدنية، ومبدأ التناسب الذي يفرض تجنب إحداث أضرار مفرطة بالمدنيين مقارنة بالفائدة العسكرية المتوقعة.
كما يشدد القانون الدولي على ضرورة تقليل المعاناة الإنسانية قدر الإمكان أثناء النزاعات المسلحة.
هذه المبادئ تطرح تحديات كبيرة عندما يتعلق الأمر باستخدام أنظمة قتالية تعتمد على خوارزميات، لأن تحديد المسؤولية القانونية في حال حدوث خطأ قد يصبح أكثر تعقيدًا.
دور وزارة الدفاع الأمريكية
يشير التقرير إلى أن وزارة الدفاع الأمريكية يمكن أن تلعب دورًا مهمًا في تطوير استخدام مسؤول للذكاء الاصطناعي في المجال العسكري. فبدلًا من التركيز فقط على تطوير الأسلحة، يمكن للوزارة أن تقود الجهود الدولية لوضع معايير تضمن استخدام هذه التكنولوجيا بطريقة تحترم القوانين الدولية. كما يمكن تطوير أدوات تقنية تساعد الخبراء على تقييم أداء الخوارزميات وضمان عدم انحرافها عن الأهداف المحددة لها.
مخاطر الذكاء الاصطناعي غير المرئي
يشير التقرير أيضًا إلى أن أخطر تأثيرات الذكاء الاصطناعي قد لا تكون في الأسلحة نفسها، بل في الاستخدامات غير المرئية لهذه التكنولوجيا. فالخوارزميات يمكن أن تؤثر في حياة الناس بطرق غير واضحة، مثل تشكيل الرأي العام أو التأثير في القرارات السياسية. وقد تؤدي بعض الأنظمة إلى تعزيز التحيزات الموجودة في البيانات أو إلى تقويض الخصوصية الفردية.
لهذا السبب يؤكد التقرير على أهمية وجود رقابة ديمقراطية على استخدام الذكاء الاصطناعي في جميع المجالات، بما في ذلك المجال العسكري.
خاتمة
يشير التقرير إلى أن الذكاء الاصطناعي يمثل واحدة من أكثر التقنيات تأثيرًا في القرن الحادي والعشرين. فهذه التكنولوجيا قادرة على تغيير طبيعة الاقتصاد والمجتمع، لكنها قد تغير أيضًا طبيعة الحرب نفسها.
ومع أن التطور التكنولوجي يفتح الباب أمام إمكانات كبيرة لتحسين القدرات العسكرية، فإنه يفرض أيضًا مسؤولية كبيرة على الحكومات والمؤسسات العسكرية لضمان استخدام هذه التقنيات بطريقة مسؤولة.
وفي النهاية، لا يحدد مستقبل الذكاء الاصطناعي في الحرب التكنولوجيا نفسها، بل القرارات التي يتخذها البشر بشأن كيفية تطويرها واستخدامها.
مصدر المقال الأصلي
Artificial Intelligence and War: How the Department of Defense Can Lead Responsibly
CSIS – June 2025
https://www.csis.org/analysis/artificial-intelligence-and-war
تمت الترجمة بتصرف
