إعادة التفكير في الذكاء الاصطناعي القتالي والإشراف البشري

مقالات مترجمة

مع التطور السريع في تقنيات الذكاء الاصطناعي، بدأت الجيوش حول العالم في إعادة تقييم الطريقة التي يمكن بها دمج هذه التكنولوجيا في العمليات العسكرية. لم يعد الذكاء الاصطناعي مجرد أداة لتحليل البيانات أو دعم الاستخبارات، بل أصبح عنصرًا فعالًا في تصميم أنظمة قتالية قادرة على اتخاذ قرارات تكتيكية في ساحة المعركة.

لكن هذا التطور يطرح سؤالًا أساسيًا: هل يجب أن تُترك القرارات القتالية للآلات بالكامل، أم يجب أن يبقى الإنسان في مركز عملية اتخاذ القرار؟

يناقش البحث الأكاديمي “War Elephants: Rethinking Combat AI and Human Oversight” هذا السؤال من خلال تحليل العلاقة بين الإنسان والآلة في الحروب المستقبلية، ويقترح نموذجًا جديدًا للتعاون بين البشر والذكاء الاصطناعي في العمليات العسكرية.

تطور دور الذكاء الاصطناعي في الحرب

شهدت العقود الماضية انتقالًا تدريجيًا من الأنظمة العسكرية التقليدية إلى الأنظمة المؤتمتة. بدأت هذه العملية مع إدخال الحواسيب في أنظمة القيادة والسيطرة، ثم تطورت مع ظهور الطائرات بدون طيار والأنظمة الروبوتية.

ومع ظهور تقنيات التعلم الآلي والتعلم العميق، أصبح من الممكن تطوير أنظمة قادرة على تحليل كميات هائلة من البيانات واستخلاص الأنماط منها بسرعة كبيرة. هذه القدرات جعلت الذكاء الاصطناعي عنصرًا مهمًا في عدة مجالات عسكرية مثل:

تحليل الصور الفضائية
التعرف على الأهداف
الملاحة الذاتية للطائرات المسيّرة
التخطيط العملياتي

لكن إدخال هذه الأنظمة في المجال العسكري لا يعني بالضرورة استبدال الإنسان بالكامل. فالحرب ليست مجرد مسألة حسابات رياضية أو خوارزميات، بل تتضمن أيضًا عوامل إنسانية وسياسية وأخلاقية معقدة.

مفهوم الحرب بسرعة الآلة

أحد المفاهيم الأساسية التي يناقشها البحث هو مفهوم الحرب بسرعة الآلة (Machine-Speed Warfare). في الحروب التقليدية كان اتخاذ القرار يعتمد على القادة العسكريين الذين يقومون بتحليل المعلومات واتخاذ القرارات بناءً على خبرتهم وتقديرهم للموقف.

لكن في ساحة المعركة الحديثة أصبحت كمية البيانات المتاحة أكبر بكثير مما يمكن للإنسان معالجته في الوقت المناسب. على سبيل المثال، يمكن أن تنتج الطائرات المسيّرة وأجهزة الاستشعار آلاف الصور ومقاطع الفيديو في الساعة الواحدة.

في مثل هذه الظروف يصبح استخدام الذكاء الاصطناعي ضروريًا لمعالجة البيانات بسرعة وتحويلها إلى معلومات قابلة للاستخدام. لكن المشكلة تكمن في أن سرعة اتخاذ القرار قد تتجاوز قدرة الإنسان على التدخل، مما يثير تساؤلات حول مدى السيطرة البشرية على العمليات العسكرية.

نموذج “الفيل الحربي” في الذكاء الاصطناعي

يستخدم البحث استعارة تاريخية مثيرة للاهتمام لتوضيح العلاقة بين الإنسان والآلة في الحرب، وهي استعارة الفيل الحربي.

في الحروب القديمة كانت الجيوش تستخدم الفيلة في المعارك بسبب قوتها الهائلة وقدرتها على اختراق صفوف العدو. لكن رغم هذه القوة، كان الفيل دائمًا تحت سيطرة قائد بشري يجلس على ظهره ويقوم بتوجيهه. يقترح الباحثون أن الذكاء الاصطناعي في الحروب الحديثة يجب أن يُعامل بطريقة مشابهة. فالذكاء الاصطناعي يمكن أن يوفر قوة تحليلية وقدرات عملياتية هائلة، لكنه يجب أن يبقى تحت إشراف الإنسان الذي يحدد الأهداف ويضع الحدود الأخلاقية والقانونية لاستخدام القوة.

الفرق القتالية المشتركة بين الإنسان والذكاء الاصطناعي

بدلاً من الاعتماد الكامل على الأنظمة الذاتية، يقترح البحث نموذجًا يسمى Human-AI Combat Teaming. في هذا النموذج يعمل الإنسان والذكاء الاصطناعي كفريق واحد داخل ساحة المعركة، ويقوم الذكاء الاصطناعي بالمهام التي تتطلب سرعة تحليل عالية، مثل: تحليل بيانات الاستشعار والتعرف على الأهداف واقتراح الخيارات التكتيكية .. بينما يحتفظ الإنسان بالسلطة النهائية في اتخاذ القرارات المتعلقة باستخدام القوة، حيث يسمح هذا النموذج بالاستفادة من قدرات الذكاء الاصطناعي دون التخلي عن الحكم البشري.

طبقات التحكم في الأنظمة الذكية

يقترح البحث أيضًا هيكلًا تنظيميًا جديدًا لإدارة الأنظمة العسكرية المدعومة بالذكاء الاصطناعي، حيث يتكون هذا الهيكل من عدة مستويات:

المستوى الأول يشمل المشغلين البشر الذين يتحكمون مباشرة في الأنظمة العسكرية.

المستوى الثاني يتضمن أنظمة ذكاء اصطناعي تساعد المشغلين من خلال تحليل البيانات وتقديم التوصيات.

المستوى الثالث قد يشمل أنظمة ذكاء اصطناعي أخرى تقوم بإدارة بعض العمليات بشكل شبه مستقل، مثل تنسيق حركة الطائرات المسيّرة أو توزيع المهام بينها.

لكن في جميع الحالات يجب أن يبقى هناك مستوى من الإشراف البشري لضمان عدم خروج النظام عن السيطرة.

مخاطر الاعتماد الكامل على الذكاء الاصطناعي

يشير البحث إلى أن الاعتماد الكامل على الأنظمة الذاتية قد يؤدي إلى عدة مخاطر. أحد هذه المخاطر هو فقدان السيطرة البشرية على القرارات القتالية. إذا أصبحت الأنظمة الذكية قادرة على اتخاذ قرارات إطلاق النار بسرعة تفوق قدرة الإنسان على التدخل، فقد يؤدي ذلك إلى أخطاء كارثية. كما أن الأنظمة الذكية قد تكون عرضة للاختراق أو التضليل من قبل الخصوم، خاصة في بيئات الحرب الإلكترونية.

مشكلة الثقة في الأنظمة الذكية

تعتبر الثقة عنصرًا أساسيًا في استخدام الذكاء الاصطناعي في العمليات العسكرية. فإذا لم يثق القادة العسكريون في قرارات الأنظمة الذكية فقد يترددون في استخدامها، مما يقلل من فائدتها العملياتية. لكن في المقابل، الثقة المفرطة في هذه الأنظمة قد تكون خطيرة أيضًا، خاصة إذا كانت الخوارزميات غير قادرة على تفسير قراراتها. لذلك يشدد الباحثون على أهمية تطوير أنظمة ذكاء اصطناعي يمكن تفسير قراراتها بوضوح للمشغلين البشر.

أهمية الشفافية في خوارزميات الحرب

يشير البحث إلى أن أحد التحديات الرئيسية في الذكاء الاصطناعي العسكري هو ضمان شفافية الخوارزميات. يجب أن يكون المشغلون قادرين على فهم كيفية توصل النظام إلى قراراته، حتى يتمكنوا من تقييم مدى صحتها .. هذا الأمر مهم بشكل خاص في الحالات التي تتعلق باستخدام القوة القاتلة.

مستقبل التعاون بين الإنسان والآلة

يرى الباحثون أن مستقبل الحرب لن يكون صراعًا بين البشر والآلات، بل سيكون تعاونًا بينهما. ستقوم الأنظمة الذكية بدور المساعد الذي يعزز قدرات الإنسان، وليس البديل الذي يحل محله.

في هذا النموذج سيظل الإنسان مسؤولًا عن القرارات الاستراتيجية والأخلاقية، بينما تقوم الآلة بالمهام التي تتطلب سرعة ودقة عالية.

يشير البحث إلى أن الذكاء الاصطناعي سيصبح بلا شك جزءًا أساسيًا من الحروب المستقبلية. لكن الطريقة التي يتم بها دمج هذه التكنولوجيا في العمليات العسكرية ستحدد إلى حد كبير تأثيرها على الأمن العالمي.

إذا تم استخدام الذكاء الاصطناعي بطريقة مسؤولة مع الحفاظ على الإشراف البشري، فقد يساهم في تحسين كفاءة العمليات العسكرية وتقليل الخسائر البشرية. أما إذا تم الاعتماد عليه بشكل كامل دون ضوابط، فقد يؤدي ذلك إلى ظهور مخاطر جديدة تتعلق بالاستقرار العسكري والسيطرة على القوة القاتلة.

لهذا السبب يدعو الباحثون إلى تطوير نماذج تشغيلية جديدة تضمن تحقيق التوازن بين قدرات الذكاء الاصطناعي وحكمة الإنسان.

رابط المقال الأصلي

War Elephants: Rethinking Combat AI and Human Oversight
https://arxiv.org/abs/2404.19573

معلومات عن البحث

  • الجهة: بحث أكاديمي منشور على arXiv

  • السنة: 2024

  • المجال: الذكاء الاصطناعي العسكري وإدارة الأنظمة القتالية الذاتية

(تمت الترجمة بتصرف)