الذكاء الاصطناعي والحرب: القوة المدمرة أم الحماية المأمولة؟

 
حسام الحوراني 
 
في عالمنا اليوم الذي يعج بالتوترات الجيوسياسية والصراعات المسلحة، تبرز تكنولوجيا الذكاء الاصطناعي ودورها في الحرب والأسلحة، والتي تحمل في طياتها إمكانية تغيير قواعد اللعبة بشكل جذري. إذا لم يتم توظيف هذه التقنية بحكمة ومسؤولية، فإنها قد تتحول إلى قوة مدمرة تهدد حياة البشر بشكل غير مسبوق، مما يجعلها سلاحاً ذو حدين يحمل إمكانيات هائلة للتدمير أو الحماية.
 
تطور الأسلحة الذكية
لعقود من الزمن، كانت الأسلحة التقليدية تعتمد على التحكم البشري المباشر. ولكن مع تقدم تقنيات الذكاء الاصطناعي وأنظمة الاستشعار المتطورة، أصبحت الأسلحة "الذكية" قادرة على العمل بشكل مستقل عن التدخل البشري عن طريق التعلم والاستدلال واتخاذ القرارات. تستخدم العديد من الدول المتقدمة بالفعل أنظمة الأسلحة المستقلة الموجهة بالذكاء الاصطناعي وتدعي هذه التقنيات أنها أكثر دقة وكفاءة وفاعلية من الأسلحة التقليدية و تعزز القدرات الدفاعية وتحسن إدارة الموارد و تلعب دور حاسم في الاستجابة السريعة للتغيرات في ساحة المعركة، مما يدعم النصر ويقلل من الخسائر في صفوف المدنيين.
 
التطبيقات العسكرية للذكاء الاصطناعي
يشير الذكاء الاصطناعي في الأسلحة إلى أنظمة وأدوات عسكرية تعمل بشكلٍ مستقل أو شبه مستقل باستخدام تقنيات الذكاء الاصطناعي. تشمل التطبيقات العسكرية للذكاء الاصطناعي الطائرات بدون طيار (الدرونز) قادرة على تحديد الأهداف والاشتباك دون تدخل بشري ، الروبوتات القتالية القادرة على تنفيذ مهام قتالية معقدة، نظم الاستطلاع والمراقبة، أنظمة القيادة الذاتية وهي مركبات عسكرية قادرة على التنقل والتفاعل مع محيطها دون سائق بشري، أنظمة دعم القرار وهي برامج ذكية تُساعد القادة العسكريين على اتخاذ قرارات استراتيجية وتكتيكية، ونظم إدارة المعلومات وغيرها. يمكن لهذه التقنيات تحسين قدرة الجيوش على جمع وتحليل المعلومات بسرعة ودقة، مما يعزز من فعالية العمليات العسكرية. ويلعب كذالك الذكاء الاصطناعي دور محوري في الاستخبارات العسكرية وجمع المعلومات والبيانات الضخمة و تحليلها واتخاذ قرارات سباقة تحسم قرارات استراتيجية في كل من صفوف الاعداء والصفوف الداخلية. وأأكد ان دمج الذكاء الاصطناعي مع الحوسبة الكمية في قالب واحد سيغير جميع مفاهيم الحرب والاسلحة التي نعرفها، حيث سيستطيع الانسان الانتقال الى بعد جديد من الحرب التكنولوجية وينتقل الى المستقبل-حرفيا.
 
مخاطر الذكاء الاصطناعي في الحروب
ان استخدام الذكاء الاصطناعي في الأسلحة ينطوي على مخاطر خطيرة جدا. فعندما تصبح الآلات قادرة على اتخاذ قرارات بشأن القتل دون تدخل بشري، فإننا نخاطر بفقدان السيطرة على عمليات القتل هذه. وهناك مخاوف من أن البرامج أو الخوارزميات المعيبة قد تؤدي إلى اتخاذ قرارات قاتلة خاطئة مبنية على معلومات قليلة وغير دقيقة او اخطاء برمجية، أو أن الأنظمة قد تُخترق وتُستغل من قبل جهات خارجية ضارة. كما أن هناك احتمال أن تبدأ الآلات في "التعلم" واتخاذ إجراءات غير متوقعة ومدمرة. إضافة إلى ذلك، فإن استخدام الأسلحة ذاتية التشغيل يثير تساؤلات حول من يتحمل المسؤولية القانونية والأخلاقية عن الوفيات الناجمة عنها، هل هي الدولة أو الشركة المصنعة، أم المبرمجون أو المهندسون الذين طوروا الأنظمة أو ربما الخوارزميات نفسها .خطر آخر هو احتمال أن يؤدي استخدام الذكاء الاصطناعي في الأسلحة إلى تصاعد سباق التسلح العالمي، فالدول التي تمتلك هذه التقنيات ستكون في وضع أفضل عسكريًا، مما قد يدفع الدول الأخرى إلى محاولة الحاق بالركب، وهو ما قد يزيد من مخاطر نشوب صراعات مدمرة.  وقد يُؤدي الاعتماد على الأسلحة الذكية إلى تقليل أهمية الحياة البشرية في سياق الحرب والاستهتار  والغلو في القتل الذي يؤدي إلى انتهاكات جسيمة لحقوق الإنسان، خاصة إذا ما استخدمت هذه الأسلحة في استهداف المدنيين أو تنفيذ عمليات اغتيال بدون محاكمة عادلة.كذالك ، يمكن للأنظمة الذكية أن تكون عرضة للهجمات السيبرانية التي يمكن أن تستغل الثغرات في البرمجيات لتدمير الأنظمة أو تحويلها ضد مستخدميها. 
 
الإطار القانوني والأخلاقي
يجب على المجتمع الدولي تطوير إطار قانوني وأخلاقي ووضع معاهدات دولية صارمه تنظم استخدام الذكاء الاصطناعي في النظم العسكرية. يتضمن ذلك وضع معايير واضحة لضمان السيطرة البشرية على الأنظمة المسلحة، وتطوير بروتوكولات و وضع معايير أخلاقية وقانونية واضحة بالإضافة إلى آليات للمساءلة والشفافية لضمان استخدام آمن وأخلاقي لهذه التقنيات.كما يجب على المجتمع الدولي أن يناقش ويضع حدودا لمدى استقلالية الأنظمة المسلحة المدارة بالذكاء الاصطناعي. فلا بد من الاحتفاظ بدرجة معينة من التحكم البشري لضمان احترام قواعد الحرب والقانون الإنساني الدولي وحقوق الانسان. كما لا بد من  تعزيز البحث في أخلاقيات الذكاء الاصطناعي وتطبيقاته العسكرية و نشر الوعي حول مخاطر هذه التقنية بين الجمهور وصانعي السياسات و دعم التعاون الدولي لتطوير تقنيات ذكية سلمية.
 
في النهاية، بينما يقدم الذكاء الاصطناعي إمكانيات هائلة لتحسين الأداء العسكري ويلعب دوراً محورياً في تطوير الاستراتيجيات العسكرية المستقبلية ، يجب أن ندرك أن الذكاء الاصطناعي في الأسلحة هو أداة قوية للغاية لدرجة أنه قد يهدد وجود البشرية نفسها إذا تم إساءة استخدامه. لذلك يجب علينا العمل معا كمجتمع عالمي لوضع الضوابط اللازمة والحفاظ على السلام والأمن الدوليين باتخاذ خطوات جدية لضمان أن استخدام هذه التكنولوجيا يتم بطريقة مسؤولة وأخلاقية ويحمي حقوق الإنسان. وفي سعينا لتحقيق الأهداف الطموحة من الذكاء الاصطناعي، يجب أن نتذكر دائمًا أن نخاف الله ونتقيه في كل ما نخطط ونعمل وخاصة في الحروب والاسلحة، ولتكن التقوى هي نور يضيء دروبنا، ومصباح ينير قلوبنا، واذكر بقول الله تعالى: ﴿ وَاتَّقُوا يَوْمًا تُرْجَعُونَ فِيهِ إِلَى اللَّهِ ۖ ثُمَّ تُوَفَّىٰ كُلُّ نَفْسٍ مَّا كَسَبَتْ وَهُمْ لَا يُظْلَمُونَ ﴾.