البث المباشر
في الأوضاع الراهنة، لا يلفتني فقط ما يجري حول الأردن، بل ما تكشفه بعض المشاهد في الداخل أيضاً. الضمان الاجتماعي.. بين "فخ التدوير" وحتمية الخبرة: من يحمي مستقبلنا؟ حالة الطقس المتوقعة لاربعة ايام فيضان سد شيظم في الطفيلة يتسبب بإغلاق الطريق الملوكي المنطقة العسكرية الشمالية تُحبط محاولة تسلل على واجهتها الشمالية القوات المسلحة: استهداف أراضي المملكة بثلاثة صواريخ خلال ال 24 ساعة الماضية الجيش والأجهزة الأمنية وإدارة الأزمة إعلاميًا… توازن دقيق بين قوة الميدان وذكاء الرسالة مديرية الأمن العام تجدّد تحذيراتها من المنخفض الجوي السائد وتدعو لأخذ أعلى درجات الحيطة والحذر إطلاق مشـروع اللجنة الوطنية الدائمة للتفاوض حول المياه العابرة للحدود المياه : ضبط اعتداءات في اربد ومنجا تسحب كميات كبيرة امانة عمان: لا ملاحظات او شكاوى من الميدان منذ بدء المنخفض الجوي إعلان هام لمستخدمي الهواتف الخلوية في المناطق الحدودية لماذا لم تحقق القوة الجوية الحسم؟ قراءة في استراتيجية الصمود الإيرانية الأمن العام وجامعة مؤتة يعززان شراكتهما الاستراتيجية بملحق اتفاقية لدعم البحث العلمي الطفيلة: زخات ثلجية على المرتفعات الجنوبية وأمطار غزيرة في باقي المناطق تعليق دوام العاملين في سلطة إقليم البترا بسبب الأحوال الجوية إسرائيل تغتال قائد البحرية بالحرس الثوري.. المسؤول عن غلق هرمز الإشاعة تبيع .. والمواطن يدفع ! الأردن يدين المخطط الإرهابي الذي كان يستهدف رموز وقيادات الكويت انخفاض أسعار الذهب محليا إلى 91.10 دينارا للغرام

الخوارزميات القاتلة: هل يحسم الذكاء الاصطناعي الحياة والموت في غزة؟

الخوارزميات القاتلة هل يحسم الذكاء الاصطناعي الحياة والموت في غزة
الأنباط -
د.مؤيد عمر
شهدت حرب غزة (2023–2025) نقلة نوعية في تكنولوجيا إدارة العمليات العسكرية، إذ برز لأول مرة على نطاق واسع الحديث عن أنظمة ذكاء اصطناعي تُستخدم لتحديد الأهداف وتصنيف الأشخاص والمباني، وقد تصدر اسم نظام لافيندر " Lavende" ونظام جوسبل "Gospel" واجهة النقاش الإعلامي والحقوقي، باعتبارهما نموذجًا لتحول الخوارزميات إلى أدوات قرار قد تحسم مصير الإنسان بين الحياة والموت.

تشير تقارير صحفية دولية مثل ذا جارديان " The Guardian" نيويورك تايمز "New York Times” أن نظام لافيندر " Lavende" نظام يستخدم الذكاء الاصطناعي لتصنيف الأفراد من خلال تحليل كمّيات هائلة من البيانات: صور، مكالمات هاتفية، نشاط على الإنترنت ووسائل التواصل الاجتماعي، إضافة إلى أنماط سلوك رقمية، ثم يقوم بتحديد "أهداف محتملة" حيث يقوم بتصنيف الشخص على انه من العناصر المسلحه وله ارتباط بالفصائل المسلحه وبالتالي يكون هدف محتمل، يتميز هذا النظام بالسرعة الفائقة حيث أنتج – بحسب بعض التقارير – قوائم بعشرات الآلاف من الأسماء خلال فترة قصيرة جدًا، وهو ما يتجاوز بكثير قدرة أي فريق بشري من المحللين.

لكن هنا يبرز سؤال جوهري: ماذا عن الأخطاء؟ خاصة ان هذه الأنظمة قيد التطوير ولم تصل إلى النضج الكامل، فكل خوارزمية في العالم – مهما بلغت دقتها – لها نسبة خطأ، وهنا نسبة الخطأ تكون بقتل مدني بريئ قد يُدرج خطأً كهدف عسكري ربما فقط لانه تحدث مكالمة ذكر فيها كلمات عسكرية او تداول مواقع وصور لاماكن عسكرية او غيرها من الانماط التي يصنفها النظام بانها سلوك لمسلح، القانون الدولي الإنساني يشترط التمييز الصارم بين المدنيين والمقاتلين، والتناسب في استخدام القوة، فإذا تحولت الخوارزمية مع نسبة الخطأ إلى صاحب القرار الأساسي من يعيش ومن يموت هنا يحدث تضاربًا خطيرًا مع هذه المبادئ.

الجيش الإسرائيلي حاول طمأنة الرأي العام بالقول إن هذه الأنظمة مجرد "أدوات دعم قرار"، وأنه ما زال هناك "الإنسان في الحلقة" أو ما يُعرف بمبدأ "Human in the Loop”، أي أن الضابط البشري يظل صاحب القرار النهائي، غير أن منظمات حقوقية اعتبرت أن ما يحدث على أرض الواقع يكشف عن اعتماد شبه كامل على الخوارزميات، بينما المراجعة البشرية تتحول في الغالب إلى مجرد ختم مطاطي يضفي الشرعية الشكلية على قرارات الذكاء الاصطناعي دون مراجعة فعلية عميقة.

أما نظام جوسبيل "Gospel" فقد ركّز – وفق التقارير – على الأهداف المادية والبنى التحتية بدل الأفراد، يتم تغذيته ببيانات متعددة المصادر مثل صور الأقمار الصناعية، تسجيلات الطائرات المسيّرة، إشارات الاتصالات، بعد ذلك يقترح النظام أهدافًا مثل: مبنى يُعتقد أنه مركز قيادة، مخزن ذخيرة، موقع لإطلاق الصواريخ، أو نفق تحت الأرض، بعض المصادر أشارت إلى أن هذا النظام كان يُنتج ما يقارب مئة هدف يوميًا، السؤال هنا أيضًا: هل يستطيع الإنسان أن يراجع بهذا المعدل المرتفع جميع الأهداف بشكل عميق وضمن وقت قصير؟ أم أن دور الإنسان ينحصر في المصادقة الشكلية على ما تقترحه الآلة، أي أن وجوده يصبح أقرب إلى "ختم مطاطي" أكثر منه رقيبا فعليًا؟ وماذا اذا كان بجانب هذا الهدف مستشفى او مدرسة مدنية؟

الجدل الكبير حول لافيندر وجوسبيل يعكس قضية مستقبلية أوسع بكثير: هل يمكن أن يُترك مصير البشر لقرارات آلية؟ في هذه الحالة يصبح الإنسان مجرد "بيانات" في قاعدة معلومات، ويغدو دور الخوارزمية أقرب إلى "قاضٍ عسكري" يقرر من يعيش ومن يموت، وهنا تأتي أهمية مبدأ الأنسان في الحلقة "Human in the Loop"، أي ضمان بقاء الإنسان في دائرة القرار، ليس كشاهد صامت أو موظف يضغط زرًا فقط، بل كصاحب مراجعة نقدية مسؤولة توازن بين التقنية والقانون والأخلاق.

إن خطورة هذه الأنظمة أنها قد تغيّر طبيعة الحرب جذريًا، فبدل أن يكون القرار العسكري مبنيًا على تقدير إنساني مركّب يأخذ بعين الاعتبار القوانين والأعراف، يصبح القرار معتمدًا على خوارزميات قد لا تفهم معنى "المدني" و"المقاتل"، أو قيمة الحياة الإنسانية، ولهذا يرى خبراء القانون الدولي أن العالم بحاجة عاجلة إلى وضع أطر تشريعية وأخلاقية صارمة تنظّم استخدام الذكاء الاصطناعي في الحروب، وتمنع تحوّله إلى مجرد "آلة قتل" مغطاة بختم مطاطي من مراجعة بشرية شكلية.
إن لافيندر وجوسبيل لم يعودا مجرد أنظمة تقنية، بل تحولا إلى رمزين عالميين لمخاوف البشرية من مستقبل قد تتحول فيه الحروب إلى عمليات آلية، تُدار فيها الحياة والموت بقرارات تصدر من خوارزميات لا تُدرك معنى الإنسانية.
© جميع الحقوق محفوظة صحيفة الأنباط 2024
تصميم و تطوير