البث المباشر
تحرير الفضاء العام الأردني. فزّاعة "القواعد الأميركية" في الأردن! الاردن يدين الهجوم الإرهابي الذي تعرضت له قوات سورية وأميركية في سوريا ولي العهد يطمئن على صحة اللاعب يزن النعيمات هاتفيا الأردن يدين مصادقة اسرائيل على إقامة 19 مستوطنة في الضفة مندوبا عن الملك وولي العهد.. العيسوي يعزي العجارمة والعمايرة والرحامنة والنجار وأبو حسان المهندس محمد خير محمود داود خلف في ذمة الله "حين تُنصف الدولة أبناءها التوجيهي الأردني 2007 بين عدالة القرار وكرامة الفرصة" دبلوماسية اللقاء والعبور: قراءة في حركة السفير الأمريكي ودورها في النسيج الأردني البنك الإسلامي الأردني يحصد جوائز مرموقة من مجلة (World Finance) للعام 2025 أمين عام وزارة الاتصال الحكومي يعقد لقاءات ثنائية في قمة "بريدج 2025" حالة الطقس المتوقعة لاربعة ايام المنطقة العسكرية الشرقية تحبط 4 محاولات تهريب كميات كبيرة من المواد المخدرة الأمن العام : ندعو كل من يمتلك مدفأة من المتعارف عليها باسم الشموسة وبكافة أنواعها بإيقاف استخدامها على الفور وأخذ التحذير على غاية من الأهمية الخارجية النيابية" تدين بشدة اقتحام مقر "الأونروا" في الشيخ جراح فوضى مواقع التواصل الاجتماعي، نداء استغاثة! النشمية الأردنية "د.جهاد الحلبي" تحصل على جائزة إرث علماء التمريض عبر الثقافات ‏بذور الفتنة تنبُت ، فمن يغذيها ؟!!! 1.237 مليار دينار صادرات تجارة عمان خلال 11 شهرا زين كاش تُطلق حملة استقبال العام 2026 للفوز بـ 2026 دينار

الخوارزميات القاتلة: هل يحسم الذكاء الاصطناعي الحياة والموت في غزة؟

الخوارزميات القاتلة هل يحسم الذكاء الاصطناعي الحياة والموت في غزة
الأنباط -
د.مؤيد عمر
شهدت حرب غزة (2023–2025) نقلة نوعية في تكنولوجيا إدارة العمليات العسكرية، إذ برز لأول مرة على نطاق واسع الحديث عن أنظمة ذكاء اصطناعي تُستخدم لتحديد الأهداف وتصنيف الأشخاص والمباني، وقد تصدر اسم نظام لافيندر " Lavende" ونظام جوسبل "Gospel" واجهة النقاش الإعلامي والحقوقي، باعتبارهما نموذجًا لتحول الخوارزميات إلى أدوات قرار قد تحسم مصير الإنسان بين الحياة والموت.

تشير تقارير صحفية دولية مثل ذا جارديان " The Guardian" نيويورك تايمز "New York Times” أن نظام لافيندر " Lavende" نظام يستخدم الذكاء الاصطناعي لتصنيف الأفراد من خلال تحليل كمّيات هائلة من البيانات: صور، مكالمات هاتفية، نشاط على الإنترنت ووسائل التواصل الاجتماعي، إضافة إلى أنماط سلوك رقمية، ثم يقوم بتحديد "أهداف محتملة" حيث يقوم بتصنيف الشخص على انه من العناصر المسلحه وله ارتباط بالفصائل المسلحه وبالتالي يكون هدف محتمل، يتميز هذا النظام بالسرعة الفائقة حيث أنتج – بحسب بعض التقارير – قوائم بعشرات الآلاف من الأسماء خلال فترة قصيرة جدًا، وهو ما يتجاوز بكثير قدرة أي فريق بشري من المحللين.

لكن هنا يبرز سؤال جوهري: ماذا عن الأخطاء؟ خاصة ان هذه الأنظمة قيد التطوير ولم تصل إلى النضج الكامل، فكل خوارزمية في العالم – مهما بلغت دقتها – لها نسبة خطأ، وهنا نسبة الخطأ تكون بقتل مدني بريئ قد يُدرج خطأً كهدف عسكري ربما فقط لانه تحدث مكالمة ذكر فيها كلمات عسكرية او تداول مواقع وصور لاماكن عسكرية او غيرها من الانماط التي يصنفها النظام بانها سلوك لمسلح، القانون الدولي الإنساني يشترط التمييز الصارم بين المدنيين والمقاتلين، والتناسب في استخدام القوة، فإذا تحولت الخوارزمية مع نسبة الخطأ إلى صاحب القرار الأساسي من يعيش ومن يموت هنا يحدث تضاربًا خطيرًا مع هذه المبادئ.

الجيش الإسرائيلي حاول طمأنة الرأي العام بالقول إن هذه الأنظمة مجرد "أدوات دعم قرار"، وأنه ما زال هناك "الإنسان في الحلقة" أو ما يُعرف بمبدأ "Human in the Loop”، أي أن الضابط البشري يظل صاحب القرار النهائي، غير أن منظمات حقوقية اعتبرت أن ما يحدث على أرض الواقع يكشف عن اعتماد شبه كامل على الخوارزميات، بينما المراجعة البشرية تتحول في الغالب إلى مجرد ختم مطاطي يضفي الشرعية الشكلية على قرارات الذكاء الاصطناعي دون مراجعة فعلية عميقة.

أما نظام جوسبيل "Gospel" فقد ركّز – وفق التقارير – على الأهداف المادية والبنى التحتية بدل الأفراد، يتم تغذيته ببيانات متعددة المصادر مثل صور الأقمار الصناعية، تسجيلات الطائرات المسيّرة، إشارات الاتصالات، بعد ذلك يقترح النظام أهدافًا مثل: مبنى يُعتقد أنه مركز قيادة، مخزن ذخيرة، موقع لإطلاق الصواريخ، أو نفق تحت الأرض، بعض المصادر أشارت إلى أن هذا النظام كان يُنتج ما يقارب مئة هدف يوميًا، السؤال هنا أيضًا: هل يستطيع الإنسان أن يراجع بهذا المعدل المرتفع جميع الأهداف بشكل عميق وضمن وقت قصير؟ أم أن دور الإنسان ينحصر في المصادقة الشكلية على ما تقترحه الآلة، أي أن وجوده يصبح أقرب إلى "ختم مطاطي" أكثر منه رقيبا فعليًا؟ وماذا اذا كان بجانب هذا الهدف مستشفى او مدرسة مدنية؟

الجدل الكبير حول لافيندر وجوسبيل يعكس قضية مستقبلية أوسع بكثير: هل يمكن أن يُترك مصير البشر لقرارات آلية؟ في هذه الحالة يصبح الإنسان مجرد "بيانات" في قاعدة معلومات، ويغدو دور الخوارزمية أقرب إلى "قاضٍ عسكري" يقرر من يعيش ومن يموت، وهنا تأتي أهمية مبدأ الأنسان في الحلقة "Human in the Loop"، أي ضمان بقاء الإنسان في دائرة القرار، ليس كشاهد صامت أو موظف يضغط زرًا فقط، بل كصاحب مراجعة نقدية مسؤولة توازن بين التقنية والقانون والأخلاق.

إن خطورة هذه الأنظمة أنها قد تغيّر طبيعة الحرب جذريًا، فبدل أن يكون القرار العسكري مبنيًا على تقدير إنساني مركّب يأخذ بعين الاعتبار القوانين والأعراف، يصبح القرار معتمدًا على خوارزميات قد لا تفهم معنى "المدني" و"المقاتل"، أو قيمة الحياة الإنسانية، ولهذا يرى خبراء القانون الدولي أن العالم بحاجة عاجلة إلى وضع أطر تشريعية وأخلاقية صارمة تنظّم استخدام الذكاء الاصطناعي في الحروب، وتمنع تحوّله إلى مجرد "آلة قتل" مغطاة بختم مطاطي من مراجعة بشرية شكلية.
إن لافيندر وجوسبيل لم يعودا مجرد أنظمة تقنية، بل تحولا إلى رمزين عالميين لمخاوف البشرية من مستقبل قد تتحول فيه الحروب إلى عمليات آلية، تُدار فيها الحياة والموت بقرارات تصدر من خوارزميات لا تُدرك معنى الإنسانية.
© جميع الحقوق محفوظة صحيفة الأنباط 2024
تصميم و تطوير