"خوارزميات" القتل في غزة*د. محمد كامل القرعان
الراي
لطالما ارتبط مفهوم "الجرائم ضد الإنسانية" بمشاهد القتل الجماعي، والتهجير القسري، والتعذيب الممنهج، باعتبارها أفعالًا مروعة تنتهك الكرامة البشرية وتمس جوهر القانون الدولي الإنساني. غير أن التطورات التكنولوجية، وعلى رأسها الذكاء الاصطناعي، فرضت واقعًا جديدًا يستوجب إعادة التفكير في تعريف هذه الجرائم وحدودها، وخاصة عندما تتحول الخوارزميات إلى أدوات موجهة للقتل، كما هو الحال في العدوان الإسرائيلي المستمر على قطاع غزة.
لقد شكلت غزة خلال الشهور الماضية ساحة اختبار وحشية لقدرات الذكاء الاصطناعي في إدارة الحرب، حيث كشفت تقارير صحفية موثقة عن استخدام إسرائيل أنظمة ذكاء اصطناعي متقدمة لتحديد الأهداف العسكرية والمدنية، تحت مسميات مثل "هَبون" و"غوست". هذه الأنظمة تعمل على تحليل بيانات ضخمة في ثوانٍ، لتُصدر "توصيات" تُنفذ غالبًا دون رقابة بشرية، ما أدى إلى قصف مئات البيوت والملاجئ والمستشفيات، وسقوط آلاف الضحايا من المدنيين، بينهم أطفال ونساء.
هنا لا نتحدث عن خطأ فردي في التقدير أو عن "أضرار جانبية"، بل عن اعتماد ممنهج على خوارزميات باردة، تفتقر لأي حس إنساني، وتُدار وفق معايير تقنية لا تراعي القانون الدولي أو القيم الأخلاقية. إن استخدام الذكاء الاصطناعي في استهداف مناطق مأهولة بالسكان، بناءً على نمط حركة أو موقع جغرافي، يُحول المدني إلى "هدف" قابل للمحو، ويُلغي القاعدة الجوهرية في القانون الدولي الإنساني: التمييز بين المقاتل والمدني.
كما أن الذكاء الاصطناعي، بما يوفره من تغليف رقمي للقرارات، يمنح القاتل فرصة للاختباء خلف "الآلة"، والتنصل من المسؤولية القانونية والأخلاقية. فهل يمكن محاسبة خوارزمية؟ وهل يعفى من أطلقها من المسؤولية بحجة أن الآلة قررت؟
أمام هذا الواقع الجديد، تصبح غزة حالة واضحة لإعادة النظر في التعريفات التقليدية للجرائم ضد الإنسانية. فالجريمة لم تعد فقط ما يُرتكب يدويًا أو ميدانيًا، بل ما يُنفذ رقمياً، ضمن منظومة حسابية تدعي "الحياد"، بينما نتائجها تؤكد أن الحياد فيها وهم، وأن البرمجة تم توجيهها لتكون أداة قتل جماعي.
كما أن الجرائم ضد الإنسانية لم تعد تقتصر على ما يُبث عبر الصور المؤلمة فقط، بل تشمل ما يُخفى عبر تكنولوجيا الإخفاء والتضليل والتلاعب بالحقائق. فالذكاء الاصطناعي يُستخدم أيضًا في إنتاج محتوى مزيف (deepfake)، وترويج روايات كاذبة، وإسكات الرواية الفلسطينية، في إطار حرب معلوماتية موازية لا تقل خطورة عن القصف الميداني.
إن ما يجري في غزة يُحتم على المجتمع الدولي ومؤسسات القانون الدولي أن تعيد تعريف الجريمة، وفق متطلبات العصر الرقمي، وأن تُحاسب الفاعلين الذين استخدموا الذكاء الاصطناعي كأداة إبادة، لا أقل من الطائرات والمدافع. فلا يجوز أن يكون تطور التكنولوجيا غطاءً للوحشية، ولا أن تُستغل أدوات المعرفة في تبرير القتل أو التهرب من العقاب.
لقد آن الأوان أن يُصاغ ميثاق دولي جديد يُنظم استخدام الذكاء الاصطناعي في النزاعات المسلحة، ويُدرجه ضمن أدوات الحرب التي تخضع للمساءلة. فالحرب على غزة ليست فقط مأساة إنسانية، بل مؤشر خطير على مستقبل الحروب إذا تُرك الذكاء الاصطناعي دون ضوابط، وإذا لم يُدرك العالم أن العدالة يجب أن تتطور بموازاة أدوات الجريمة.