عناوين و أخبار

 

المواضيع الأكثر قراءة

 
 
 
  • تاريخ النشر
    11-Apr-2024

تزايد استخدام الذكاء الاصطناعي في الحروب يطرح تساؤلات أخلاقية

 باريس ـ (أ ف ب) – يفاقم الاستخدام المتزايد للذكاء الاصطناعي في الحروب المخاوف من خطر التصعيد ودور البشر في اتخاذ القرارات.

وأثبت الذكاء الاصطناعي قدرته على اختصار الوقت، ولكنه ليس بالضرورة أكثر أمانا أو أخلاقية.
في هذا السياق، أكد الأمين العام للأمم المتحدة أنطونيو غوتيريش الجمعة بأنه يشعر بـ”انزعاج عميق” من تقارير إعلامية بشأن استخدام إسرائيل الذكاء الاصطناعي لتحديد أهداف في غزة، ما أسفر عن سقوط العديد من الضحايا المدنيين.
وبمعزل عن برنامج “لافندر” الذي تناولته التقارير والنفي الإسرائيلي، في ما يلي لمحة عن التطورات التكنولوجية التي تغيّر وجه الحروب:
– ثلاثة استخدامات رئيسية –
كما هو الحال بالنسبة لبرنامج “لافندر”، يمكن أن يكون الذكاء الاصطناعي مفيدا خصوصا في تحديد الأهداف، عبر معالجة خوارزمياته فائقة السرعة كميات هائلة من البيانات للتعرّف على التهديدات المحتملة.
لكن النتائج لا يمكن أن تكون قائمة سوى على الاحتمالات، إذ يحذّر الخبراء من أن الأخطاء لا يمكن تجنّبها.
يمكن للذكاء الاصطناعي أيضا أن يعمل على أساس تكتيكي. على سبيل المثال، سيكون بمقدور أسراب مسيّرات التواصل مع بعضها البعض والتفاعل بناء على أهداف محددة مسبقا، وهو ما تعمل الصين على تطويره بشكل سريع.
وعلى صعيد استراتيجي، سينتج الذكاء الاصطناعي نماذج لميادين المعارك ويقترح كيفية الرد على الهجمات، لربما حتى عبر استخدام الأسلحة النووية.
– التفكير بشكل أسرع –
يقول ألكسندر أكورسي من مجموعة الأزمات الدولية “تخيل نزاعا شاملا بين بلدين والذكاء الاصطناعي يبتكر استراتيجيات وخططا عسكرية ويتعامل حينيا مع وضعيات حقيقية”.
ويضيف “ينخفض الوقت الذي يتطلبه رد الفعل بشكل كبير. ما يمكن للبشر بأن يقوموا به خلال ساعة، يمكن (للذكاء الاصطناعي) إنجازه في ثوان”.
يمكن لنظام القبة الحديدية الإسرائيلي للدفاع الجوي أن يرصد وصول مقذوف ويحدد طبيعته ووجهته والأضرار المحتملة الناجمة عنه.
توضح لور دو روسي-روشغوند من المعهد الفرنسي للعلاقات الدولية أن “أمام المشغّل دقيقة لاتّخاذ قرار بشأن إن كان عليه تدمير صاروخ أم لا”.
وتضيف “يكون عادة مجنّدا شابا في العشرين من عمره وغير مطلع بما فيه الكفاية على قوانين الحرب. ويمكن التشكيك في مدى سيطرته” على الوضع.
– ثغرة أخلاقية مثيرة للقلق –
في ظل سباق التسلح والغموض المعهود للحرب، لربما ينتقل الذكاء الاصطناعي إلى ميادين المعارك في ظل عدم إدراك كامل لدى جزء كبير من الناس لعواقبه المحتملة.
وتقول دو روسي-روشغوند إن البشر “يتّخذون قرارات بناء على توصيات الآلة، لكن من دون معرفة الحقائق التي اعتمدت عليها الآلة”.
وتتابع “حتى وإن كان من يضغط على الزر إنسانا، فإن نقص المعرفة، إلى جانب السرعة، يعني أن سيطرته على القرار ضعيفة”.
تؤكد أولريكه فرانك من المجلس الأوروبي للعلاقات الدولية بأن الذكاء الاصطناعي “ثقب أسود. لا نفهم بالضرورة ما يعرفه ويفكر فيه أو كيف يتوصل إلى هذه النتائج”.
وتضيف “لماذا يقترح الذكاء الاصطناعي هدفا ما؟ لماذا يقدّم لي معلومات استخباراتية معيّنة؟ إذا سمحنا له بالسيطرة على سلاح، فإن ذلك يطرح سؤالا أخلاقيا حقيقيا”.
– أوكرانيا كمختبر –
استخدمت الولايات المتحدة خوارزميات، مثلا، في الضربات الأخيرة التي استهدفت المتمرّدين الحوثيين في اليمن.
لكن “التغيير الحقيقي لقواعد اللعبة الآن هو أن أوكرانيا باتت مختبرا للاستخدام العسكري للذكاء الاصطناعي”.
منذ غزت روسيا أوكرانيا في 2022، بدأ الفرقاء “تطوير وطرح حلول بواسطة الذكاء الاصطناعي لمهام مثل الاستطلاع الجغرافي المكاني والعمليات باستخدام أنظمة ذاتية التشغيل والتدريب العسكري والحرب الإلكترونية”، وفق فيتالي غونشاروك من مرصد الذكاء الاصطناعي الدفاعي في جامعة هلموت شميت في هامبورغ.
يقول غونشاروك “نتيجة ذلك، أصبحت الحرب في أوكرانيا أول نزاع يتنافس فيه الطرفان باستخدام الذكاء الاصطناعي، والذي بات عاملا حاسما للنجاح”.
– التفوق على الخصم والخطر النووي –
لعل “ذي ترمينايتور”، الروبوت القاتل الذي يفقد البشر السيطرة عليه، مجرّد قصة خيالية اخترعتها هوليوود، إلا أن الحسابات التي تجريها الآلة بكل برود تعكس واقع الذكاء الاصطناعي الحديث الذي يفتقر إلى غريزة البقاء والتشكيك.
نشر باحثون من أربعة معاهد وجامعات أميركية دراسة في كانون الثاني/يناير عن خمسة نماذج لغوية كبيرة (وهو نظام يشبه البرمجيات التوليدية في تشات جي بي تي) في حالات النزاع.
وتشير الدراسة إلى اتّجاه “لتطوير دينامية سباق تسلح تؤدي إلى نزاعات أكبر وفي حالات نادرة، نشر أسلحة نووية”.
لكن القوى العالمية الكبرى تسعى لضمان انتصارها في سباق الذكاء الاصطناعي المستخدم عسكريا، ما يعقّد جهود تنظيم القطاع.
اتفق الرئيسان الأميركي جو بايدن والصيني شي جينبينغ في تشرين الثاني/نوفمبر على تكليف خبراء من الطرفين بالعمل على هذه المسألة.
كما بدأت محادثات قبل عشر سنوات في الأمم المتحدة، لكنها لم تفض إلى نتائج ملموسة.
ويقول أكورسي “هناك نقاشات بشأن ما ينبغي القيام به في قطاع الذكاء الاصطناعي المدني… لكنها أقل بكثير عندما يتعلق الأمر بقطاع الدفاع”.