الشرق الاوسط-واشنطن: إيلي يوسف
لم يكن الذكاء الاصطناعي مجرّد أداة تقنية مساعدة في الإعلام، بل بات اليوم شريكاً فعلياً في صياغة الخبر، وتحرير المحتوى، بل تشكيل الانطباعات العامة عن الأشخاص والشركات. ومع اتساع استخدامه في غرف الأخبار ومحركات البحث ومنصّات التواصل، ظهرت إشكالية قانونية وأخلاقية غير مسبوقة؛ مَن يتحمل المسؤولية عندما يختلق الذكاء الاصطناعي معلومة كاذبة تلحق ضرراً بسمعة أحدهم؟
هذا السؤال كان يوماً أقرب إلى تمرين أكاديمي، لكنه أصبح اليوم مادة لنزاعات قضائية حقيقية أمام المحاكم الأميركية والأوروبية. وللمرة الأولى، نجد شركات كبرى مثل «غوغل» و«ميتا» و«مايكروسوفت» تواجه دعاوى تتهم أدواتها الذكية بنشر محتوى تشهيري لم يصنعه إنسان.
الذكاء الاصطناعي... مصدراً للضرر
في قضية ظهرت أخيراً في ولاية مينيسوتا الأميركية، لاحظ مسؤولو شركة خاصة صغيرة متخصّصة بالطاقة الشمسية، تدعى «وولف ريفير»، ارتفاعاً غير مفهوم في عدد إلغاء العقود من قبل العملاء. وعند الاستفسار، فوجئوا بأن كثيرين منهم وجدوا عبر محرّك البحث «غوغل» معلومات تزعم أن الشركة تعرّضت لملاحقة قضائية من المدّعي العام للولاية بتهمة «ممارسات خادعة».
لكن الأمر لم يكن حقيقياً، إذ لم ترفع أي جهة حكومية دعوى ضد الشركة. والمفاجأة الكبرى أن هذه «الأكاذيب» كانت تظهر بوضوح في نتائج البحث المنتَجة بواسطة «جيميني»، منظومة «غوغل» للذكاء الاصطناعي.
ومع تعاظم الخسائر وغياب ردود فعّالة من «غوغل» لتصحيح الخطأ، قرّرت الشركة مقاضاة عملاق التكنولوجيا بتهمة التشهير. وبحسب صحيفة «النيويورك تايمز»، أصبحت القضية واحدة مما لا يقل عن 6 دعاوى قضائية رفعتها شركات أو أفراد، شاكين من أن الذكاء الاصطناعي أنتج ونشر معلومات كاذبة ألحقت بهم ضرراً مباشراً.
تحدٍ غير مسبوق
في القانون التقليدي، التشهير هو فعل بشري؛ شخص يكتب أو ينطق معلومة كاذبة تضرّ بآخر. لكن مع الذكاء الاصطناعي، لا يوجد «فاعل مباشر» بالمعنى التقليدي. وهنا يبرز السؤال الجوهري؛ هل محتوى تنتجه آلة يمكن أن يصنَّف قانونياً على أنه تشهير؟ وإن كان كذلك، فمَن المسؤول... المطوّر... الشركة المالكة... المستخدم... أم النموذج نفسه؟
«النيويورك تايمز» تنقل عن يوجين فولوخ، الخبير القانوني وأستاذ حرية التعبير بجامعة كاليفورنيا، تلخيصه للإشكالية بقوله: «لا شك أن هذه النماذج تستطيع نشر ادعاءات مسيئة، لكن السؤال هو؛ مَن يتحمّل المسؤولية؟».
أكثر من هذا...
عام 2023، رفع الإعلامي المحافظ مارك وولترز دعوى ضد «أوبن إيه أي» بعدما زعم أنه أجاب بشكل خاطئ أنه متهم بالاختلاس. لكن القضية رُفضت، والسبب أن الصحافي الذي تلقى الإجابة لم يصدّقها، وبذا «لم يحصل ضرر فعلي».
وهنا تظهر عقبة حاسمة؛ القانون الأميركي يتطلب غالباً إثبات النية أو الإهمال. لكن كيف يمكن إثبات «نيّة» داخل «خوارزمية» لا يعرف أحد كيف تتّخذ قراراتها؟
وفي حالة أخرى، رفع الناشط اليميني روبي ستاربَك دعوى ضد شركة «ميتا» بعدما ظهر على منصة «إكس» رسم مولَّد بذكاء اصطناعي يزعم تورّطه في أحداث 6 يناير (كانون الثاني) 2021. إلا أن «ميتا» اختارت التسوية بسرعة، من دون خوض معركة قضائية، وعيّنت الرجل مستشاراً لها في قضايا موثوقية الذكاء الاصطناعي. وهو ما يعتبره خبراء إشارةً واضحة إلى أن شركات الذكاء الاصطناعي تدرك أن أول حكم قضائي ضدها قد يفتح باباً لآلاف الدعاوى.
حتى في أوروبا، رفع الإعلامي الآيرلندي المعروف ديف فانيغ دعوى بعدما ظهر على موقع «إم إس إن» خبر مولّد آلياً، يزعم أنه يواجه محاكمة بتهم جنسية. ومع أن القصة كانت مفبركة بالكامل، فإن نشرها على منصة كبرى كموقع «إم إس إن» أعطاها وزناً إعلامياً أعاد تشكيل صورة الرجل لدى الرأي العام.
لماذا قضية «وولف ريفير» مختلفة؟
يرى عدد من الخبراء أن قضية «وولف ريفير» قد تكون الأخطر على «غوغل»، لأنها تجاوزت مرحلة «الاحتمال النظري» إلى توثيق ضرر مالي مباشر، حيث خسرت عقوداً بقيمة 388 ألف دولار، وخسارة زبائن محتملين بعدما استغل منافسون المعلومة الخاطئة لتشويه الشركة، مع تقدير خسائر إجمالية لعام 2024 بنحو 25 مليون دولار. والأهم من ذلك، أن الشركة ليست «شخصية عامة». وبالتالي، يكفي الإثبات أن «غوغل» أهملت، وليس أنها تصرّفت بـ«استهتار متعمّد». ومع ذلك، رغم إعلان «غوغل» أنها أصلحت المشكلة، ما زالت نتائج بحث خاطئة تظهر حتى الآن.
اليوم، باتت القضية تتجاوز الشركات المتضرّرة، وتعيد طرح سؤال فلسفي وقانوني عميق؛ هل يجب معاملة الذكاء الاصطناعي كـ«أداة» فقط، أم ككيان يخلق محتوى يُنسب إلى الشركة التي صممته؟
بحسب بعض الخبراء، هناك 3 اتجاهات في النقاش القانوني الدولي:
1- اعتبار الذكاء الاصطناعي مجرد أداة مثل قلم يكتب به شخص آخر، وبالتالي المسؤولية على المستخدم فقط.
2- تحميل الشركة المطوّرة المسؤولية لأنها صمّمت ودرّبت وأطلقت نظاماً قادراً على إنتاج محتوى ضارّ.
3- نهج المسؤولية المشتركة حيث يتحمل المطوّر جزءاً من المسؤولية مقابل تقصيره في الحماية أو التصحيح.
حتى الآن، لا يوجد إطار قانوني دولي واضح، والمحاكم مترددة، ربما خوفاً من فتح الباب لآلاف الدعاوى، ولذلك تُفضّل الشركات التسوية على صدور أحكام تُشكل سابقة.
هل يجب معاملة الذكاء الاصطناعي كـ«أداة» فقط، أم ككيان يخلق محتوى يُنسب إلى الشركة التي صممته؟
مستقبل القانون في عالم تقوده الخوارزميات
من الواضح الآن أن الذكاء الاصطناعي أصبح فاعلاً جديداً في صناعة الإعلام وصياغة السمعة. وبين التأثير الاقتصادي، والضرر الاجتماعي، وصعوبة ضبط الخوارزميات، ستحتاج الأنظمة القانونية إلى تحديث جذري يتجاوز ما درجت عليه منذ قرن.
ذلك أن المحتوى الكاذب لم يعد نتاج صحافي غير مسؤول أو ناشر مغمور، بل قد ينتجه نموذج لغوي عملاق يملك قدرة هائلة على الانتشار والتأثير. والسؤال الذي يطرح نفسه اليوم بقوة؛ هل نحن أمام عصر تصبح فيه الشركات التقنية مسؤولة قانونياً عن كل كلمة يكتبها ذكاؤها الاصطناعي، أم أن العالم سيلجأ إلى تنظيمات جديدة تعيد تعريف معنى «النشر» و«المؤلف» و«الخطأ»؟
ما هو معروف حتى الآن؛ هو أن الذكاء الاصطناعي بدأ يفعل ما كان يُخشى منه: إعادة تشكيل الحقيقة، وأحياناً بطريقة خاطئة!
ومن ثم، التحدي اليوم هو تحديد مَن سيدفع الثمن عندما تكون المعلومة الخاطئة من صنع آلة لا يمكن محاسبتها، لكن يمكن محاسبة مَن بناها.