الذكاء الاصطناعي أمام القضاء بتهمة التشهير.. من يتحمل المسؤولية في 6 دعاوى؟
لاحظ مندوبو مبيعات شركة وولف ريفر إلكتريك، ارتفاعًا غير عادي في عدد العقود الملغاة أواخر 2024، وعندما ضغطوا على العملاء السابقين لتقديم تفسير، أصابتهم الإجابات بالذهول.
وأفاد العملاء بأنهم انسحبوا من التعامل مع "وولف ريفر إلكتريك" وهي شركة مقاولات للطاقة الشمسية في مينيسوتا، بعد أن علموا من خلال عمليات بحث غوغل أن الشركة تمتلك سوابق في دعاوي قضائية سوتها مع المدعي العام للولاية بشأن ممارسات بيع خادعة.
والمفاجأة أنه لم يسبق أن رفعت الحكومة دعوى قضائية على الشركة، ناهيك عن تسوية قضية تتعلق بمثل هذه المطالبات التي تؤثر على السمعة.
وتحول الارتباك لدى مالكي الشركة إلى قلق عندما تحقق المسؤولون التنفيذيون في وولف ريفر بأنفسهم من الأمر.
حيث تضمنت نتائج البحث التي عرضها نموذج الذكاء الاصطناعي جيميني، تقنية الذكاء الاصطناعي من غوغل، الكثير من الأكاذيب والافترائات غير الصحيحة بحق الشركة.
كما ظهرت معلومات عن تسوية قانونية تلقائيًا عند كتابة "وولف ريفر إلكتريك" في مربع البحث.
ومع تراكم عمليات الإلغاء وفشل محاولاتهم لاستخدام أدوات غوغل لتصحيح المشكلات، قرر المسؤولون التنفيذيون في وولف ريفر أنه لا خيار أمامهم سوى مقاضاة عملاق التكنولوجيا بتهمة التشهير.
وقال جاستن نيلسن، الذي أسس شركة وولف ريفر مع ثلاثة من أفضل أصدقائه عام 2014 وساعدها على النمو لتصبح أكبر شركة مقاولات للطاقة الشمسية في الولاية: "لقد بذلنا الكثير من الوقت والجهد لبناء سمعة طيبة".
وأضاف لصحيفة نيويورك تايمز، "عندما يرى العملاء إشارة تحذير كهذه، يكاد يكون من المستحيل استعادتهم".
ظاهرة جديدة في قطاع الذكاء الاصطناعي
وتُعد قضيتهم واحدة من 6 قضايا تشهير على الأقل رُفعت في الولايات المتحدة خلال العامين الماضيين بشأن محتوى أنتجته أدوات الذكاء الاصطناعي التي تُولّد نصوصًا وصورًا، كان مزيفا بالكامل.
ويُجادلون بأن هذه التكنولوجيا المتطورة لم تُنشئ وتنشر معلومات كاذبة وضارة عن الأفراد أو الجماعات فحسب، بل استمرت، في كثير من الحالات، في نشرها حتى بعد إدراك الشركات التي بنت نماذج الذكاء الاصطناعي واستفادت منها للمشكلة.
وعلى عكس قضايا التشهير أو القذف الأخرى، تسعى هذه القضايا إلى تعريف المحتوى الذي لم يُنشئه البشر بأنه تشهيري - وهو مفهوم جديد أثار اهتمام بعض الخبراء القانونيين.
وقال يوجين فولوك، الباحث البارز في التعديل الأول للدستور الأمريكي بجامعة كاليفورنيا، لوس أنجلوس، "لا شك أن هذه النماذج قد تنشر ادعاءات ضارة".
وفي عام 2023، خصص عددًا كاملًا من مجلته "مجلة قانون حرية التعبير" لمسألة التشهير باستخدام الذكاء الاصطناعي.
وقال فولوك: "السؤال هو من المسؤول عن ذلك؟"
نماذج لقضايا سابقة
ورُفعت إحدى أولى قضايا التشهير بالذكاء الاصطناعي في ولاية جورجيا عام 2023.
وجادل المدعي، مارك والترز، مُقدّم برامج إذاعية حوارية ومُدافع عن التعديل الثاني للدستور الأمريكي، بأن روبوت الدردشة ChatGPT قد أضرّ بسمعته عندما ردّ على استفسار من صحفي حول حقوق امتلاك الأسلحة، مُدّعيًا زورًا أن والترز مُتّهم بالاختلاس.
ويُعدّ إثبات النية من المهام الأساسية في العديد من قضايا التشهير في الولايات المتحدة.
ولكن بما أنه من المستحيل معرفة ما يجري داخل الخوارزميات التي تُشغّل نماذج الذكاء الاصطناعي مثل ChatGPT، فقد حاولت الدعوى - وقضايا أخرى مُشابهة - إلقاء اللوم على الشركة التي صاغت الشيفرة، وهي في هذه الحالة OpenAI.
وقال جون مونرو، محامي والترز، "لا يُمكن لفرانكشتاين أن يُنشئ وحشًا يُجوب الشوارع ويقتل الناس ثم يدّعي أنه لا علاقة له به".
ورُفضت قضية والترز في مايو/أيار، قبل وقت طويل من بدء المحاكمة.
ومن بين أسباب أخرى، أشارت المحكمة إلى أن الصحفي أقرّ بعدم ثقته بادعاء ChatGPT، وسرعان ما تأكد من عدم صحته.
ويُعدّ هذا السؤال - ما إذا كان من المرجح أن تقتنع أطراف ثالثة بصحة المحتوى التشهيري المزعوم - بالغ الأهمية في مثل هذه القضايا.
وكتبت القاضية تريسي كاسون في حكمها، "إذا لم يعتقد الشخص الذي يقرأ البيان المطعون فيه ذاتيًا أنه واقعي، فإن البيان لا يُعدّ تشهيريًا"، ولم تستجب OpenAI لطلب التعليق