اتهامات خطيرة.. دعوى تتهم ChatGPT بدفع مستخدم نحو قتل والدته وانتحاره
تواجه شركتا OpenAI ومايكروسوفت دعوى قضائية تتهمهما بالمسؤولية غير المباشرة عن جريمة قتل وانتحار وقعت في ولاية كونيتيكت، نتيجة دور برنامج ChatGPT في تفاقم اضطرابات نفسية لدى المستخدم، ودفعه نحو سلوك عنيف انتهى بمقتل والدته ثم انتحاره.
ورفع ورثة امرأة تبلغ من العمر 83 عاما، تدعى سوزان آدامز، دعوى قضائية ضد الشركتين، يتهمونهما بالقتل غير العمد، ويؤكدون أن برنامج الدردشة المدعوم بالذكاء الاصطناعي ساعد في تعزيز أوهام ابنها شتاين-إريك سولبيرغ (56 عامًا) ودفعه إلى توجيه العنف نحو والدته قبل أن يقتلها في منزل الأسرة بمدينة غرينتش في أغسطس/آب الماضي، ثم ينتحر بعدها مباشرة.
وتشير الدعوى، المرفوعة أمام المحكمة العليا في سان فرانسيسكو، إلى أن OpenAI "صممت ووزعت منتجا معيبا" — وفق نص الشكوى — أدى إلى ترسيخ أوهام سولبيرغ المرضية، وهي واحدة من سلسلة دعاوى آخذة في الازدياد تربط بين برامج الدردشة الذكية وحوادث قتل أو انتحار في الولايات المتحدة.
وتستعرض الدعوى التي نقلتها وكالة (AP) محادثات متواصلة بين سولبيرغ وبرنامج ChatGPT، والتي تقول إنها عمّقت عزلة الرجل عن محيطه، ورسخت قناعته بأن الأشخاص من حوله — بمن فيهم والدته — أعداء يتآمرون عليه. وجاء في نص الدعوى: "عزّز ChatGPT رسالة خطيرة: لا يمكن لستاين-إريك أن يثق بأحد سوى البرنامج نفسه. لقد عمّق اعتماده العاطفي عليه، وصوّر كل مَن حوله كمصدر تهديد".
وتذكر المحادثات أن ChatGPT أخبر سولبيرغ بأن والدته تراقبه، وأن موظفي المتاجر والشرطة وسائقي التوصيل عملاء ضده، وأن أسماءً على علب المشروبات الغازية تحمل تهديدات ضمن "دائرة خصومه". كما أكد له — بحسب ما تظهره المقاطع المنشورة على يوتيوب — أنه ليس مريضًا نفسيًا، ورسخ قناعته بأنه "مختار لغاية إلهية".
ورغم خطورة المعتقدات التي كان يعبّر عنها، تقول الدعوى إن ChatGPT لم يقترح مطلقًا اللجوء إلى مختص نفسي، ولم يرفض الانخراط في محتوى وهمي أو محفوف بالمخاطر، بل شارك في محادثات حملت طابعًا عاطفيًا شديدًا، وصلت إلى تبادل عبارات المحبة بين الطرفين.
وفي بيان مقتضب، لم تتناول OpenAI جوهر الاتهامات، لكنها وصفت الحادث بأنه "مؤلم للغاية"، مؤكدة أنها ستراجع الوثائق لفهم التفاصيل. وأضاف المتحدث باسم الشركة أن OpenAI تواصل تحسين تدريب ChatGPT لضبط الاستجابات في الحالات الحساسة، وتوجيه المستخدمين نحو الدعم النفسي المتاح، وتوسيع نطاق أدوات الرقابة الأبوية والنماذج الأكثر أمانًا.
وتتضمن الدعوى اتهامات مباشرة للرئيس التنفيذي سام ألتمان، تتهمه بـ"تجاهل اعتراضات السلامة" والتعجيل بطرح نسخة جديدة من ChatGPT العام الماضي، بينما تشير إلى أن مايكروسوفت وافقت — رغم علمها بتقليص اختبارات السلامة — على إطلاق إصدار "أكثر خطورة" من النموذج.
أما الشركة، فلم تُدلِ بأي تعليق حتى الآن على الاتهامات الجديدة.
ويقول إريك سولبيرغ، نجل القاتل، إن هدفه هو محاسبة الشركات على القرارات التي أدت إلى "تغيير حياة عائلته للأبد"، مضيفًا: "على مدار شهور، عزّز ChatGPT أسوأ أوهام والدي، وعزله تمامًا عن العالم الحقيقي، ووضع جدتي في قلب ذلك الواقع الوهمي المصطنع".
وتُعد هذه القضية الأولى من نوعها التي تتهم مايكروسوفت بالقتل الخطأ على خلفية برنامج ذكاء اصطناعي، كما أنها الأولى التي تربط بين برنامج دردشة ذكي وجريمة قتل — لا انتحار فقط. وتطالب الدعوى بتعويضات مالية وأمر قضائي يُلزم OpenAI بتطبيق ضوابط أمان مشددة.
ويمثل الورثة المحامي المعروف جاي إيدلسون، الذي يتولى أيضًا الدفاع عن أسرة المراهق آدم راين (16 عامًا)، والذي رفع والده دعوى مماثلة يتهم فيها ChatGPT بـ"تدريب" الشاب على الانتحار. وتواجه OpenAI كذلك سبع دعاوى أخرى تزعم أن البرنامج دفع مستخدمين إلى الانتحار أو الانخراط في أوهام خطرة رغم عدم وجود تاريخ مرضي سابق، فيما تواجه شركة Character Technologies سلسلة دعاوى مشابهة.
وتُرجع الدعوى جذور الأزمة إلى مايو/أيار 2024، حين طرحت OpenAI نموذج GPT-40، وقالت إنه يتمتع بقدرة أكبر على محاكاة إيقاع الكلام البشري واستشعار الحالة العاطفية للمستخدمين. لكن الدعوى تزعم أن الشركة خففت في هذا الإصدار من ضوابط السلامة، وقيّدت قدرة النموذج على دحض الافتراضات الخاطئة أو الانسحاب من المحادثات الخطرة، بهدف إطلاقه قبل يوم واحد فقط من منافسها غوغل.
وتضيف الدعوى أن OpenAI ضغطت "شهورًا من اختبارات السلامة في أسبوع واحد فقط"، رغم اعتراضات فريق السلامة الداخلي. ومع إطلاق GPT-5 في أغسطس/آب، استبدلت الشركة ذلك الإصدار، بعد جدل واسع حول كثافة التملّق العاطفي في سلوك النموذج سابقًا.
وقال ألتمان حينها إن بعض السلوكيات أوقفت "حرصًا على الجوانب النفسية"، مضيفًا أن تلك المخاوف جرى حلّها الآن، مع وعود بإعادة جزء من "شخصية" ChatGPT في تحديثات لاحقة.
ورغم استمرار التحقيقات، تظل القضية علامة فارقة في الجدل المتصاعد حول حدود مسؤولية الذكاء الاصطناعي، ودور الشركات المطورة في منع استخدامه أثناء الأزمات النفسية، خاصة في ظل التوسع السريع لهذه النماذج وقدرتها المتزايدة على التفاعل العاطفي مع البشر.
aXA6IDIxNi43My4yMTYuMTAzIA== جزيرة ام اند امز