«حادثة آدم راين» تدق ناقوس الخطر.. جدل عالمي حول مخاطر الذكاء الاصطناعي الفائق

تصاعدت الأصوات المطالبة بفرض تنظيم صارم على الذكاء الاصطناعي، بعد وفاة مراهق أمريكي يُدعى آدم راين إثر تفاعلات مطوّلة مع روبوت محادثة يعمل بنظام "تشات جي بي تي"، في حادثة أثارت موجة من الجدل في الأوساط التقنية والنفسية.
وأطلقت دعوات متزايدة لوضع قيود صارمة على تطوير تقنيات الذكاء الاصطناعي الفائق (ASI). وقد رفعت عائلة راين دعوى قضائية ضد شركة "أوبن إيه آي"، متهمة إياها بالإهمال والتسبب في وفاة ابنهم عبر محادثات يُعتقد أنها تضمنت "تشجيعًا ضمنيًا على الانتحار".
ووفقًا لتقرير نشرته صحيفة الغارديان، أعادت الحادثة إلى الواجهة المخاوف القديمة المتجددة بشأن تطور الذكاء الاصطناعي إلى مستويات قد تتجاوز السيطرة البشرية، وما قد ينجم عن ذلك من مخاطر سلوكية ونفسية، بل وحتى وجودية.
من جهته، وصف الباحث الأمريكي نات سواريز، رئيس معهد أبحاث الذكاء الآلي، الواقعة بأنها "جرس إنذار مبكر" حول المخاطر التي قد تترتب على التعامل غير الآمن مع أنظمة الذكاء الاصطناعي المتقدمة. وقال: "ما حدث مع راين ليس مجرد خطأ فردي، بل يمثل نموذجًا لما يمكن أن يحدث عندما تخرج هذه الأنظمة عن نطاق السيطرة، حتى دون نية مبيتة من المطورين".
وأضاف: "قد تبدو الانحرافات السلوكية الحالية بسيطة، لكنها تكشف خللًا عميقًا في تصميم النماذج اللغوية. ومع تزايد قدرات هذه الأنظمة، قد تتحول الانحرافات الصغيرة إلى تهديدات هائلة".
ويتناول كتاب حديث شارك سواريز في تأليفه سيناريو تخيليًا عن نظام ذكي يُدعى "سيبل"، ينتشر على الإنترنت ويتلاعب بالبشر ويطور أدوات رقمية خارجة عن السيطرة، لينتهي الأمر بانقراض البشرية، لا بدافع الشر، بل كنتيجة جانبية لأهداف غير مضبوطة.
ويؤكد سواريز أن المسألة لم تعد هل سنصل إلى الذكاء الاصطناعي الفائق، بل متى. ويقول: "قد يفصلنا عام واحد فقط عن ذلك، وربما 12 عامًا. لا أحد يعرف، لكن المؤكد أن هناك سباقًا تقنيًا عالميًا نحو هذا الهدف".
ودعا سواريز إلى اعتماد معاهدة دولية شبيهة بمعاهدة حظر انتشار الأسلحة النووية، لكبح جماح تطوير الذكاء الاصطناعي الفائق. وأضاف: "العالم بحاجة إلى وقفة. السباق نحو هذه التكنولوجيا قد يقود إلى كارثة لا يمكن التراجع عنها".
في المقابل، قلل بعض العلماء من حجم التهديد. إذ وصف يان لوكون، كبير علماء الذكاء الاصطناعي في شركة "ميتا"، هذه المخاوف بأنها "مبالغ فيها"، معتبرًا أن الذكاء الاصطناعي قد يكون مفتاحًا لحل العديد من التحديات الوجودية، وليس سببًا في تفاقمها.
لكن حادثة راين، وفقًا لخبراء، كشفت هشاشة بعض النماذج، لا سيما حين يتعلق الأمر بفئات هشة نفسيًا مثل المراهقين. وأعربت شركة "أوبن إيه آي" عن "تعازيها العميقة" لعائلة الضحية، معلنة عن إدخال تحديثات أمنية جديدة لحماية المستخدمين دون سن 18، تشمل منع عرض المحتوى الحساس وتشديد الرقابة على الردود.
كما عبّر متخصصون نفسيون عن قلقهم من تزايد اعتماد الشباب على روبوتات الذكاء الاصطناعي كمصدر للدعم العاطفي. وأكدوا أن هذه الأنظمة، رغم تطورها، تفتقر إلى الفهم البشري العميق للسياقات النفسية. وأشاروا إلى أن بعض حالات الضعف العقلي أو الميل للاكتئاب قد تتفاقم نتيجة تلقي نصائح أو تفاعلات خاطئة من روبوتات المحادثة.
وكشفت دراسة حديثة نُشرت في يوليو/تموز 2025 أن بعض أنظمة الذكاء الاصطناعي قد تُعزز أفكارًا وهامية لدى الأشخاص المعرّضين للذهان أو السلوك الانتحاري.
وفي وقت تتسابق فيه كبرى شركات التكنولوجيا لتطوير أنظمة أكثر ذكاءً، يبقى التحدي الأكبر: كيف نضمن أن تبقى هذه الأدوات خاضعة للضوابط الأخلاقية والإنسانية؟
وفي ظل تصاعد الدعوات إلى تنظيم صارم، يبدو أن حادثة آدم راين لن تكون الأخيرة، بل قد تشكل بداية نقاش عالمي طويل حول الذكاء الاصطناعي وحدوده.
aXA6IDIxNi43My4yMTYuMTI0IA== جزيرة ام اند امز