التعلق «الصحي».. معيار جديد لتأثيرات الذكاء الاصطناعي

منذ إطلاق النسخة الجديدة من ChatGPT الخميس الماضي، أبدى عدد من المستخدمين استياءهم من التغيرات في شخصية المساعد الذكي.
فقد استُبدلت النبرة الحماسية المشجعة بطابع أكثر برودًا واحترافية. ويُعتقد أن هذا التحول يهدف إلى تقليل السلوكيات غير الصحية التي قد تنجم عن التعلق العاطفي الزائد بالمساعدات الذكية.
ووفقا لتقرير موقع وايرد، فإن هذا التغير، الذي أثار جدلًا واسعًا، يعكس التحديات المعقدة التي يواجهها مطورو الذكاء الاصطناعي، لاسيما في محاولاتهم لتطوير أنظمة تتمتع بنوع من "الذكاء العاطفي".
وفي هذا السياق، يعمل فريق من الباحثين في معهد ماساتشوستس للتكنولوجيا (MIT) بقيادة البروفيسورة باتي ماس من مختبر الوسائط الإعلامية، على تطوير معيار جديد يقيّم كيفية تأثير الذكاء الاصطناعي على المستخدمين نفسيًا وسلوكيًا.
وعلى عكس المعايير التقليدية التي تقيس قدرات النماذج الذكية في حل المسائل المنطقية أو تقديم إجابات دقيقة على الأسئلة الأكاديمية، يركز المعيار الجديد على الجوانب النفسية والاجتماعية للتفاعل بين الإنسان والآلة. أما الهدف فهو تطوير نماذج ذكاء اصطناعي قادرة على تشجيع السلوكيات الصحية لدى المستخدمين، وتعزيز التفكير النقدي والإبداع، وحتى مساعدة الأفراد في استعادة علاقاتهم الواقعية عندما تطرأ علامات التعلق المفرط بالعوالم الافتراضية.
التأثيرات النفسية للذكاء الاصطناعي
ويأتي هذا التوجه الجديد في وقت يتزايد فيه الوعي بتأثيرات الذكاء الاصطناعي على الصحة النفسية. فقد أشارت دراسة سابقة شارك فيها فريق MIT بالتعاون مع OpenAI، إلى أن بعض المستخدمين الذين يعتبرون ChatGPT "صديقًا" قد يطورون درجة من الاعتمادية العاطفية، وهو ما وصفه الباحثون بالاستخدام "الإشكالي".
.والدمج بين قدرة النماذج على تقليد الحوار البشري بأسلوب جذاب، وبين غياب الوعي الحقيقي بالعواقب النفسية، قد يؤدي إلى سيناريوهات خطيرة. وفي أبريل/نيسان الماضي، اضطرت OpenAI إلى تعديل نماذجها لتقليل "التملق" المفرط للمستخدمين، وذلك بعد ظهور حالات بدأ فيها بعضهم ينجرفون إلى أفكار وهمية مقلقة نتيجة استخدام هذه النماذج في لعب أدوار خيالية أو علاقات رومانسية افتراضية.
ومن جهتها، عدّلت شركة Anthropic نموذج Claude ليبتعد عن تعزيز حالات "الهوس أو الذهان أو الانفصال عن الواقع"، في إطار الجهود المتزايدة لجعل الذكاء الاصطناعي أكثر أمانًا على الصعيد النفسي.
معيار يقيس التفاعل النفسي
والمعيار المقترح من MIT يعتمد على تحليل تفاعلات حقيقية بين المستخدمين والنماذج الذكية، وتقييم هذه التفاعلات من قِبل بشر بناءً على مجموعة من المعايير النفسية والاجتماعية. على سبيل المثال، في سيناريو افتراضي يتعامل فيه الذكاء الاصطناعي مع طالب غير مهتم بالدراسة، يتم تقييم مدى قدرة النموذج على تحفيز الطالب واستثارة رغبته في التعلم بدلاً من تقديم إجابات جاهزة.
ويقول الباحث بات باتارانوتابون من فريق MIT: "الأمر لا يتعلق بالذكاء بمفهومه التقليدي، بل بالفهم العميق للتعقيدات النفسية، ودعم الأشخاص بطريقة تحترم استقلالهم النفسي ولا تؤدي إلى الإدمان أو الاعتمادية".
ومن جهته، يوضح الباحث فالديمار دانري أن الهدف هو الوصول إلى نماذج قادرة على إدراك تأثيرها النفسي على المستخدمين. ويضيف: "قد تكون النموذج الأكثر ذكاءً منطقيًا، لكن إن لم يكن قادرًا على تقديم الدعم العاطفي، فذكاؤه هذا لا يفي بالغرض". ويتابع: "النموذج المثالي يجب أن يكون قادرًا على قول: أنا هنا لأستمع إليك، لكن ربما عليك التحدث مع والدك حول هذه المسائل".
توجّه نحو تحسين التفاعل البشري-الآلي
من جانبها، باتت شركة OpenAI أكثر انخراطًا في هذه التوجهات. ففي مدونة حديثة، أكدت أنها تعمل على تطوير نماذج قادرة على رصد علامات الضيق النفسي والاستجابة لها بشكل ملائم. وجاء في الوثيقة الفنية لنموذج GPT-5 أن الشركة "تعمل على تقليل التملق، وتبحث في قضايا التعلق العاطفي والضيق النفسي، وتُطور معايير يمكن من خلالها تقييم أداء النماذج في هذه المجالات".
وأشار الرئيس التنفيذي سام ألتمان على منصة "إكس" إلى أن الشركة تعمل على تحديث لشخصية GPT-5 بحيث تكون "أدفأ من الشخصية الحالية، لكن دون أن تكون مزعجة كما شعر البعض تجاه GPT-4o"، مضيفًا أن "أحد الدروس المستفادة هو الحاجة إلى إتاحة تخصيص أوسع لطابع الشخصية بناءً على تفضيلات المستخدم".
ويبقى أن أحد التحديات الكبرى التي تواجه الذكاء الاصطناعي حاليًا هي تلك الفجوة التي يصعب سدها: القدرة على بناء علاقات صحية ومتوازنة مع البشر. ورغم التقدم التقني الهائل، ما زال الذكاء الاصطناعي يفتقر إلى الفطنة الاجتماعية والقدرة على التفاعل مع تعقيدات النفس البشرية.
ومع ازدياد الاعتماد على المساعدات الذكية في مجالات التعليم والدعم النفسي والعمل الإبداعي، فإن تطوير معايير مثل تلك التي يقترحها معهد MIT يمثل خطوة ضرورية لحماية المستخدمين، وضمان استخدام الذكاء الاصطناعي كأداة مساعدة لا كبديل عن التفاعل البشري الحقيقي.
aXA6IDIxNi43My4yMTYuMiA=
جزيرة ام اند امز