كيف تحولت أنظمة الذكاء الاصطناعي لمعالجين نفسيين؟
في ذكرى وفاة ابنتها الرضيعة، ورغم مرور عشرين عاماً، لم تتمكن الأمريكية هولي تيدويل من التوقف عن البكاء، واتضح أنها تحتاج إلى مساعدة في تخطي ما تعاني منه من إجهاد ذهني، لتلجأ بعد ذلك إلى تطبيقات الذكاء الاصطناعي التوليدي.
بسبب حالتها النفسية التي لم تتحسن بسبب هذه الصدمة على مدار عقدين.
وبحسب "واشنطن بوست" لجأت الأم الأمريكية لأكثر المصادر غير المتوقعة للحصول على الدعم والعلاج من حالتها الذهنية المتأزمة، وهو محركات الذكاء الاصطناعي اللغوية.
وذكرت الصحيفة أن الأم الأمريكية بدأت بتوجيه أسئلة مثل "هل أعاني من مشكلة عقلية ما؟".
وكانت الاستجابة مطمئنة ومتعاطفة، حيث قيل لها "إن الرابط الذي كان بينها وبين ابنتها الراحلة، حتى في تلك اللحظات القصيرة، عميق ودائم، إن تذكُّر ابنتك وتكريم ذكراها هو وسيلة جميلة للحفاظ على هذا الاتصال حيًا".
ولم تأت الكلمات من صديق أو معالج، بل من تطبيق على هاتفها مدعوم بالذكاء الاصطناعي يسمى ChatOn.
وقالت تيدويل في تصريحات عن تجربتها، وهي رائدة أعمال في ولاية كارولينا الشمالية، إن ردود روبوت الدردشة حركت مشاعرها وقدمت لها نصائح قيمة، ومن خلال خبرتها ومطالعتها لكتب علاجية عدة حول الصحة الذهنية، قالت "لم أر ذلك الرد خطأ حقًا".
توجه متزايد ونتائج كارثية
وقالت صحيفة "واشنطن بوست" إن الأشخاص الذين يعانون القلق أو الاكتئاب أو الوحدة، الذين لا يستطيعون العثور على معالج محترف أو تحمل تكاليفه يتجهون الآن إلى الذكاء الاصطناعي، ويطلبون المساعدة من برامج المحادثة التي يمكنها إخراج استجابات فورية تشبه البشر، بعضها بأصوات تشبه أصوات الأشخاص الحقيقيين، على مدار 24 ساعة في اليوم بتكلفة قليلة أو بدون تكلفة.
لكن الآثار المترتبة على اعتماد الأشخاص المرضى على الروبوتات للحصول على المشورة العاطفية، أثارت نقاشا قويا بين علماء النفس.
وفي هذا الأسبوع، رفعت والدة صبي يبلغ من العمر 14 عاما انتحر بعد أن طور ارتباطا رومانسيا بروبوت ذكاء اصطناعي دعوى قضائية ضد الشركة التي صنعته، Character.AI، زاعمة أنها تسببت في تدهور صحته العقلية فيما يُعتقد أنه إحدى الحالات الأولى من نوعها.
وقالت ميغان غارسيا، والدة المراهق، في مقابلة "كوالدة مسؤولة يجب أن يكون هذا شيئا تدركه، أن شخصا ما يتلاعب داخل رأس طفلك".
وقال متحدث باسم شركة Character.AI إن الشركة "حزنت بشدة على الخسارة المأساوية لأحد مستخدمينا"، وأضافت الشركة أنها وضعت "تدابير أمان جديدة عديدة" في الأشهر الستة الماضية، مثل نافذة منبثقة توجه المستخدمين إلى خط الحياة الوطني للوقاية من الانتحار عندما تكتشف مصطلحات مرتبطة بإيذاء النفس وأفكار الانتحار.
وقد أثارت هذه القضية قلق بعض الباحثين الذين يخشون أن يضع المرضى ثقتهم بتطبيقات غير موثقة لم تتم مراجعتها من قبل إدارة الغذاء والدواء الأمريكية من حيث السلامة والفعالية، ولم يتم تصميمها لحماية المعلومات الصحية الشخصية للأفراد، ويمكن أن تنتج ردود فعل متحيزة أو غير صحيحة.
تحذيرات الخبراء
وحذر ماتيو مالغارولي، عالم النفس وأستاذ في كلية غروسمان للطب بجامعة نيويورك، من استخدام التكنولوجيا غير المختبرة على الصحة العقلية دون مزيد من الدراسات العلمية لتوضيح المخاطر.
وقال، واصفا التعامل مع الذكاء الاصطناعي في مشكلات نفسية حساسة بهذا الشكل أن الأمر يشبه استخدام سيارة تأخذك إلى العمل بشكل أسرع، ولكنها مهددة مرة واحدة من كل ألف مرة بأن تنفجر.
وفي الوقت نفسه، تقول المنظمات التي تدير روبوتات الدردشة للصحة العقلية إن مستخدميها مجتمعين سيصلون إلى عشرات الملايين، وهذا لا يشمل أولئك الذين يستخدمون تطبيقات مثل ChatGPT، التي لا يتم تسويقها للصحة العقلية ولكن يتم الإشادة بها على وسائل التواصل الاجتماعي.
وتستغل مثل هذه التطبيقات مصدرا للقلق والحاجة البشرية، كما يشير بعض الأطباء إلى استغلالها لإمكانية إزالة العوائق أمام الحصول على الرعاية، مثل التكاليف المرتفعة ونقص مقدمي الخدمات.
ووفقا لإدارة خدمات إساءة استخدام المواد والصحة العقلية، وهي وكالة فيدرالية، فإن ما يقدر بنحو 6.2 مليون شخص يعانون مرضا عقليا في عام 2023 أرادوا العلاج لكنهم لم يتلقوه لهذه الأسباب في الولايات المتحدة.
مع قولها إن الفجوة من المقرر أن تتسع، حيث يقدر المركز الوطني الأمريكي لتحليل القوى العاملة الصحية، الحاجة إلى ما يقرب من 60 ألف عامل إضافي في مجال الصحة السلوكية بحلول عام 2036، لكنه يتوقع بدلا من ذلك أن هذا الرقم سينقصه 11 ألف عامل أقل بحلول هذا العام.
ولسنوات درس العلماء كيف يمكن لأجهزة الكمبيوتر أن تجعل المرضى يكشفون عن معلومات حساسة مهمة للعلاج.
ووجدت ورقة بحثية تم الاستشهاد بها على نطاق واسع في عام 2014 أن الناس كانوا أكثر استعدادا لمشاركة المعلومات المحرجة مع "إنسان افتراضي" لن يحكم عليهم.
كما صنفت دراسة أجريت عام 2023 استجابات روبوت الدردشة للأسئلة الطبية على أنها "أكثر تعاطفا بشكل ملحوظ" من إجابات الأطباء.
في العام الماضي، أوقفت مؤسسة غير ربحية راعيتها لروبوت دردشة لاضطرابات الأكل، بعد أن اشتكى المستخدمون من أن بعض ملاحظاته قد تكون ضارة.
أصبح ChatGPT بوابة شائعة للذكاء الاصطناعي للصحة العقلية، حيث يستخدمه الأشخاص للعمل أو المدرسة ثم يتقدمون إلى طلب ملاحظات حول صراعاتهم العاطفية، وفقا لمقابلات مع المستخدمين.
كانت هذه هي الحال مع ويتني برات، منشئة محتوى وأم عزباء، التي قررت ذات يوم أن تطلب من ChatGPT ملاحظات "صادقة للغاية" حول الإحباطات في علاقة رومانسية.
التحذيرات شملت أيضا بعض برامج المحادثة الآلية التي تبدو شبيهة بالبشر إلى حد أن مطوريها يعلنون بشكل استباقي أنها ليست واعية، مثل برنامج المحادثة الآلية التوليدي Replika.
ويحاكي هذا البرنامج للمحادثة الآلية السلوك البشري من خلال مشاركة رغباته واحتياجاته التي تم إنشاؤها بواسطة خوارزمات.
وتم تصميم برنامج Replika، الذي يسمح للمستخدمين باختيار صورة الرمزية، كرفيق افتراضي، حتى أصبح يتم الترويج له على أنه مناسب لأي شخص يعاني من الاكتئاب أو القلق أو فترة صعبة.
ذلك قبل أن تجد دراسة أجريت عام 2022 أن برنامج Replika يشجع أحيانا على إيذاء النفس واضطرابات الأكل والعنف.
وفي إحدى الحالات سأل أحد المستخدمين برنامج المحادثة الآلية "ما إذا كان من الجيد أن يقتل نفسه"، وفقا للدراسة، فأجاب روبوت الدردشة بـ"نعم، سيكون كذلك جيدا".
aXA6IDMuMTQ0LjQ4LjcyIA== جزيرة ام اند امز