أوراق بحثية صنيعة «ChatGPT» وأخواته.. قمامة علمية
أقر باحثون بصعوبة التأكد من استخدام أدوات الذكاء الاصطناعي لأداء الواجبات التعليمية.
وتوصل الباحثون إلى دليل واضح لاستخدام أدوات توليد النص باستخدام الذكاء الاصطناعي في عدة أوراق بحثية علمية خلال العام الماضي.
ومع ذلك، عندما يتعلق الأمر بالاستخدام التعليمي غير المشروع لروبوتات الدردشة المدعومة بالذكاء الاصطناعي، ربما نكون قد رأينا فقط غيض من فيض.
فقد تم رصد مؤلفين ينشرون أعمالا تتضمن مراجع علمية تبدو شرعية تم اختراعها بصورة كاملة باستخدام الذكاء الاصطناعي. كما أن آخرين تركوا مقتطفات من نص من واجهة مستخدم لبرنامج شات جي بي تي ضمن أعمالهم.
- معضلة تواجه الخبراء.. كيف نمحو الأخطاء من شات جي بي تي؟
- "هكذا سينتهي كوكب الأرض".. 6 سيناريوهات يتوقعها شات جي بي تي
وكان قد تم سحب دراسة تتعلق بالرياضيات، عقب أن ظهر أنها تتضمن بلا قصد جملة من واجهة الذكاء الاصطناعي، وفقا لما جاء في مقالة في دورية نيتشر في سبتمبر/أيلول 2023.
ويمثل استخدام أدوات توليد النص المدعومة بالذكاء الاصطناعي أكبر معضلة عندما لا يتم الإعلان عن الأمر بشفافية. وبمعني آخر، عندما ربما تكون الخدمات زائفة.
ويجرى مناقشة مسألة كيفية التعامل مع التحول نحو توليد النص بالذكاء الاصطناعي في الجامعات منذ ظهور برنامج شات جي بي تي في نهاية عام 2022.
وعلى الرغم من الجلبة العالمية المحيطة بقدرة الذكاء الاصطناعي على تلخيص المعلومات وكتابة النصوص بمستوى لغوي يحاكي لغة البشر، يقول الخبراء إن البرامج المماثلة لشات جي بي تي التابع لمايكروسوفت وبارد التابع لغوغل، مازالت بعيدة للغاية عن الذكاء البشري.
برامج كشف الغش
ويعلق الكثير من المدرسين آمالهم على برامج تزعم أنها يمكن أن تكشف النصوص المولدة بالذكاء الاصطناعي. فهل هذا يعني انتهاء الغش؟.
يقول أحد الخبراء " لا على الإطلاق".
وتقول ديبورا ويبر وولف من جامعة إتش تي دبليو للعلوم التطبيقية في برلين " الأمل في حل برمجي بسيط لكشف النصوص المعدلة بالذكاء الاصطناعي لن يصبح حقيقة".
وأضافت" هناك الكثير من البرامج التي تزعم قدراتها على الكشف، ولكنها لا تقوم بما يتعين عليها القيام به". وأوضحت" وقد اعترفت بعض الشركات المنتجة لهذه البرامج بالفعل بوجود قصور".
وكانت ويبر وولف مشاركة في دراسة، تم خلالها اختبار 14 برنامجا لكشف النصوص المعدلة بالذكاء الاصطناعي. ووفقا للدراسة، هذه البرامج لم تقدم نتائج يمكن الاعتماد عليها عندما يتعلق الأمر بسؤال عما إذا كان من قام بكتابة النص إنسان أم آلة.
ونشر فريق البحث ما تم التوصل إليه في نهاية ديسمبر/كانون الأول الماضي في دورية التكامل التعليمي الدولية.
وأوضح ويبر وولف أنه "في بعض الحالات الغامضة، تميل الأنظمة لافتراض أن كاتب النص إنسان". وأضافت "وذلك بالطبع لأن الأشخاص لا يرغبون في اتهامهم بالخطأ. هذه ستكون كارثة على النظام التعليمي".
ومع ذلك، أشارت الدراسة إلى أن المشكلة الأساسية هي أن نحو واحد من بين كل خمسة نصوص معدلة بالذكاء الاصطناعي لم يتم كشفها. ووفقا للدراسة، فإن معدل عدم كشف البرامج لاستخدام الذكاء الاصطناعي يتزايد في حال قام البشر بمراجعة النص المعدل بالذكاء الاصطناعي.
كما أنه ليس من السهل ترجمة النتائج المتعلقة بالبرامج للمستخدم العادي: فقد قدم البعض مؤشرا مئويا على احتمالية أنه يكون برنامج للذكاء الاصطناعي قام بتعديل النص.
ويشار إلى أنه لا يوجد دليل راسخ، مما يعني أنه ربما تجد الجامعات صعوبة في إثبات سوء السلوك على هذا الأساس. وتقول ويبر وولف " على عكس السرقة الأدبية، من المستحيل مقارنة النص بالأصل".
وتقول ويبر وولف إنها أطلعت على واقعة اشتبه فيها محاضرون في استخدام الذكاء الاصطناعي، واعترف الطلاب بالفعل باستخدامه. كما أنها أشارت إلى أنه يتم استخدام روبوتات الدردشة على نطاق واسع- غالبا بدون أن يعلم الطلاب أنهم يرتكبون خطأ.
وتوضح ويبر وولف" نحن في حاجة للتفكير بعناية بشأن كيفية تقييم الأداء" وهذا ربما يعني أنه يجب وضع المهام المستقبلية بطريقة مختلفة تماما عما كان يتم في الماضي.
وقالت إنه يتعين أن يصبح دفع الطلاب للتوصل للأخطاء في إجابات أدوات الذكاء الاصطناعي جزءا من المهمة.
وفي النهاية، تشير ويبر وولف إلى أن جميع روبوتات الدردشة المدعومة بالذكاء الاصطناعي هي ليست أكثر من مجرد ببغوات، بما أنها تقول فقط ما تسمعه. لذلك من المهم تعليم الطلاب معايير الكتابة الأكاديمية، مثل الهدف من الحواشي.
وفي حال تم استخدام أنظمة الذكاء الاصطناعي، يجب التعامل معها بشفافية. وأوضحت ويبر وولف أنه " يتعين أن تتحمل المسؤولية الكاملة عن القمامة التي تنتجها هذه الأنظمة. وليست هناك أعذار".