روبوت ChatGPT.. دردشة بتقنيات الذكاء الاصطناعي
تدفق مؤخرًالكثير من الأشخاص إلى روبوت محادثة جديد يعمل بتقنيات الذكاء الاصطناعي "ChatGPT"، فالطلب حتى اللحظة عليه استثنائي ومتسارع.
ما هو روبوت الدردشة الذكي ChatGPT؟
في 5 ديسمبر/كانون الأول 2022، أعلنت شركة أوبن إيه أي openAI لأبحاث الذكاء الاصطناعي، عن نظام ChatGPT، وهو عبارة عن نموذج أولي للدردشة الآلية قائم على الحوار بالذكاء الاصطناعي قادر على فهم اللغة الطبيعية والاستجابة باللغة الطبيعية.
ومنذ ذلك الحين، استحوذ هذا النظام على الإنترنت وتجاوز عدد مستخدميه المليون مستخدم في أقل من أسبوع. ويتعجب معظم المستخدمين من مدى ذكاء أصوات الروبوت المدعوم بالذكاء الاصطناعي. حتى أن البعض وصفه بأنه بديلًا لـ"جوجل"، لأنه قادر على تقديم حلول للمشكلات المعقدة بشكل مباشر.
يعتمد ChatGPT على GPT-3.5، وهو نموذج لغة يستخدم التعلم العميق لإنتاج نص مشابه لكلام الإنسان. يتميز الروبوت بمقدرته على إنشاء نص مفصل وابتكار القصائد الشعرية، إضافة إلى سمة فريدة أخرى وهي الذاكرة المميزة. يستطيع الروبوت أن يتذكر التعليقات السابقة في المحادثة ويعيد سردها للمستخدم.
تحديات وقصور
وبينما شعر الكثير من المستخدمين بالدهشة من قدرات الروبوت، سارع البعض إلى اكتشاف سلبياته، إذ لا يزال ChatGPT عرضة للمعلومات الخاطئة والتحيزات، ويمكن أن يقدم النموذج إجابات غير صحيحة. ونظراً لحقيقة أنه يبدو واثقاً جداً في إجاباته فائقة التفصيل، يمكنه بسهولة تضليل الناس للاعتقاد بأن هذه الإجابات صحيحة.
بالفعل قدم برنامج الذكاء الاصطناعي التجريبي ChatGPT والذي شارك في محادثات تفاعلية مع الإنسان، إجابات "مذهلة" بسبب قدرته على التعمق في مجالات متنوعة بشكل قريب من طريقة البشر، لكن النظام الذي أطلقته شركة OpenAI المتخصصة في تقنيات وأبحاث الذكاء الاصطناعي، قبل أيام، واجه مشاكل مرتبطة بواقعية الإجابات التي بدت "غبية" في بعض الأحيان.
يستطيع النظام البرمجي الجديد الإجابة على أسئلة المستخدمين في مجالات مختلفة، بداية من الأفكار الإبداعية والتصميم والديكور، مروراً بكتابة لغات العالم المختلفة بما في ذلك العربية، وصولاً إلى مجالات أكثر تعقيداً مثل كتابة الأكواد البرمجية وتصحيحها، والمعزوفات الموسيقية، على نمط أشهر مؤلفيها، فضلاً عن الإجابة على تساؤلات تقنية وتسويقية وتجارية.
وأطلق مستخدمون العنان لخيالهم بشأن كيفية استغلال مثل هذا النظام الجديد، وقارن البعض قدراته المعرفية بمحرك البحث جوجل، لترجح كفة ChatGPT.
وراجع أحد المطورين كوداً برمجياً قام بكتابته ليكتشف ChatGPT الثغرات الموجودة به مع تقديم شرح لها، بل وصل الأمر إلى تقديم النظام حلول برمجية.
مستخدم آخر استغل النظام الذكي في طلب تخيل تصميم مميز لغرفة، ثم أدخل رد نظام ChatGPT في نظام MidJourney الذكي الذي يقوم بتحويل الوصف النصي من المستخدمين إلى صور عالية الدقة، ليصل المستخدم في النهاية إلى ما اعتبره "تصميم خرافي للغرفة".
ومع ذلك، اعترف مطورو OpenAI بأن نظامهم الجديد تتخلله أوجه قصور في طريقة تعليمهم إياه، مشيرين إلى أن ذلك انعكس في بعض المشاكل خلال حواراته مع المستخدمين.
وكانت المشكلة الرئيسية التي واجهت بعض المستخدمين هي عدم صحة المعلومات التي يلجأ النظام إليها خلال بعض إجاباته، وأرجع الباحثون ذلك إلى أن النظام الجديد لا يحتوي على مكون مخصص للتأكد من مدى صحة المعلومات التي يتم الاعتماد عليها في الإجابات.
واتضح ذلك مع أحد مستخدمي النظام الجديد، حيث سأله: "هل تعرف قصة علي بابا والأربعين حرامي؟"، وتضمنت إجابة ChatGPT أخطاء فادحة، حيث وصف الأربعين حرامي بأنهم من عظماء الإسلام، وأن علي بابا كان صغيراً يدعو الله أن يجعله منهم.
كما أشار الباحثون إلى أن عملية تدريب نظام ChatGPT اعتمدت على جعله حذراً بدرجة كبيرة عند الإجابة، مما انعكس سلباً عليه، حيث دفعه هذا الاتجاه نحو تفضيل عدم الإجابة على عدد كبير من الأسئلة، حتى تلك التي تعلم طريقة الإجابة عليها.
كذلك أقر الباحثون بأن من أوجه القصور في طريقة تعليمهم للنظام الجديد، هو أن التعليم تحت الإشراف البشري "ضلّل" النظام، لأن الإجابة المثالية تعتمد على مدى معرفة النظام، وليس على مدى دراية ومعلومات المشرف البشري.
طريقة تعلم حساسة
طريقة تعليم نظام ChatGPT الجديد جعلته أيضاً حساساً للغاية من أي تغيير يتم إجرائه على المدخلات النصية، إذ يقول أحياناً إنه غير قادر على الإجابة على سؤال ما، لكن بعد تغيير كلمة واحدة أو أكثر عبر إعادة الصياغة، يتمكن من الإجابة.
كما ظهر قصور آخر مرتبط بالاستخدام المبالغ فيه، والمتكرر لبعض العبارات والكلمات، ما أثر سلبياً على طريقة حديث النظام الذكي الجديد، وهو ما أرجعه الباحثون إلى أن نظام التدريب اعتمد على استخدام عبارات وجُمل طويلة في الإجابات والأحاديث.
وواجه النظام مشكلة أخرى ظهرت عند طرح المستخدم سؤال غير واضح أو عبارة مبهمة، إذ يبادر النظام بتخمين المقصود، وهو ما يبعد النقاش أحياناً عن هدفه.