أبل تجمد تلخيص الأخبار بالذكاء الاصطناعي.. عناوين كاذبة ومضللة
قرر عملاق التكنولوجيا الأمريكي "أبل" سحب إشعارات الأخبار الملخصة بالذكاء الاصطناعي مؤقتًا، بعد أن أرسلت عناوين خاطئة بشكل متكرر للمستخدمين، ما أثار انتقادات واسعة.
وقال تقرير نشرته "سي ان ان" إن هذه الخطوة غير المعتادة من عملاق التكنولوجيا تأتي بعد أن أنتجت تقنية Apple Intelligence ملخصات مضللة أو غير صحيحة تمامًا لعناوين الأخبار.
وأمس الخميس، أصدرت أبل تحديثًا تجريبيًا للمطورين يعطل هذه الميزة فيما يخص عناوين الأخبار والترفيه، مع خطط لتعميمه لاحقًا على جميع المستخدمين أثناء تحسينها.
كما أعلنت الشركة أنها ستعيد تفعيل الخاصية في تحديث مستقبلي. وكجزء من التحديث، أكدت أبل أن الملخصات المُنتَجة ستوضح أنها تمت بواسطة الذكاء الاصطناعي، مما يشير إلى احتمال أن تكون النتائج أحيانًا غير دقيقة.
شكاوى حول الميزة
وفي الشهر الماضي، قدمت هيئة الإذاعة البريطانية (BBC) شكوى لأبل بعد أن أنشأت خاصية الاشعارات الإخبارية عناوين كاذبة، مثل الادعاء بأن لويجي مانجوني، المتهم بقتل المدير التنفيذي لشركة UnitedHealthcare، قد أطلق النار على نفسه. وفي حالة أخرى، جُمعت ثلاثة مقالات من صحيفة نيويورك تايمز في إشعار واحد، بشكل خاطئ، زاعمة أن رئيس الوزراء الإسرائيلي بنيامين نتنياهو قد تم اعتقاله.
أخطاء متكررة
والأربعاء الماضي، أخطأت الخاصية الإخبارية مجددًا في إعادة بث إشعار من صحيفة واشنطن بوست، وعلقت واشنطن بوست إن "هذه الشكاوي الدورية من أن Apple Intelligence تجعله أمر غير مسؤول تمامًا أن تستمر أبل بتفعيل الملخصات لتطبيقات الأخبار قبل تحسين هذه التقنية.”
من جهتها، سلطت مجموعات الدفاع عن حرية الصحافة الضوء على مخاطر هذه الملخصات على المستهلكين الذين يبحثون عن معلومات موثوقة. ووصفت منظمة مراسلون بلا حدود الخاصية الإخبارية بأنها “خطر على حق الجمهور في الحصول على معلومات موثوقة”. كما أكدت أن “الجمهور يجب ألا يوضع في موقف يضطر فيه للتشكيك في دقة الأخبار التي يتلقاها.”
ظاهرة “هلوسة الذكاء الاصطناعي”
ووفقا ل"سي إن إن"، فإن مشكلات أبل ليست الأولى من نوعها مع تقنية الذكاء الاصطناعي. إذ غالبًا ما تنتج النماذج الشهيرة مثل ChatGPT إجابات “واثقة” ولكن غير صحيحة، وهي ظاهرة تُعرف بـ”هلوسة الذكاء الاصطناعي”.
وأوضح سورش فنكاتاسبرامانيان، أستاذ بجامعة براون، أن النماذج اللغوية الضخمة مدربة لإعطاء إجابات تبدو “معقولة”، بغض النظر عما إذا كانت دقيقة أو ملفقة. وقال: “ليس هناك معرفة بالحقيقة هنا.”
وفقًا لدراسة نُشرت في يوليو/تموز 2024، لا تزال النماذج المتقدمة غير موثوقة بالكامل بسبب ميلها لاختراع المعلومات.
aXA6IDMuMTQ5LjIzOS4yNTQg جزيرة ام اند امز