إيلون ماسك يعلن «إفلاس» روبوتات الذكاء الاصطناعي
يرى الملياردير الأمريكي إيلون ماسك أن شركات الذكاء الاصطناعي استنفدت تماما البيانات البشرية "الحقيقية" اللازمة لتدريب نماذجها من روبوتات الذكاء الاصطناعي.
وأشار أغنى رجل في العالم إلى أن شركات التكنولوجيا ستضطر إلى اللجوء إلى البيانات "الاصطناعية"، أو المواد التي أنشأتها نماذج الذكاء الاصطناعي، كبديل لبناء وضبط أنظمة جديدة، وهي العملية التي تجري بالفعل مع التكنولوجيا سريعة التطور.
وبحسب صحيفة "غارديان" البريطانية، قال ماسك "لقد استنفد مجموع المعرفة البشرية التراكمية في تدريب الذكاء الاصطناعي، حدث ذلك في الأساس في العام الماضي".
وأوضح ماسك أنه منذ العام الماضي أصبح يتم "تدريب" نماذج الذكاء الاصطناعي مثل نموذج GPT-4o الذي يعمل على تشغيل روبوت الدردشة ChatGPT على مجموعة واسعة من البيانات المأخوذة من الإنترنت، حيث يتعلمون في الواقع اكتشاف الأنماط في تلك المعلومات، مما يسمح لهم بالتنبؤ، على سبيل المثال، بالكلمة التالية في الجملة.
حقبة البيانات الاصطناعية
وفي حديثه في مقابلة تم بثها مباشرة على منصته للتواصل الاجتماعي، X، قال ماسك إن "الطريقة الوحيدة" لمواجهة نقص البيانات كمصادر لتدريب النماذج الجديدة هي الانتقال إلى البيانات الاصطناعية التي تم إنشاؤها بواسطة الذكاء الاصطناعي.
وفي إشارة إلى استنفاد مخازن البيانات، قال إن "الطريقة الوحيدة لاستكمال ذلك هي بالبيانات الاصطناعية، حيث يكتب نموذج الذكاء الاصطناعي مقالاً أو يتوصل إلى أطروحة، ثم يصنف نفسه من خلالها ويكون ذلك بمثابة عملية من التعلم الذاتي".
ولقد استخدمت شركة ميتا Meta، مالكة فيسبوك Facebook وإنستغرام Instagram، البيانات الاصطناعية لضبط نموذج Llama AI الأكبر لديها، بينما استخدمت Microsoft أيضًا محتوى تم إنشاؤه بواسطة الذكاء الاصطناعي لنموذج Phi-4 الخاص بها.
كما استخدمت Google و OpenAI، الشركة التي تقف وراء ChatGPT، البيانات الاصطناعية في عملهما في مجال الذكاء الاصطناعي.
ومع ذلك، حذر ماسك أيضًا من أن استمرار عادة نماذج الذكاء الاصطناعي في توليد "الهلوسة"، وهو مصطلح يشير إلى الناتج غير الدقيق أو غير المنطقي من معلومات، تشكل خطرًا على عملية البيانات الاصطناعية.
مخاطر الهلوسة
وقال في المقابلة التي تم بثها مباشرة مع مارك بين، رئيس مجموعة الإعلان Stagwell، إن الهلوسة جعلت عملية استخدام المواد الاصطناعية "صعبة" لأن "كيف تعرف ما إذا كانت الإجابة "هلوسة" من نموذج الذكاء المستخدم أم أنها إجابة حقيقية".
وقال أندرو دنكان، مدير الذكاء الاصطناعي الأساسي في معهد آلان تورينغ بالمملكة المتحدة، إن تعليق ماسك يتوافق مع ورقة أكاديمية حديثة تقدر أن البيانات المتاحة للجمهور لنماذج الذكاء الاصطناعي قد تنفد بحلول عام 2026.
وأضاف أن الاعتماد المفرط على البيانات الاصطناعية يهدد "بانهيار النموذج"، وهو مصطلح يشير إلى تدهور جودة مخرجات النماذج.
aXA6IDE4LjE5MS4xODkuMTY0IA== جزيرة ام اند امز