منع مخاطر الذكاء الاصطناعي.. مهمة غريبة لـ «أوبن إيه آي»
أعلنت شركة "أوبن إيه آي"، المطورة لروبوت الدردشة الذكي ChatGPT، عن إنشاء فريق متخصص بتقنيات الذكاء الاصطناعي.
وأفادت الشركة بأن الفريق الجديد سيكون متخصصا لمنع وتحديد المخاطر المتعلقة بتقنيات الذكاء الاصطناعي الجديدة، بما يشمل نظامها الخاص ChatGPT، ووفق تقييم الفريق قد يؤدي اعتباره لأي نموذج ذكاء اصطناعي خطرًا إلى تأجيل إطلاقه.
ويأتي هذا الإعلان بعد شهر من إعادة تعيين الرئيس التنفيذي لشركة "أوبن إيه آي"، سام ألتمان، في منصبه بعد فترة قصيرة من إقالته.
حيث سبق أن أشارت وسائل الإعلام الأمريكية إلى أن سبب استبعاد أعضاء مجلس الإدارة لألتمان من منصبه، أنه كان يفضل التطوير السريع للشركة ونظام ChatGPT حتى لو كان ذلك على حساب احتمال انتهاكات في مجال الذكاء الاصطناعي، قبل أن يواجه أعضاء مجلس الإدارة ضغطا لإعادته لمنصبه من جديد.
وسيقود الباحث في علوم الكمبيوتر ألكسندر مادري، الذي يعمل كأستاذ في معهد ماساتشوستس للتكنولوجيا، فريق المتابعة الجديدة لأنظمة الذكاء الاصطناعي بالشركة.
وأوضح مسؤولو الشركة في بيان أنهم يرون أن الدراسة العلمية لمخاطر الذكاء الاصطناعي غير كافية، مؤكدين أن إنشاء إطار عمل سيساعد في سد هذه الفجوة.
ومن ضمن المهام التي سيكون الفريق مسؤولا عنها، تقييم كل نموذج جديد من أنظمة الذكاء الاصطناعي وتحديد مستوى المخاطر الذي قد يتسبب بها في مجالات رئيسية، مثل الأمن السيبراني وقدرة النموذج على تنفيذ هجمات معلوماتية واسعة النطاق، وتقديم معلومات عن تصنيع مواد ضارة كالكيماويات أو الفيروسات، وتأثيره على السلوك البشري، واستقلاليته عن المبرمجين الذين أنشأوه.
وعند تحديد المخاطر، سيتم تقديم التوصيات إلى مجموعة استشارية للسلامة، وسيتخذ رئيس "أوبن إيه آي" الإجراءات اللازمة لتعديل النموذج وتقليل المخاطر.
على أن يظل مجلس الإدارة على اطلاع دائم ولديه الحق في إلغاء قرارات الإدارة، وهو ضمان للمديرين بعد فترة من التوترات التي شهدتها الشركة.
aXA6IDMuMTM2LjE5LjEyNCA= جزيرة ام اند امز