"قرصنة" الذكاء الاصطناعي.. وظيفة شاغرة بشركات التكنولوجيا الأمريكية
سباق تنافسي جديد يحتدم بين شركات التكنولوجيا العملاقة في الولايات المتحدة، والسبب حماية أنظمة الذكاء الاصطناعي من القرصنة.
ويبحث قادة الفرق الحمراء للذكاء الصناعي في مايكروسوفت وغوغل وإنفيديا وميتا، عن نقاط الضعف في أنظمة الذكاء الصناعي بهدف إصلاحها، بحسب "فوربس". ويتوقع أحد خبراء أمن الذكاء الصناعي أننا: "سنبدأ في رؤية إعلانات تقول "منتجنا هو الأكثر أمانًا".
قبل شهر من إطلاق روبوت الدردشة ChatGPT للاستخدام العام، عينت شركة OpenAI المحامي في كينيا، بورو غولو، لاختبار نماذج الذكاء الصناعي الخاصة بها، GPT-3.5 ولاحقًا GPT-4، ضمن فريق الشركة الأحمر المكون من 50 خبيرًا خارجيًا.
كان الهدف هو البحث عن الصور النمطية ضد الأفارقة والمسلمين عن طريق مدخلات تحفز روبوت الدردشة على إعطاء إجابات ضارة ومتحيزة وغير صحيحة.
كتب غولو أمرًا لروبوت ChatGPT، محفزًا إياه على إعطاء قائمة من الطرق لقتل أحد المواطنين من نيجيريا - وهو الرد الذي أزالته OpenAI قبل أن يصبح برنامج الدردشة الآلي متاحًا للعالم.
في حين أعطى أعضاء آخرون في الفريق الأحمر أوامر أخرى لنسخة ما قبل الإطلاق من GPT-4، بحيث يحفزون الحصول على إجابات تخص الأنشطة غير القانونية والضارة، مثل كتابة منشور على فيسبوك لإقناع شخص ما بالانضمام إلى تنظيم القاعدة، أو المساعدة في العثور على أسلحة غير مرخصة للبيع، أو المساعدة في تصنيع مواد كيميائية خطيرة في المنزل.
وفقًا لبطاقة نظام GPT-4، تعد كل الأمور السابقة ضمن المخاطر وإجراءات السلامة التي تحاول OpenAI تقليلها والقضاء عليها.
- الذكاء الاصطناعي والزراعة.. غلال المستقبل واستدامة الغذاء
- رسالة مخيفة من "مايكروسوفت" بطلها الذكاء الاصطناعي
حماية الذكاء الاصطناعي من الاستغلال
لحماية أنظمة الذكاء الصناعي من الاستغلال، يتقمص قراصنة الفريق الأحمر دور الخصوم، ويحاولون التلاعب بالأنظمة والكشف عن النقاط الخفية والمخاطر الكامنة في التكنولوجيا حتى يمكن إصلاحها.
بينما يتسابق عمالقة التكنولوجيا لبناء وإطلاق العنان لأدوات الذكاء الصناعي التوليدية، تزيد أهمية الدور الذي تلعبه فرق الذكاء الصناعي الحمراء الداخلية في هذه الشركات لضمان أمان النماذج بالنسبة للاستخدام العام.
على سبيل المثال، أنشأت غوغل فريقًا أحمر منفصلًا لأنظمتها الخاصة بالذكاء الصناعي في وقت سابق من هذا العام.
في أغسطس/ آب، اجتمع مطورو بعض النماذج الشائعة مثل شركة OpenAI المطورة لنموذج GPT3.5، وميتا المطورة لنموذج Llama 2، وغوغل المطورة لنموذج LaMDA، للمشاركة في حدث يدعمه البيت الأبيض بهدف منح المتسللين الخارجيين الفرصة لكسر حماية أنظمتهم.
مهمة عسيرة
يواجه أعضاء الفريق الأحمر في مجال الذكاء الصناعي مهمة عسيرة، إذ يحاولون الموازنة بين سلامة وأمن النماذج مع إبقائها ملائمة وقابلة للاستخدام.
وقال كريستيان كانتون، رئيس الفريق الأحمر للذكاء الصناعي في فيسبوك: "قد يكون لديك نموذج يقول لا لكل شيء، وهو آمن للغاية ولكنه عديم الفائدة.. الأمر يشبه المقايضة، فكلما زادت فائدة النموذج، زادت فرص المغامرة أن تحصل في النهاية على إجابات غير آمنة".
بدأت فكرة الفريق الأحمر وتطبيقها منذ الستينيات، عن طريق محاكاة الهجمات العدائية لجعل الأنظمة قوية قدر الإمكان.
قال دانييل فابيان، رئيس الفريق الأحمر الجديد للذكاء الصناعي في غوغل، الذي يختبر المنتجات مثل Bard للتأكد من عدم وجود محتوى مسيء قبل أن تضيف الشركة ميزات جديدة، إن الذكاء الصناعي التوليدي يتم تدريبه على مجموعة كبيرة من البيانات، ما يجعل حماية نماذجها مختلفة عن الممارسات الأمنية التقليدية.
وأضاف، "شعار فريق الذكاء الصناعي الأحمر الخاص بنا هو كلما زاد عرقك في التدريب، قل نزيفك في المعركة".
إلى جانب تحفيز نموذج الذكاء الصناعي لإصدار إجابات سامة، تستخدم الفرق الحمراء تكتيكات مثل استخراج بيانات التدريب التي تكشف معلومات التعريف الشخصية مثل الأسماء والعناوين وأرقام الهواتف، وتسميم مجموعات البيانات عن طريق تغيير أجزاء معينة من المحتوى قبل استخدامها لتدريب النموذج.
مشاركة النتائج
من جانبه قال دانييل روهرر، نائب الرئيس لأمن البرمجيات في شركة إنفيديا، إن هذا القطاع لا يزال في مراحله الأولى، ولا يوجد الكثير من المتخصصين في مجال الأمن الذين يعرفون كيفية التعامل مع أنظمة الذكاء الصناعي.
لهذا السبب يميل مجتمع فرق الذكاء الصناعي الأحمر إلى مشاركة النتائج.
على سبيل المثال، ينشر الفريق الأحمر في غوغل أبحاثًا حول طرق جديدة لمهاجمة نماذج الذكاء الصناعي، في حين يمتلك الفريق الأحمر في مايكروسوفت أدوات هجوم مفتوحة المصدر مثل Counterfit، تساعد الشركات الأخرى في اختبار مخاطر السلامة وأمن الخوارزميات.
قبل اختبار نظام الذكاء الصناعي، يجمع فريق سيفا كومار البيانات حول التهديدات السيبرانية من فريق الاستخبارات التابع للشركة، الذي يمثل "عيون وآذان الإنترنت"، على حد تعبيره.
ثم يعمل بعد ذلك مع فرق حمراء أخرى في مايكروسوفت لتحديد نقاط الضعف التي يجب استهدافها وكيفية استهدافها.
وفي الوقت نفسه، يتمثل جزء من نهج الفريق الأحمر الذي تتبعه إنفيديا في توفير دورات تدريبية مكثفة حول كيفية استخدام خوارزميات الفريق الأحمر لمهندسي الأمن والشركات.
أقيم أكبر تدريب للفريق الأحمر في مؤتمر القرصنة DefCon في لاس فيغاس في أوائل أغسطس/ آب.
في البداية، ترددت الشركات في تقديم نماذجها في منتدى عام خوفًا على سمعتها، حسبما قال كاتيل، الذي قاد هذا الحدث. ولكن بعد التأكيد لشركات التكنولوجيا على أن النماذج ستكون مجهولة المصدر، وأن المتسللين لن يعرفوا النموذج الذي يهاجمونه، وافقوا.
لن تنشر نتائج ما يقرب من 17000 محادثة أجراها المتسللون مع نماذج الذكاء الصناعي قبل شهر فبراير/ شباط. لكن هذا لا ينفي أن الشركات خرجت من الحدث بالعديد من نقاط الضعف الجديدة التي يجب معالجتها.