أول اتفاق في العالم للسيطرة على الذكاء الاصطناعي.. ما وراء تحالف أمريكا وبريطانيا
بعد التوقيع على أول اتفاق دولي بشأن كيفية اختبار وتقييم المخاطر الناجمة عن الذكاء الاصطناعي، تثور التساؤلات حول المرحلة القادمة.
والتساؤلات متعلقة تحديدا بالأسباب التي دفعت إلى هذه الخطوة، وكذلك الإجراءات التي من شأن الاتفاق أن يتيحها لكبح جماح التطور المرعب في هذا المجال.
وينص الاتفاق على إنشاء كل من المملكة المتحدة والولايات المتحدة معاهد سلامة الذكاء الاصطناعي التي تهدف إلى تقييم أنظمة الذكاء الاصطناعي المفتوحة والمغلقة المصدر.
أول اتفاق
وقبل يومين، وقعت الولايات المتحدة والمملكة المتحدة اتفاقا تاريخيا بشأن الذكاء الاصطناعي، حيث أصبح الحلفاء أول دول تتعاون رسميا حول كيفية قيام الحكومتين بتجميع المعرفة التقنية والمعلومات والمواهب في مجال سلامة الذكاء الاصطناعي.
وتمثل الصفقة أول ترتيب ثنائي بشأن سلامة الذكاء الاصطناعي في العالم، وتأتي في الوقت الذي تضغط فيه الحكومات من أجل تنظيم أكبر للمخاطر الوجودية الناجمة عن التكنولوجيا الجديدة، مثل استخدامها في الهجمات السيبرانية الضارة أو تصميم الأسلحة البيولوجية.
وقالت وزيرة العلوم البريطانية ميشيل دونيلان لصحيفة فاينانشيال تايمز "العام المقبل هو الوقت الذي يتعين علينا فيه التصرف بسرعة نظرا لظهور الجيل التالي من نماذج [الذكاء الاصطناعي]، والتي يمكن أن تغير قواعد اللعبة بالكامل، ونحن لا نعرف القدرات الكاملة التي ستقدمها بعد".
وستمكن الاتفاقية على وجه التحديد معهد سلامة الذكاء الاصطناعي الجديد في المملكة المتحدة (AISI)، الذي أنشئ في نوفمبر/تشرين الثاني، ونظيره في الولايات المتحدة، والذي لم يبدأ عمله بعد، من تبادل الخبرات من خلال انتداب باحثين من كلا البلدين. وستعمل المعاهد أيضا معا على كيفية التقييم المستقل لنماذج الذكاء الاصطناعي الخاصة التي أنشأتها شركات مثل OpenAI وGoogle.
وتم تصميم الشراكة على غرار الشراكة بين مقر الاتصالات الحكومية في المملكة المتحدة (GCHQ) ووكالة الأمن القومي الأمريكية، اللذين يعملان معًا بشكل وثيق في المسائل المتعلقة بالاستخبارات والأمن.
وقالت دونيلان: "إن حقيقة قيام الولايات المتحدة، وهي قوة كبيرة في مجال الذكاء الاصطناعي، بتوقيع هذه الاتفاقية معنا، توضح الكثير عن الطريقة التي نقود بها الطريق في مجال سلامة الذكاء الاصطناعي".
وأضافت أنه نظرًا لأن العديد من شركات الذكاء الاصطناعي الأكثر تقدمًا تقع حاليًا في الولايات المتحدة، فإن خبرة الحكومة الأمريكية كانت أساسية لفهم مخاطر الذكاء الاصطناعي ولإلزام الشركات بالتزاماتها.
ومع ذلك، أصر دونيلان على أنه على الرغم من إجراء بحث حول سلامة الذكاء الاصطناعي والتأكد من وجود حواجز الحماية، فإن المملكة المتحدة لا تخطط لتنظيم التكنولوجيا على نطاق أوسع على المدى القريب لأنها تتطور بسرعة كبيرة.
وفي وقت سابق، أقر الاتحاد الأوروبي قانون الذكاء الاصطناعي، والذي يعتبر النظام الأكثر صرامة فيما يتعلق باستخدام الذكاء الاصطناعي في العالم. أصدر الرئيس الأمريكي جو بايدن أمرا تنفيذيا يستهدف نماذج الذكاء الاصطناعي التي قد تهدد الأمن القومي. وأصدرت الصين مبادئ توجيهية تسعى إلى ضمان أن التكنولوجيا لا تتحدى نظام الرقابة القائم منذ فترة طويلة.
من جهتها قالت وزيرة التجارة الأمريكية جينا ريموندو: "توضح شراكتنا أننا لا نهرب من هذه المخاوف، بل نركض نحوها. وبفضل تعاوننا، ستكتسب معاهدنا فهمًا أفضل لأنظمة الذكاء الاصطناعي، وستجري تقييمات أكثر قوة، وستصدر إرشادات أكثر صرامة.
حضور لافت
ووفقا لتقرير نشرته "بي بي سي"، فقد شهد هذا الحدث رؤساء الذكاء الاصطناعي، بمن في ذلك سام ألتمان من OpenAI، وديميس هاسابيس من Google DeepMind، وملياردير التكنولوجيا إيلون ماسك.
وفي حين أن الأمور بدت هادئة على جبهة سلامة الذكاء الاصطناعي منذ القمة، إلا أن قطاع الذكاء الاصطناعي نفسه كان مشغولاً للغاية. فلا تزال المنافسة شرسة بين أكبر روبوتات الدردشة المدعومة بالذكاء الاصطناعي، مثل ChatGPT، وGemini، وClaude.
لماذا الذكاء الاصطناعي خطير؟
ويتفاجأ العديد من الخبراء بمدى سرعة تطور الذكاء الاصطناعي، ويخشون أن يكون نموه السريع خطيرًا. حتى أن البعض قال إنه يجب إيقاف أبحاث الذكاء الاصطناعي.
وفي وقت سابق من شهر أكتوبر/تشرين الأول الماضي، نشرت حكومة المملكة المتحدة تقريرًا قال إن الذكاء الاصطناعي قد يساعد قريبًا المتسللين على شن هجمات إلكترونية أو مساعدة الإرهابيين في التخطيط لهجمات كيميائية.
حتى إن بعض الخبراء يشعرون بالقلق من أن الذكاء الاصطناعي الفائق الذكاء قد يؤدي في المستقبل إلى انقراض البشر. وفي شهر مايو/أيار من العام الماضي حظي تحذير مركز سلامة الذكاء الاصطناعي ومقره الولايات المتحدة بشأن هذا التهديد بدعم العشرات من كبار المتخصصين في مجال التكنولوجيا.
والمخاوف المماثلة يتقاسمها اثنان من العلماء الثلاثة المعروفين باسم الأب الروحي للذكاء الاصطناعي لأبحاثهم الرائدة، جيفري هينتون ويوشوا بينجيو.
لكن الآخر (يان ليكون) رفض فكرة أن الذكاء الاصطناعي الفائق الذكاء قد يسيطر على العالم، ووصفها بأنها "سخيفة إلى حد غير معقول".
وقالت مارجريت فيستاجر، رئيسة التكنولوجيا في الاتحاد الأوروبي، لـ"بي بي سي" إن قدرة الذكاء الاصطناعي على تضخيم التحيز أو التمييز كانت مصدر قلق أكثر إلحاحا من المخاوف المستقبلية بشأن استحواذ الذكاء الاصطناعي.
وعلى وجه الخصوص، فهي قلقة بشأن الدور الذي يمكن أن يلعبه الذكاء الاصطناعي في اتخاذ القرارات التي تؤثر على سبل عيش الناس مثل طلبات القروض.