الجيش الأمريكي يخشى الذكاء الاصطناعي لسبب خطير
في عام 2022 كشفت شركة OpenAI عن ChatGPT، وهو روبوت دردشة يحاكي المحادثات البشرية ويجيب عن أسئلة المستخدمين.
ويستخدم نماذج لغوية كبيرة LLMs في كل ذلك، وأثارت القدرات الاستثنائية لروبوت الدردشة جدلاً حول كيفية استخدام النماذج اللغوية الكبيرة في أداء مهام أخرى، بما في ذلك خوض حرب، ورغم اهتمام الباحثين، بينهم البروفيسور إيفون ماكديرموت ريس في جامعة سوانسي، بكيفية استخدام تقنيات الذكاء الاصطناعي التوليدية في مجال القتال، حذر آخرون -بينهم مستشارو اللجنة الدولية للصليب الأحمر، من أن هذه التقنيات يمكن أن تبعد عملية صنع القرار البشري عن أهم مسائل الحياة والموت.
وقال تقرير نشرته مجلة فورين أفيرز بعنوان "لماذا لا ينبغي للجيش أن يثق بالذكاء الاصطناعي؟"، إنه منذ عام 2022 تقوم وزارة الدفاع الأمريكية بالتحقيق بجدية فيما يمكن أن تفعله LLMs للجيش، وأنشأ البنتاغون مكتبا رئيسيا للذكاء الرقمي والاصطناعي لاستكشاف كيف يمكن للذكاء الاصطناعي أن يساعد القوات المسلحة، وفي نوفمبر/تشرين الثاني 2023 أصدرت وزارة الدفاع استراتيجيتها لاعتماد تقنيات الذكاء الاصطناعي.
وقد ذكرت بشكل متفائل أن "أحدث التطورات في مجال البيانات والتحليلات وتقنيات الذكاء الاصطناعي تمكن القادة من اتخاذ قرارات أفضل بشكل أسرع، من قاعة مجلس الإدارة إلى ساحة المعركة". وبناءً على ذلك يتم الآن استخدام التقنيات المدعمة بالذكاء الاصطناعي. على سبيل المثال تمتلك القوات الأمريكية أنظمة تدعم الذكاء الاصطناعي لاختيار أهداف الحوثيين في الشرق الأوسط.
لكن على الرغم من الحماس للذكاء الاصطناعي داخل البنتاغون، فإن قيادته تشعر بالقلق إزاء المخاطر التي تشكلها هذه التقنيات، فقد نشرت مؤخرا البحرية الأمريكية إرشادات تحد من استخدام LLMs، مشيرة إلى نقاط الضعف الأمنية والإصدار غير المقصود لمعلومات حساسة، حيث يصعب أحيانا التنبؤ بنتائج النماذج اللغوية الكبيرة التي قد تؤدي للتوصية بقرارات خطيرة وتصعيدية، ولذلك يتعين على المؤسسة العسكرية أن تضع حدوداً على هذه التكنولوجيات عند استخدامها لاتخاذ قرارات عالية المخاطر، خاصة في المواقف القتالية.
مشاكل التدريب
وLLMs هي أنظمة ذكاء اصطناعي مدربة على مجموعات كبيرة من البيانات التي تولد نصا، ويتم إنشاؤها في عملية من خطوتين، الأول هو التدريب المسبق، عندما يتم تدريس نماذج اللغة الكبيرة من الصفر، ثم إعادة إنتاج الأنماط الأساسية الموجودة في مجموعة بيانات هائلة، بما في ذلك القواعد، والارتباطات الواقعية، وتحليل المشاعر، وترجمة اللغة.
ولذلك يعتمد النجاح على جودة وحجم وتنوع البيانات وهناك حاجة إلى الكثير من النصوص، لدرجة أنه من المستحيل عمليًا توفير بيانات عالية الجودة تم فحصها، وهذا يعني قبول بيانات أقل جودة أيضا.
ولا يمكن تدريب تطبيقات الذكاء الاصطناعي على البيانات العسكرية وحدها، فهي لا تزال في حاجة إلى أشكال أكثر عمومية من المعلومات، بما في ذلك الوصفات، والتبادلات الرقمية اليومية التي تملأ شبكة الإنترنت. والتدريب المسبق ليس كافيًا لبناء روبوت محادثة مفيد، أو مساعد للقيادة والسيطرة، لأنه خلال هذه المرحلة الأولى تتبنى نموذج اللغة الكبير العديد من أساليب الكتابة، وليست جميعها مناسبة لمهمتها.
وبعد التدريب المسبق قد تفتقر أيضا تطبيقات الذكاء الاصطناعي إلى المعرفة المحددة اللازمة، مثل المصطلحات المطلوبة للإجابة عن الأسئلة حول الخطط العسكرية، ولذلك تحتاج هذه العملية إلى تحقيق التوازن بين التدريب المسبق ونموذج اللغة الكبير مع الاعتبارات الإنسانية الأكثر دقة، وهو أمر صعب.
ولذلك يمكن أن يؤدي التدريب المسبق والضبط الدقيق إلى إنشاء LLMs ناجحة، لكن العملية لا تزال قاصرة عن إنشاء بدائل مباشرة لعملية صنع القرار البشري، لأن نماذج اللغة الكبيرة للذكاء الاصطناعي بغض النظر عن مدى ضبطها أو تدريبها جيدا يمكنها تفضيل سلوكيات معينة فقط، بغير تفكير الإنسان.
ويتفاعل البشر في البيئات، ويتعلمون المفاهيم، ويتواصلون بها باستخدام اللغة، ومع ذلك لا يمكن محاكاة اللغة والتفكير في تطبيقات الذكاء الاصطناعي في استخلاص الارتباطات والمفاهيم من البيانات، ولذلك ليس من الممكن التنبؤ بشكل موثوق بما ستفعله تطبيقات الذكاء الاصطناعي عند اتخاذ قرارات عالية المخاطر.
أداء محفوف بالمخاطر
في الوقت نفسه، يمكن لتطبيقات LLMs في الذكاء الاصطناعي القيام بمهام عسكرية تتطلب معالجة كميات هائلة من البيانات في فترة زمنية قصيرة جدا، مما يعني أن الجيوش قد ترغب في استخدامها لتعزيز عملية صنع القرار أو تبسيط الوظائف البيروقراطية.
وعلى سبيل المثال، تحمل تطبيقات الذكاء الاصطناعي وعودا كبيرة في التخطيط العسكري والاستخبارات، ويمكن أتمتة الكثير من تخطيط السيناريوهات وألعاب الحرب والميزانية والتدريب، ويمكن استخدامها أيضا لتجميع المعلومات الاستخبارية، وتعزيز التنبؤ بالتهديدات، وإنشاء توصيات الاستهداف.
ولكن حتى بالنسبة لهذه المهام لا يمكن ضمان نجاح تطبيقات الذكاء الاصطناعي، وعلى سبيل المثال ففي محاكاة لجولة تصعيد بين أمريكا والصين باستخدام تطبيقات الذكاء الاصطناعي تكون فريقين، أحدهما بشري والآخر من تطبيقات الذكاء الاصطناعي، واتخذ الفريقان خيارات مماثلة حول استراتيجية الصورة الكبيرة وقواعد المشاركة، ولكن عندما تم تغيير المعلومات التي تلقاها تطبيقات الذكاء الاصطناعي حدث انحرافات كبيرة عن السلوك البشري وأوصى الفريق بتحويل الحرب الباردة إلى حرب ساخنة، معتقدين أن استخدام العنف الوقائي من المرجح أن يمنع حدوث نتيجة سيئة للأزمة.
وعلاوة على ذلك، في حين أن اختلافات اللاعبين البشريين في الخبرة والمعرفة أثرت على قراراتهم، إلا أن تطبيقات الذكاء الاصطناعي لم يتأثروا إلى حد كبير بالمدخلات المتعلقة بالخبرة.
ولم تكن المشكلة هي أن تطبيقات الذكاء الاصطناعي اتخذت قرارات أسوأ أو أفضل من قرارات البشر أو أنه كان من المرجح أن "يفوز" في لعبة الحرب، بل كان الأمر أن تطبيقات الذكاء الاصطناعي توصلت إلى قراراتها بطريقة لا تنقل مدى تعقيد عملية صنع القرار البشري.
وعلى الرغم من رغبة الجيوش في استخدام LLMs وغيرها من أدوات صنع القرار المدعومة بالذكاء الاصطناعي، فإن على الجيوش أن تدرك أنه في الأساس لا يمكن ضمان سلوك حاملي السلاح بشكل كامل، خاصة عند اتخاذ خيارات نادرة وصعبة بشأن التصعيد والحرب.
وفي عام 2023 أصدرت وزارة الدفاع توجيهاتها بشأن الاستقلالية في أنظمة الأسلحة، ويتطلب الأمر اختبار أنظمة الذكاء الاصطناعي وتقييمها للتأكد من أنها تعمل كما هو متوقع وتلتزم بالمبادئ الأخلاقية للذكاء الاصطناعي الخاصة بالبنتاغون واستراتيجية الذكاء الاصطناعي المسؤول.
وكانت هذه خطوة أولى مهمة في التطوير الآمن لهذه التقنيات وتنفيذها، بعد ذلك هناك حاجة إلى مزيد من البحث لفهم متى وكيف يمكن أن تؤدي إلى ضرر غير ضروري.
aXA6IDMuMTMzLjEzOS4xNjQg جزيرة ام اند امز