«أسراب من الروبوتات القاتلة تطارد أهدافًا بمفردها وتكون قادرة على الطيران للقتل دون أي تدخل بشري»، ما قرأته ليس شيئًا من الخيال العلمي، إنه بات أقرب إلى الواقع، مع إحراز دول تقدمًا سريعًا في ذلك المجال.
وقالت صحيفة «نيويورك تايمز»، في تقرير لها، إن الولايات المتحدة والصين وبعض الدول الأخرى أحرزت تقدما سريعا في تطوير ونشر تكنولوجيا جديدة لديها القدرة على إعادة تشكيل طبيعة الحرب، من خلال جعل قرارات الحياة والموت بيد طائرات بدون طيار، مجهزة ببرامج الذكاء الاصطناعي.
سر التطورات المتلاحقة
وتقول «نيويورك تايمز»، إن التطورات السريعة في الذكاء الاصطناعي والاستخدام المكثف للطائرات بدون طيار في الصراعات في أوكرانيا والشرق الأوسط جعلت هذه القضية أكثر إلحاحا، مشيرة إلى أنه حتى الآن، تعتمد الطائرات بدون طيار عمومًا على مشغلين بشريين لتنفيذ مهام مميتة، لكن يجري تطوير برمجيات ستسمح لها قريبًا بالعثور على الأهداف واختيارها بنفسها.
وقد أدى التشويش المكثف على الاتصالات اللاسلكية ونظام تحديد المواقع العالمي (GPS) في أوكرانيا إلى تسريع هذا التحول، حيث يمكن للطائرات بدون طيار المستقلة في كثير من الأحيان الاستمرار في العمل حتى عندما تكون الاتصالات مقطوعة.
وقال جاستون براون، رئيس وزراء أنتيغوا وبربودا، للمسؤولين في اجتماع عقد مؤخراً للأمم المتحدة: «هذه ليست حبكة رواية بائسة، لكنها حقيقة تلوح في الأفق». وقد أوضح مسؤولو البنتاغون أنهم يستعدون لنشر الأسلحة المستقلة على نطاق واسع.
وأعلنت نائبة وزير الدفاع الأمريكي كاثلين هيكس هذا الصيف أن الجيش الأمريكي سوف «ينشر أنظمة ذاتية التشغيل يمكن تخصيصها بعدة آلاف في العامين المقبلين»، قائلة إن الدفع للتنافس مع استثمارات الصين في الأسلحة المتقدمة يستلزم أن تقوم الولايات المتحدة بـ«الاستفادة من المنصات الصغيرة، والذكية، والرخيصة».
وبحسب «نيويورك تايمز»، فإن مفهوم السلاح المستقل ليس جديدا تماما؛ فقد تم استخدام الألغام الأرضية - التي تنفجر تلقائيًا - منذ الحرب الأهلية، فيما تمتلك الولايات المتحدة أنظمة صاروخية تعتمد على أجهزة استشعار رادارية للإمساك بالأهداف وضربها بشكل مستقل.
الذكاء الاصطناعي اليد الخفية
إلا أن ما يتغير هو إدخال الذكاء الاصطناعي الذي يمكن أن يمنح أنظمة الأسلحة القدرة على اتخاذ القرارات بنفسها بعد تلقي المعلومات ومعالجتها.
وتقول الصحيفة الأمريكية، إن الولايات المتحدة تستخدم بالفعل سياسات طوعية تضع حدودًا لكيفية استخدام الذكاء الاصطناعي والأسلحة الفتاكة المستقلة، بما في ذلك سياسة البنتاغون التي تمت مراجعتها هذا العام والتي تسمى «الاستقلالية في أنظمة الأسلحة»، الأمر الذي حثت الدول الأخرى على تبنيه.
وتحظر سياسة البنتاغون استخدام أي سلاح جديد مستقل أو حتى تطويره ما لم تتم الموافقة عليه من قبل كبار مسؤولي وزارة الدفاع. ويجب تشغيل هذه الأسلحة في منطقة جغرافية محددة ولفترات محدودة. وإذا تم التحكم في الأسلحة بواسطة الذكاء الاصطناعي، فيجب أن يحتفظ الأفراد العسكريون بـ«القدرة على فك الارتباط أو تعطيل الأنظمة المنشورة التي تظهر سلوكًا غير مقصود».
وقال جنرالات القوات الجوية في المقابلات، إنه على الأقل في البداية، ستكون هناك حاجة إلى موافقة بشرية قبل اتخاذ أي إجراء، لكن فرانك كيندال، وزير القوات الجوية، قال في مقابلة منفصلة إن هذه الآلات ستحتاج في النهاية إلى امتلاك القدرة على القيام بـ«عمل مميت من تلقاء نفسها، مع بقائها تحت الإشراف البشري في كيفية نشرها».
وأوضح أن «القرارات الفردية مقابل عدم اتخاذ قرارات فردية هي الفرق بين الفوز والخسارة - ولن تخسر. (..) لا أعتقد أن الأشخاص الذين سنواجههم سيفعلون ذلك».
مخاوف وانتقادات
وبحسب الصحيفة الأمريكية، فإن هذه التكنولوجيا الجديدة تثير قلق العديد من الحكومات الأخرى لدرجة أنها تحاول تركيز الاهتمام عليه من خلال مقترحات في الأمم المتحدة لفرض قواعد ملزمة قانونا على استخدام ما تسميه الجيوش «الأسلحة الفتاكة المستقلة».
ويقول بعض المنتقدين لذلك التوجه، إن الأسلحة الفتاكة التي يتحكم فيها الذكاء الاصطناعي، ستغير طبيعة القتال من خلال القضاء على الدور الأخلاقي المباشر الذي يلعبه البشر في القرارات المتعلقة بالقتل.
وأشاروا إلى أن الأسلحة تعمل في بعض الأحيان بطرق لا يمكن التنبؤ بها، ومن المرجح أن ترتكب أخطاء في تحديد الأهداف، مثل السيارات ذاتية القيادة التي تتعرض لحوادث.
ويقول المعارضون، إن الأسلحة الجديدة قد تجعل استخدام القوة المميتة أكثر احتمالا في زمن الحرب، لأن الجيش الذي يطلقها لن يعرض جنوده للخطر على الفور، أو قد يؤدي إلى تصعيد أسرع.
وقد اقترحت مجموعات الحد من الأسلحة مثل اللجنة الدولية للصليب الأحمر ومنظمة أوقفوا الروبوتات القاتلة، إلى جانب الوفود الوطنية بما في ذلك النمسا والأرجنتين ونيوزيلندا وسويسرا وكوستاريكا، مجموعة متنوعة من القيود.
قضايا أمنية معقدة
وقال ألكسندر كمينت، كبير المفاوضين النمساويين بشأن هذه القضية، في مقابلة أجريت معه: «إن هذه حقًا واحدة من أهم نقاط التحول بالنسبة للإنسانية. ما هو دور البشر في استخدام القوة؟ إنها قضية أمنية أساسية للغاية، ومسألة قانونية وقضية أخلاقية».
لكن في حين توفر الأمم المتحدة منصة للحكومات للتعبير عن مخاوفها، يبدو من غير المرجح أن تسفر العملية عن قيود جوهرية جديدة ملزمة قانونا. ويقول المدافعون عن الحد من الأسلحة إن الولايات المتحدة وروسيا وأستراليا وإسرائيل ودولا أخرى جادلت جميعها بأنه ليست هناك حاجة لقانون دولي جديد في الوقت الحالي، في حين تريد الصين تعريف أي حد قانوني بشكل ضيق للغاية بحيث لن يكون له تأثير عملي يذكر.
وقال كونستانتين فورونتسوف، نائب رئيس الوفد الروسي لدى الأمم المتحدة، للدبلوماسيين الذين احتشدوا في غرفة اجتماعات في الطابق السفلي بمقر الأمم المتحدة في نيويورك: «لا نرى أن هذا هو الوقت المناسب حقًا».
وبحسب «نيويورك تايمز»، فإن الجدل حول مخاطر الذكاء الاصطناعي جذب اهتمامًا جديدًا في الأيام الأخيرة مع المعركة حول السيطرة على OpenAI، الشركة الرائدة في مجال الذكاء الاصطناعي في العالم، التي بدا أن قادتها منقسمون حول ما إذا كانت الشركة تأخذ في الاعتبار بشكل كافٍ مخاطر التكنولوجيا.
وفي الأسبوع الماضي، ناقش مسؤولون من الصين والولايات المتحدة قضية ذات صلة: القيود المحتملة على استخدام الذكاء الاصطناعي، في قرارات نشر الأسلحة النووية.
وقال جوشوا دوروسين، كبير مسؤولي الاتفاقيات الدولية في وزارة الخارجية الأمريكية، لمفاوضين آخرين خلال مناقشة جرت في مايو/أيار حول لغة القيود المقترحة: «سيكون من الصعب للغاية على وفدنا قبول كلمة يجب».
وقد جادل دوروسين وأعضاء الوفد الأمريكي، الذي يضم ممثلاً عن البنتاغون، بأنه بدلاً من وضع قانون دولي جديد، يجب على الأمم المتحدة توضيح أن القوانين الدولية لحقوق الإنسان الحالية تحظر بالفعل على الدول استخدام الأسلحة التي تستهدف المدنيين أو تسبب قدرًا غير متناسب من الضرر لهم.
أسلحة فتاكة
لكن الموقف الذي اتخذته القوى الكبرى لم يؤد إلا إلى زيادة القلق بين الدول الأصغر، التي تقول إنها تشعر بالقلق من أن الأسلحة الفتاكة المستقلة قد تصبح شائعة في ساحة المعركة قبل أن يكون هناك أي اتفاق على قواعد استخدامها.
بدوره، قال السفير الباكستاني خليل هاشمي، خلال اجتماع في مقر الأمم المتحدة: «لا يبدو أن الرضا عن النفس خيار بعد الآن. إن الفرصة المتاحة للتحرك تتضاءل بسرعة بينما نستعد للاختراق التكنولوجي».
وقد يسعى البعض إلى فرض حظر عالمي على الأسلحة المستقلة الفتاكة التي تستهدف البشر بشكل صريح. ويشترط آخرون أن تظل هذه الأسلحة تحت «سيطرة بشرية حقيقية»، وأن يتم استخدامها في مناطق محدودة لفترات زمنية محددة.
إلا أن الولايات المتحدة والصين وروسيا قالت أيضًا إن الذكاء الاصطناعي والأسلحة المستقلة قد تحقق فوائد من خلال تقليل الخسائر في صفوف المدنيين والأضرار المادية غير الضرورية.
وقال الوفد الأمريكي: «لقد ثبت أن الأسلحة الذكية التي تستخدم أجهزة الكمبيوتر والوظائف المستقلة لنشر القوة بشكل أكثر دقة وكفاءة تقلل من مخاطر إلحاق الضرر بالمدنيين والأعيان المدنية».