الذكاء الاصطناعي وسيناريو الرعب.. الصين وأمريكا تحذران من كوارث محتملة
رغم الفوائد الهائلة التي يوفرها الذكاء الاصطناعي في مجالات الصناعة والطب والبحث العلمي، تتزايد المخاوف الدولية من الوجه المظلم لهذه التكنولوجيا.
تأتي هذه المخاوف مع احتمال استغلال الذكاء الاصطناعي من قبل الجماعات الإرهابية للوصول إلى أسلحة وتقنيات فتاكة كانت، حتى وقت قريب، حكرًا على الدول الكبرى.
وتكشف تحذيرات صادرة من الصين والولايات المتحدة، رغم التباين السياسي الحاد بينهما، عن قلق مشترك من مخاطر غير مسبوقة قد تهدد الأمن العالمي.
الذكاء الاصطناعي بين الفائدة والخطر
وقالت صحيفة «لوفيغارو» الفرنسية إن الذكاء الاصطناعي لم يعد مجرد أداة مستقبلية، بل أصبح حاضرًا بقوة في تفاصيل الحياة اليومية، بين آمال واسعة بتحسين حياة البشر، ومخاوف حقيقية من إساءة استخدامه.
وأشارت الصحيفة الفرنسية إلى أنه، إلى جانب دوره الإيجابي في التحكم الصناعي والقطاع الصحي، يحذر خبراء من إمكانية توظيف الذكاء الاصطناعي في مجالات بالغة الخطورة، أبرزها تمكين الجماعات الإرهابية من استخدام أسلحة الدمار الشامل، سواء النووية أو البيولوجية أو الكيميائية أو الإشعاعية.
وأوضحت أن هذه المخاوف ليست جديدة بالكامل، لكنها عادت بقوة في عام 2025، بعد تحذير فريقين من الخبراء، أحدهما في الصين والآخر في الولايات المتحدة، من أن الذكاء الاصطناعي قد يخفض بشكل كبير الحواجز التقنية والمعرفية أمام الإرهاب.
وجاء أول تحذير بارز من الصين، الدولة التي تشهد تقدمًا متسارعًا في مجال الذكاء الاصطناعي، وتعتمد في الوقت ذاته على نظام سياسي شديد المركزية والرقابة. ففي خريف 2025، نشرت بكين وثيقة بعنوان «إطار حوكمة سلامة الذكاء الاصطناعي 2.0»، وهي دراسة موسعة أعدها خبراء تحت إشراف مباشر من الدولة.
وحذرت الوثيقة بوضوح من استخدام الذكاء الاصطناعي في أنشطة إجرامية غير مشروعة، مثل الإرهاب والجريمة المنظمة، بما في ذلك القمار غير القانوني وتهريب المخدرات. وأشارت إلى أن الذكاء الاصطناعي قد يسهم في تسهيل تعلم التقنيات الإجرامية، وإخفاء الأدلة والأنشطة غير القانونية، وتطوير أدوات تُعرف بـ«الذكاء الاصطناعي الإجرامي».
كما تطرقت الوثيقة إلى مفهوم «الحرب المعرفية»، حيث يمكن استخدام الذكاء الاصطناعي في نشر محتوى إرهابي، أو التأثير في المجتمعات، أو التدخل في الشؤون الداخلية للدول الأخرى عبر روبوتات المحادثة والحسابات الآلية، بما يهدد القيم الاجتماعية والسيادة الوطنية.
والأخطر من ذلك، تحذير الصين من احتمال فقدان السيطرة البشرية على أنظمة الذكاء الاصطناعي المتقدمة، داعية إلى ضمان بقاء القرار النهائي بيد الإنسان، واقتراح استخدام «قواطع طوارئ» في الحالات القصوى لمنع خروج هذه الأنظمة عن السيطرة.
وفي سياق مختلف، لكن بمخاوف متشابهة، ناقش خبراء أمريكيون هذه القضايا خلال مؤتمر ميونيخ للأمن في فبراير/شباط الماضي، عقب قمة باريس للذكاء الاصطناعي. وخلال مؤتمر نظمته «مبادرة التهديد النووي»، حذر مختصون من تقاطع الذكاء الاصطناعي مع علوم الحياة، معتبرين أن هذا المجال يمثل أخطر تهديد محتمل.
وقدم الخبراء محاكاة مرعبة لسيناريو افتراضي، يتمثل في قيام جماعة إرهابية، بمساعدة الذكاء الاصطناعي، بتطوير سلالة جديدة من فيروس معوي، تتسبب في جائحة عالمية تشمل 850 مليون إصابة و60 مليون وفاة.
وأكد مشاركون، من بينهم سيناتور أمريكي، أن مجال الأمن البيولوجي هو الأكثر عرضة لمخاطر الذكاء الاصطناعي، إذ تخفض هذه التكنولوجيا عتبة الوصول إلى المعرفة العلمية الحساسة، وتمكّن غير المتخصصين من تصميم أو تعديل مسببات مرضية، بما يجعل الفيروسات أكثر عدوى وفتكًا ومقاومة للعلاجات واللقاحات.
كما حذر الخبراء من أن أدوات التصميم البيولوجي قد تتيح، ليس فقط ابتكار فيروسات جديدة، بل أيضًا إحياء فيروسات قديمة تسببت في أوبئة تاريخية.
ولفتوا إلى أن إمكانية طلب أجزاء من الحمض النووي عبر الإنترنت، رغم وجود ضوابط تنظيمية، قد تصبح أكثر خطورة إذا استُخدم الذكاء الاصطناعي للتحايل على أنظمة المراقبة.
وما بين التحذير الصيني من فقدان السيطرة، والتحذير الأمريكي من كوارث بيولوجية محتملة، يتضح أن الذكاء الاصطناعي لم يعد مجرد سباق تكنولوجي، بل تحول إلى تحدٍ أمني عالمي.
ويتفق الخبراء، رغم اختلاف خلفياتهم، على أن الحل لا يكمن في وقف التطور، بل في وضع أطر حوكمة صارمة، وتعزيز التعاون الدولي، بما يضمن بقاء هذه التكنولوجيا في خدمة البشرية، لا في أيدي الإرهاب والفوضى.
aXA6IDIxNi43My4yMTYuNTYg جزيرة ام اند امز