«عسكرة الذكاء الاصطناعي».. غوغل تتخلى عن تعهدها بشأن الأسلحة
![غوغل - أرشيفية](https://cdn.al-ain.com/lg/images/2025/2/12/140-003613-google-drops-pledge-not-to-develop-ai-weapons_700x400.jpg)
تراجعت شركة ألفابت، الشركة الأم لغوغل، عن تعهدها بعدم استخدام الذكاء الاصطناعي في أنظمة الأسلحة أو أدوات المراقبة، مشيرة إلى الحاجة إلى دعم الأمن القومي "للديمقراطيات".
وفي منشور على مدونة نُشر في يونيو/حزيران 2018، أوضح الرئيس التنفيذي لشركة غوغل، سوندار بيتشاي، كيف أن الشركة "لن تسعى" إلى تطبيقات الذكاء الاصطناعي التي "تسبب أو من المحتمل أن تسبب ضررًا عامًا"، والتزم على وجه التحديد بعدم تطوير الذكاء الاصطناعي للاستخدام في "الأسلحة أو التقنيات الأخرى التي يكون الغرض الرئيسي منها أو تنفيذها هو التسبب في إصابة الناس أو تسهيلها بشكل مباشر".
وأضاف أن غوغل لن تسعى أيضًا إلى "التقنيات التي تجمع أو تستخدم المعلومات للمراقبة التي تنتهك المعايير المقبولة دوليًا".
ودافعت غوغل، التي تم استبدال شعار شركتها "لا تكن شريرًا" في عام 2015 بـ"افعل الشيء الصحيح" ، عن قرار إزالة هذه الأهداف من صفحة مبادئ الذكاء الاصطناعي على الويب في منشور مدونة شارك في تأليفه ديميس هاسابيس، الرئيس التنفيذي لقسم DeepMind بشركة غوغل، وجيمس مانيكا، نائب الرئيس الأول للشركة للتكنولوجيا والمجتمع.
وقالت الشركة في المنشور الذي نشر بتاريخ 4 فبراير/شباط، "هناك منافسة عالمية تدور حول قيادة الذكاء الاصطناعي في ظل مشهد جيوسياسي معقد بشكل متزايد، نعتقد أن الديمقراطيات يجب أن تقود تطوير الذكاء الاصطناعي، مسترشدة بقيم أساسية مثل الحرية والمساواة واحترام حقوق الإنسان".
وأضافت "ونعتقد أن الشركات والحكومات والمنظمات التي تتقاسم هذه القيم يجب أن تعمل معًا لإنشاء ذكاء اصطناعي يحمي الناس ويعزز النمو العالمي ويدعم الأمن القومي".
وأضافوا أن مبادئ الذكاء الاصطناعي في غوغل ستركز الآن على ثلاثة مبادئ أساسية، بما في ذلك "الابتكار الجريء"، الذي يهدف إلى "مساعدة وتمكين وإلهام الناس في كل مجال تقريبًا من مجالات المساعي البشرية" ومعالجة أكبر التحديات التي تواجه البشرية، "التطوير والنشر المسؤول"، مما يعني متابعة الذكاء الاصطناعي بشكل مسؤول طوال دورة حياة النظام بالكامل، و"التقدم التعاوني معًا"، والذي يركز على تمكين "الآخرين من الاستفادة من الذكاء الاصطناعي بشكل إيجابي".
وفي تعليقها على تغيير سياسة غوغل، قالت إلكي شوارتز، أستاذة النظرية السياسية في جامعة كوين ماري بلندن ومؤلفة كتاب "آلات الموت: أخلاقيات التقنيات العنيفة"، إنه في حين أن هذا "ليس مفاجئًا على الإطلاق" نظرًا لأن الشركة كانت تزود الجيش الأمريكي بالفعل بخدمات سحابية، إلا أنها لا تزال قلقة بشأن المزاج المتغير بين شركات التكنولوجيا الكبرى تجاه الذكاء الاصطناعي العسكري، حيث يزعم الكثير منها الآن أنه "من غير الأخلاقي عدم التورط" في تطوير تطبيقات الذكاء الاصطناعي لهذا السياق.
وقالت لصحيفة Computer Weekly، "تشعر غوغل الآن بالراحة الكافية لإجراء مثل هذا التغيير العام الكبير دون الحاجة إلى مواجهة رد فعل عنيف أو عواقب وخيمة تمنحك إحساسًا بمكاننا فيما يتعلق بالمخاوف الأخلاقية بشأن الاستفادة من العنف.
وأوضحت أن التوجه يشير إلى قبول مقلق لبناء اقتصاد حرب"، مضيفة أن تغيير سياسة غوغل يسلط الضوء على تحول واضح يتمثل في أن صناعة التكنولوجيا العالمية أصبحت الآن أيضًا صناعة عسكرية عالمية.
وتقول "إنه يشير إلى عسكرة متزايدة لكل شيء. كما يشير ذلك إلى وجود مكانة سوقية مهمة في مجال تصنيع الذكاء الاصطناعي للأغراض العسكرية، وأن هناك حصة كبيرة من المكاسب المالية التي يمكن انتزاعها والتي تتنافس عليها الشركات الكبرى الحالية.
ولا يزال مدى فائدة هذا التوجه نحو الذكاء الاصطناعي للأغراض العسكرية موضع تكهنات إلى حد كبير.