الذكاء الاصطناعي والتهديد الخفي للشركات.. تحذير من المخابرات الفرنسية
أصدرت الاستخبارات الداخلية الفرنسية مذكرة من 7 صفحات تحذر فيها الشركات من المخاطر المتزايدة المرتبطة باستخدام الذكاء الاصطناعي، مؤكدة أن هذا الاستخدام قد يؤدي إلى فقدان السيطرة من قبل الموظفين والإدارة.
وتأتي هذه المذكرة لتسلط الضوء على جانب أقل شهرة من مهام المخابرات الفرنسية، وهو حماية الأمن الاقتصادي للدولة والشركات، بعيدًا عن مهامها التقليدية في مكافحة التجسس أو الإرهاب أو التدخلات الأجنبية، بحسب صحيفة "لوفيغارو" الفرنسية.
الفرص والمخاطر
وتقر المذكرة بأن الذكاء الاصطناعي يمثل أداة قوية لزيادة الإنتاجية، وأنه يشكل "تقدمًا كبيرًا للشركات"، لكنه في الوقت نفسه يحمل مخاطر عديدة إذا لم يتم استخدامه بحذر داخل بيئة العمل.
وقد استندت الاستخبارات الداخلية الفرنسية في تقريرها إلى ثلاث حالات فعلية لشركات فرنسية واجهت آثارًا سلبية أو سلوكيات محفوفة بالمخاطر نتيجة الاعتماد على الذكاء الاصطناعي.أول تحذير: لا تترجم بيانات حساسة عبر أدوات الذكاء الاصطناعي
أول هذه الحالات لشركة متعددة الجنسيات، حيث قام موظفو قسم تقنية المعلومات بنسخ ولصق مستندات سرية بالكامل داخل أدوات ذكاء اصطناعي عامة مثل تشات جي بي تي وGemini.
ووفقًا للاستخبارات الداخلية الفرنسية، كان الموظفون يستخدمون هذه الأدوات بشكل روتيني دون إذن من الإدارة.
وبعد التدخل، وجهت الشركة موظفيها لاستخدام نسخة مدفوعة من أدوات الذكاء الاصطناعي المملوكة للشركة لتفادي المخاطر.
وحذرت الاستخبارات الداخلية الفرنسية من أن إدخال معلومات داخلية وحساسة إلى أدوات الذكاء الاصطناعي التوليدية يمثل خطرًا كبيرًا لإعادة استخدام هذه البيانات، خصوصًا أن بعض الأدوات تخزن البيانات على خوادم في الخارج، خاصة في الولايات المتحدة، ما قد يخضع الشركات لقوانين أجنبية ذات تأثير عابر للحدود.
وأضافت أن ربط أدوات الذكاء الاصطناعي بتطبيقات خارجية يزيد من نقاط الضعف ويعرض البيانات للتسريب أو للهجمات السيبرانية.ثاني تحذير: فقدان السيطرة البشرية
الحالة الثانية لشركة فرنسية توسع أنشطتها خارج البلاد، واستخدمت أداة ذكاء اصطناعي لتقييم شركائها التجاريين الحاليين والمحتملين، محللةً البيئة القانونية والضريبية لهم وتحديد الأنسب، لكن الشركة لم تقم بأي تحقق بشري إضافي، معتمدة بشكل كامل على النتائج الآلية.
وتشير الاستخبارات الداخلية الفرنسية إلى أن هذا يعكس المخاطر الكبرى للاعتماد المفرط على الذكاء الاصطناعي، مثل انخفاض اليقظة البشرية وفقدان السيطرة على البيانات أو على القرارات التلقائية.
وأوضحت أن الذكاء الاصطناعي يعطي نتائج بناءً على الأرجح إحصائيًا وليس الأكثر دقة أو ملاءمة للسياق، وقد يصل الأمر إلى خلق أحداث وهمية تُعرف بـ"الهلاوس"، مما يمكن أن يؤثر على الآراء والسلوكيات أو يضر بسمعة الشركة.
ثالث تحذير: هجمات "ديب فيك" شبه مستحيلة الاكتشاف
الحالة الثالثة تتعلق بمحاولة احتيال باستخدام التزييف العميق لشركة فرنسية في القطاع الصناعي. تلقى أحد المسؤولين مكالمة عبر الفيديو من شخص ظهر فيه المدير التنفيذي، طالبًا تحويل أموال لمشروع استحواذ، إلا أن المسؤول شكّ في الموقف وأنهى الاتصال، ليتضح لاحقًا أن الشخص كان محتالًا يستخدم تقنية التزييف العميق لتقليد مظهر وصوت المدير.
وحذرت الاستخبارات الداخلية الفرنسية من أن المخترقين يمكنهم استغلال الذكاء الاصطناعي للتظاهر بالمسؤولين وتحليل بيانات الشركة بسرعة فائقة لتخصيص هجماتهم.
كما يمكنهم تعديل البيانات المدخلة في أنظمة الذكاء الاصطناعي لخداع الخوارزميات، مما قد يؤدي إلى أخطاء أو سلوكيات خطيرة في أنظمة حرجة مثل المركبات الذاتية القيادة أو الأجهزة الطبية.
توصيات المخابرات للحد من المخاطر
لتجنب هذه المخاطر، توصي الاستخبارات الداخلية الفرنسية الشركات بما يلي: وضع إطار عمل واضح لاستخدام الذكاء الاصطناعي ضمن سياسات الشركة، واستخدام أدوات ذكاء اصطناعي محلية أو فرنسية لا تتطلب اتصالاً دائمًا بخوادم خارجية، وتدريب الموظفين بانتظام على الاستخدام الآمن للذكاء الاصطناعي، وتجنب إدخال بيانات شخصية أو معلومات حساسة (مثل الاسم، الهاتف، العنوان، التحاليل الطبية، الصور) في أدوات الذكاء الاصطناعي التوليدية.
aXA6IDIxNi43My4yMTYuMjE0IA== جزيرة ام اند امز