الأمان الرقمي في عصر الذكاء الاصطناعي.. «محاربة النار بالنار»
أحدث ظهور الذكاء الاصطناعي (AI) ثورة في العديد من جوانب حياتنا، من الرعاية الصحية والتمويل إلى الترفيه والنقل، ومع ذلك، فإن هذا التقدم التكنولوجي يطرح أيضا تحديات جديدة، خاصة في مجال الأمن السيبراني.
يتطور المشهد الرقمي في العالم بسرعة كبيرة، ولكن هذا النمو يغذي أيضا الجهات الفاعلة الخبيثة التي تستغل البنية التحتية الحيوية والبيانات الشخصية، وهو ما يسلط الضوء على الحاجة الملحة إلى اتخاذ تدابير قوية للأمن السيبراني.
تهديدات يحركها الذكاء الاصطناعي
يمثل دمج الذكاء الاصطناعي في الأمن السيبراني فرصا وتحديات، فمن ناحية، يمكن أن يساعد الذكاء الاصطناعي في السيطرة على التهديدات السيبرانية وتحسين أمن المستخدمين.
ومع ذلك، يمكن للمهاجمين استخدام الأدوات التي تعمل بالذكاء الاصطناعي لشن هجمات إلكترونية معقدة، وإنشاء عمليات مزيفة عميقة، وأتمتة تطوير البرامج الضارة.
العبء الثقيل الذي يتحمله قادة أمن المؤسسات يتفاقم بشكل كبير بسبب الذكاء الاصطناعي والتعلم الآلي والذكاء الاصطناعي التوليدي (genAI).
تعد البرامج الضارة والتصيد الاحتيالي وبرامج الفدية تهديدات سريعة النمو نظرا لقوة وفعالية الذكاء الاصطناعي الجديدة، على سبيل المثال، تحسين هجمات التصيد الاحتيالي، أو إنشاء هويات مزيفة مقنعة، أو انتحال هويات حقيقية.
يتيح الوصول السهل إلى منصات genAI عبر الإنترنت، مثل ChatGPT، للموظفين تحميل البيانات الحساسة أو السرية بلا مبالاة أو عن غير قصد في أيدي الخصوم، يستغل الذكاء الاصطناعي اتجاهين للهجوم:
فهو يجعل مجموعة من الهجمات الحالية مثل الهندسة الاجتماعية، والتصيد الاحتيالي، والتزييف العميق، والبرامج الضارة أسرع وأكثر فعالية.
ويتيح استغلال تطبيقات ونماذج الذكاء الاصطناعي المؤسسية أثناء وبعد التطوير، مثل نشر هجمات التسمم في مرحلة تدريب النموذج، أو اختطاف النموذج عن طريق تغذيته بمعلومات غير صحيحة.
تتفاعل المنظمات مع صعود الذكاء الاصطناعي بإحدى طريقتين:
الأولى، تشجيع الاستخدام على نطاق واسع، مع القليل من الإشراف أو فهم المخاطر.
الثانية، حظر جميع الاستخدامات تقريبا (باستثناء مجموعة صغيرة من المتخصصين)، مما يعوق إمكاناتها بشكل فعال.
الآن، ونظرا للتقدم الذي أحرزه الذكاء الاصطناعي التوليدي، يتم نشر الهجمات في غضون ثوان ودقائق وليس أياما أو أسابيع وهو ما يتجاوز بكثير القدرة البشرية على اكتشافها والاستجابة لها.
وفقا لوحدة مكافحة التهديدات Secureworks، يقوم مجرمو الإنترنت بنشر برامج الفدية خلال يوم واحد من النقطة الأولى لاختراق المؤسسة. وانخفض هذا الوقت بشكل ملحوظ في عام 2023، حيث انخفض من 4.5 يوم في عام 2022 ونحو 5.5 يوم في العام السابق لذلك، وفقا لموقع "techradar" التقني.
ولسوء الحظ، فإن غالبية المؤسسات ليست في وضع جيد لمكافحة هذه التهديدات الجديدة، لأنها لا تستثمر في حلول الأمن السيبراني الأكثر فعالية من حيث التكلفة.
عندما نأخذ في الاعتبار أن الإنفاق العالمي على الحلول والخدمات الأمنية من المتوقع أن يصل إلى 219 مليار دولار في عام 2023 - ومع ذلك، خلال الربع الأول من عام 2023، تم الكشف عن أكثر من 6 ملايين سجل بيانات في جميع أنحاء العالم من خلال خروقات البيانات.
إذًا، ما الذي يمكن للشركات فعله لإنهاء هذه الدورة وتحقيق أقصى استفادة من استثماراتها في الأمن السيبراني؟
ضرورة فهم الذكاء الاصطناعي
نصف المعركة يتمثل في فهم الذكاء الاصطناعي وكيفية استخدامه من قبل كل من المهاجمين والمدافعين لتعزيز قدراتهم.
ما يمكن للذكاء الاصطناعي أن يبنيه، يمكنه أن يدمره، فعند استخدامه بشكل ضار، يخلق الذكاء الاصطناعي الفوضى.
وبالنظر إلى الذكاء الاصطناعي التوليدي على وجه التحديد، يمكن لنماذج الذكاء الاصطناعي الجيني الخبيثة الاستفادة من أتمتة الهجوم المحسنة خاصة عندما تجعل هذه التكنولوجيا كل شيء أرخص وأسرع بشكل ملحوظ.
هناك أيضا قلق حقيقي على جبهة الهندسة الاجتماعية، حيث يمكن للذكاء الاصطناعي أن يساعد في تقديم رسائل بريد إلكتروني متطورة للغاية وذات مظهر حقيقي لاستخدامها كجزء من الهجمات المستهدفة مثل التصيد الاحتيالي أو حملات التصيد العامة، بما في ذلك البريد الصوتي ورسائل الدردشة.
على سبيل المثال، يتم التعرف بسهولة على العديد من محاولات التصيد الاحتيالي اليوم من خلال قواعد نحوية أو إملائية سيئة. سيسمح الذكاء الاصطناعي لنماذج Gen-AI الضارة بمراجعة رسائل البريد الإلكتروني وتحريرها بسرعة لتبدو أكثر مصداقية قبل إرسالها. ومع تقدم هذه التكنولوجيا، يمكن للمؤسسات أيضا أن تتوقع رؤية المزيد من محتوى الفيديو المزيف عالي الجودة والواقعي.
يتم استخدام الذكاء الاصطناعي أيضًا في البرامج الضارة متعددة الأشكال. يتيح ذلك تطوير متغيرات أكواد التهديد القابلة للتغيير بشكل كبير، وحزم البرامج الضارة التي تتغير باستمرار لتجنب اكتشافها بواسطة أدوات الأمان الحالية. قد يؤدي هذا إلى تحويل توازن القوة لصالح المهاجمين حيث يكافح الدفاع لمواكبة تحديث حالات الاستخدام وتكوين ضوابط الأمان الوقائية والكشفية.
محاربة النار بالنار
حل التحدي من خلال توظيف المزيد من الموارد الماهرة أو تغيير أساليب العمل المختلط، لن يكون كافيا لمواجهة تحديات الذكاء الاصطناعي هذه. ونتيجة لذلك، يتعين على المنظمات اتخاذ الإجراءات اللازمة. يمكن أن يكون الذكاء الاصطناعي التوليدي بحد ذاته جزءا من الحل، لذا تحتاج المؤسسات إلى هذه الأدوات حيث لا يوجد خيار آخر للحفاظ على سلامة الأصول.
والخبر السار هو أن العملاء يمكنهم بالفعل حماية أنفسهم من خلال العمل مع مصنعي المعدات الأصلية، للاستفادة من الذكاء الاصطناعي لتعزيز رؤية التهديدات الخاصة بهم، وقدرات الكشف والاستجابة بشكل كبير مع أقل تكلفة تشغيلية وتحقيق نتائج إيجابية بشكل أسرع نسبيًا مما كان عليه الحال قبل الذكاء الاصطناعي التوليدي. عصر.
على صعيد الكشف عن التهديدات، يمكن لأدوات الذكاء الاصطناعي التوليدي فهم الأنماط السلوكية للمستخدمين والكائنات الموجودة على الشبكة من أجل تحديد نماذج الذكاء الاصطناعي العامة الضارة.
يمكن أن يدعم ذلك المؤسسات في توسيع نطاق قدرات فرقها الأمنية الحالية، مما يتيح تحليل كميات هائلة من البيانات غير المنظمة في الوقت الفعلي أو في الوقت الفعلي تقريبًا لاكتشاف التهديدات المحتملة والتنبؤ بها والتي تتجاوز قدرات المحلل البشري على تحديدها.
بالإضافة إلى ذلك، يمكن لأدوات مثل تبادل معلومات التهديدات السيبرانية من مصادر جماعية والتحليلات السلوكية المدعومة بالذكاء الاصطناعي أن تساعد الشركات في بناء استراتيجيات دفاعية استباقية أقوى.
ومع ذلك، فإن قول الكثير من هذا أسهل من فعله. يمكن أن يكون الذكاء الاصطناعي مصطلحا واسعا، ومع وجود مجموعة واسعة من حلول الذكاء الاصطناعي في السوق، قد يكون من الصعب معرفة الحل الذي سيحدث فرقا حقيقيا في تحسين الوضع الأمني.
ولهذا السبب، من الضروري استخدام عرض الشركاء ودعمهم حتى تتمكن المؤسسات من مواجهة تحديات محددة وتأمين الأصول الرقمية بطريقة قابلة للتطوير ومواكبة للمستقبل.
كيف يمكن تأمين مستقبل مدعوم بالذكاء الاصطناعي؟
وفقًا لتحليل تطور برامج الفدية SecureWorks Ransomware، شهدنا على مدار العامين الماضيين زيادة كبيرة في هجمات برامج الفدية وظهور برامج الفدية كخدمة باستخدام المزيد من نماذج Gen-AI الضارة، للمساعدة في التنسيق وتحقيق الربح.
للاستعداد لتأثير الذكاء الاصطناعي التوليدي على برامج الفدية ومشهد الأمن السيبراني، يجب على المؤسسات النظر في الإجراءات الرئيسية الثلاثة التالية:
أولا، تحتاج الشركات إلى تبني الذكاء الاصطناعي كأساس أساسي لاستراتيجية الأمن السيبراني الخاصة بها.
لا يمكن الدفاع عن الهجمات الآلية والمكتوبة والمعتمدة على الذكاء الاصطناعي إلا من خلال حلول إدارة التهديدات المدعومة بالذكاء الاصطناعي لتقليل المخاطر وتأثير تلك الهجمات على الأعمال.
لذلك، تحتاج المؤسسات إلى الاستثمار في الحلول الأمنية المعتمدة على الذكاء الاصطناعي ودمجها في ترسانتها الأمنية الحالية عاجلا وليس آجلا.
ثانيا، الذكاء الاصطناعي التوليدي كتقنية موجود لتبقى ويتطور.
وبالتالي، من المهم تقييم الممارسات الأمنية الحالية طويلة الأمد، وتحسين مهارات المهندسين في الحلول المدعومة بالذكاء الاصطناعي، إذا لزم الأمر.
البشر هم في قلب التطور الحالي للذكاء الاصطناعي. لذلك، فإن توظيف أو تدريب متخصصي تكنولوجيا المعلومات ذوي المعرفة بالذكاء الاصطناعي سيمكن من اتخاذ قرارات جيدة ويساعد على ضمان بقاء المؤسسات في صدارة منحنى اعتماد الذكاء الاصطناعي والمخاطر المحتملة.
ثالثا، تحتاج المؤسسات إلى أن تظل منفتحة على النهوض بتحديات الذكاء الاصطناعي وإعادة التفكير في الإجراءات والعمليات إذا لزم الأمر.
وللقيام بذلك، يجب على المؤسسات إجراء تقييمات النضج والفجوات بشكل منتظم، وتقييم المواقف الأمنية الحالية، ونشر الضوابط وتحديد الخطوات الانتقالية المحددة التي يجب اتخاذها لتطوير استراتيجية مستدامة للتخفيف من موجة جديدة من التهديدات السيبرانية الآلية والمعتمدة على الذكاء الاصطناعي والتهديدات السيبرانية المتعددة. هجمات منظمة مثل برامج الفدية وحملات التصيد.
ولذلك، فمن الأهمية بمكان أن تتعلم الشركات كيفية التكيف والاستثمار في حلول الأمن السيبراني المناسبة لتلبية الاحتياجات الحالية.
وهذا بدوره سيساعد الشركات في نهاية المطاف على التعامل بشكل أفضل مع مشهد التهديدات المتغير بسرعة. بالإضافة إلى ذلك، ستصبح الشركات أكثر مرونة وإنتاجية وتنافسية من خلال تبني هذه الثورة الرقمية بثقة سواء في الوقت الحالي أو في المستقبل.