مكافحة المحتوى المتطرف على وسائل التواصل الاجتماعي: الآليات والفعالية
جهود مكافحة المحتوى المتطرف على وسائل التواصل الاجتماعي تواجه قيودا وتحديات جمة تقوض فاعليتها.
على تعدد إيجابياتها، يمكن لوسائل التواصل الاجتماعي -في المقابل- أن تسهم في نشر ثقافة المؤامرة، وبث خطابات الكراهية، والترويج لوجهات النظر المتطرفة، والأخبار الزائفة المغلوطة. وهو ما يثير التساؤلات عن إمكانية مواجهة المحتوى المتطرف على منصاتها سواء بواسطتها أو بواسطة الدول على اختلاف سياساتها، وكذا سياقات تلك المواجهة ومدى فاعليتها.
السياق والمحددات
تعكس جرائم الكراهية المنتشرة في عددٍ من الدول قدرة وسائل التواصل الاجتماعي على تضخيم الأحداث، والترويج للشائعات، ودفع المستخدمين إلى أقصى حالات التطرف كتلك التي تتضح في حالات القتل والتطهير العرقي. وقد تجلى ذلك في عددٍ من الأمثلة والحالات التي شكلت في مجملها السياق العام لضبط وسائل التواصل الاجتماعي للمحتوى المتداول على منصاتها؛ وإن كان أبرزها البث الحي للقتل الجماعي الذي حدث في نيوزيلندا منتصف مارس الماضي. وفي أعقابه، نادت "جاسيندا أرديرن" (رئيسة وزراء نيوزيلندا) بمكافحة المحتوى المتطرف على الإنترنت.
ومن الأمثلة البارزة على ذلك أيضًا، نشر أحد الرهبان البوذيين في 2014 على فيسبوك ادعاء كاذبا من قبل إحدى السيدات بوقوع اعتداءٍ جنسيٍ عليها من قبل زميليها المسلمين، ما أسفر عن تصاعد معدلات العنف بين الأقلية المسلمة والأغلبية البوذية في مدينة مندلاي بوسط ميانمار، أدت إلى مقتل اثنين وإصابة 19 آخرين.
وخلصت إحدى الدراسات الصادرة عن جامعة وارويك البريطانية إلى أن الهجمات التي استهدفت اللاجئين في الفترة بين 2015 و2017 ترتبط ارتباطًا وثيقًا بتزايد استخدام فيسبوك، وبخاصة في الأوقات التي روج فيها اليمين المتطرف أو "حزب البديل من أجل ألمانيا" منشوراتٍ معاديةً لهم على صفحاته. كما أسفرت الأخبار الكاذبة على مواقع التواصل الاجتماعي عن حشد ما يزيد على 6 آلاف متظاهر من اليمين المتطرف في أغسطس/آب الماضي في ولاية ساكسونيا الألمانية.
وتتصل هجمات الإرهاب الأبيض اتصالًا وثيقًا بالخطابات العنصرية التي يتم الترويج لها على الإنترنت، والتي تستعين بوسائل التواصل الاجتماعي للترويج والانتشار. فعلى سبيل المثال، اعتقد مطلق النيران في أحداث كنيسة تشارلستون في يونيو/تموز 2015 أن التفوق الأبيض يستوجب ممارسة وإعمال العنف. ما أسفر عن مقتل 9 من رجال الدين والمصلين. وقد تبلورت تلك الاعتقادات بشكلٍ أو بآخر من خلال عمليات تعلم ذاتية على الإنترنت. وهو ما يتشابه إلى حدٍّ بعيد مع أحداث إطلاق النيران في كنيسة بطرسبرج في عام 2018. وفي إطارها، قتل 11 مصليا في قداس السبت الذي هدف إلى خدمة المهاجرين.
وفي ميانمار، أكدت بعثة تقصي الحقائق التابعة للأمم المتحدة استخدام فيسبوك لنشر الكراهية وشيطنة القيادات العسكرية والقوميين البوذيين لأقلية الروهينجا المسلمة قبل وأثناء حملات التطهير العرقي من خلال وسائل التواصل الاجتماعي. وفي مارس 2018، تم الترويج لعدة شائعاتٍ في سريلانكا، استهدفت أقلية التاميل المسلمة من خلال إحدى موجات العنف. وعلى خلفيتها، قررت السلطات حظر كلٍّ من فيسبوك، وواتساب، وغيرهما لمدة أسبوع.
وكما تعد وسائل التواصل الاجتماعي ساحةً لخطابات الكراهية والتطرف، تعد أيضًا ساحة للتنظيمات الإرهابية، فقد تمكن بعضها وفي مقدمتها داعش من اختراق عددٍ من الحسابات غير النشطة على تويتر، وتوظيفها لأغراض الدعاية. ومع انتشار نشاط داعش على مواقع التواصل الاجتماعي الرئيسة، ولمكافحة تلك الظاهرة وبخاصة في أعقاب تعرض عدد من الدول الأوروبية لهجمات إرهابية٬ تزايد الجدل حول أهمية وضرورة إزالة المحتوى المتطرف من منصات التواصل الاجتماعي، وبخاصة أن مقاطع الفيديو التي تحض على الكراهية والعنف والأكاذيب لا تتم إزالتها منها بشكلٍ فوري.
آليات المواجهة
وافقت شركات التكنولوجيا الكبرى على مدونة قواعد سلوك مع الاتحاد الأوروبي، تعهدت فيها بمراجعة وحذف المشاركات التي يبلغ عنها المستخدمون والتي تنتهك معايير الاتحاد الأوروبي في غضون أربع وعشرين ساعة. وتحديدًا، ولمكافحة المحتوى المتطرف على منصاتها، اتخذت شركة فيسبوك جملةً من السياسات التي يمكن إجمالها على النحو التالي:
1- الاستعانة بالقوات الأمنية الأمريكية والبريطانية لتدريب برامج الذكاء الصناعي بهدف رصد وإزالة المحتويات والصفحات المخالفة. وباستخدام تلك البرامج، يمكن تحديد وحظر عددٍ ضخمٍ من الأشخاص والجماعات باستخدام طرقٍ حديثة في التعرف عليهم وفقًا للسلوك لا الأيدولوجية فحسب.
2- إمداد أفراد الشرطة البريطانية بكاميرات صغيرة (تثبت على الزي الشرطي) تحصل شركة فيسبوك على حق البث الخاص لها.
3- تحديث البنود الخاصة بالمنظمات والأشخاص الخطرة، بهدف ضمان سلامة المستخدمين، والحيلولة دون التخطيط لأي جرائم مستقبلية عبر صفحاتها.
4- الاستعانة بذوي الخبرات في مجالات: التجسس، ومكافحة الإرهاب، وحرب المعلومات. وقد بلغ عددهم 350 شخصا.
5- التعاون مع كبرى الشركات التكنولوجية لوضع إطارٍ محددٍ لمواجهة إساءة استخدام الإنترنت والمحتوى المتطرف.
6- تطبيق سياسة "الفرصة الوحيدة" لاستخدام ميزة البث المباشر. وبموجبها، يُمنع من البث المباشر كل مستخدم سبق له أن واجه إجراءاتٍ تأديبيةٍ بسبب خرق قواعد الشركة لفتراتٍ زمنيةٍ محددة.
وبالإضافة للسياسات السابقة، قللت أنظمة الكشف البرمجية من متوسط الوقت الذي يستغرقه الذكاء الاصطناعي لتحديد مقاطع الفيديو التي تنتهك قواعد فيسبوك في البث المباشر إلى 12 ثانية، أي أن الوقت المستغرق لتحديد تلك الفيديوهات تقلص بنسبة 90% بالمقارنة بما سبق.
وعلى صعيدٍ متصل، بدأ تويتر في حذف حساباتٍ تابعة لليمين المتطرف منذ ديسمبر/كانون الأول 2017. وحذف كذلك حساب "ريتشارد سبنسر" (الأمريكي ذي الفكر القومي المتطرف الذي روّج لمصطلح البديل الأبيض) قبل أن يتم تفعيله مرة أخرى. وبلغ إجمالي الحسابات التي تم تعليقها في الفترة بين أغسطس/آب 2015 ونهاية 2018 مليون ونصف المليون حساب. كما تم حذف كافة الحسابات التي تم اختراقها من قبل داعش.
وعلى صعيدٍ ثالث، حذف اليوتيوب أكثر من 58 مليون مقطع فيديو خلال الربع الثالث من عام 2018. إذ تساعد أدوات الاكتشاف التلقائي في التعرف على المحتوى المتطرف والمبتذل. ونظرًا لتراجع فاعلية ذلك نسبيًا، يعتمد اليوتيوب على المستخدمين للإبلاغ عن الفيديوهات المتطرفة، وهو ما يعني تداولها على نطاقٍ واسعٍ قبل حذفها. كما بدأ اليوتيوب في إصدار تقاريرٍ ربع سنوية عن مختلف جهوده. ويتجه كذلك لمزيدٍ من الإجراءات الصارمة لتحديد وحذف أي محتوى إرهابي يحض على العنف والتطرف على منصته.
سياسات الدول
تعددت آليات الدول في مواجهة المحتوى المتطرف المتداول على منصات وسائل التواصل الاجتماعي، ففي الولايات المتحدة على سبيل المثال، أجبرت اللجنة القضائية بمجلس النواب الأمريكي ولجنتها الفرعية -في إطار التحقيقات الموسعة- شركات التكنولوجيا وشركات التواصل الاجتماعي وبخاصة فيسبوك على تسليم الملفات الداخلية وإخضاعها للتحقيق.
واقترح الاتحاد الأوروبي فرض غراماتٍ باهظةٍ على مواقع التواصل الاجتماعي، ما لم تقم بإزالة المواد المتطرفة خلال ساعة واحدة من ورود أمرٍ حكوميٍ للقيام بذلك. وفي سياقٍ متصل، قضت محكمة العدل الأوروبية بإمكانية إجبار فيسبوك على حذف محتوى غير قانوني بما في ذلك خطاب الكراهية داخل الاتحاد الأوروبي وفي جميع أنحاء العالم. ووفقًا للمحكمة، لا يوجد في قوانين الاتحاد الأوروبي ما يمنع المحاكم الإقليمية من مطالبة فيسبوك بالبحث عن المحتوى غير القانوني وحذفه.
كما أجبرت بريطانيا فيسبوك -في إطار اتفاقٍ موقعٍ مع الولايات المتحدة- وغيرها من وسائل التواصل الاجتماعي على تسليم الرسائل المشفرة لجهات إنفاذ القانون البريطانية في حالتي الإرهاب والاعتداء الجنسي على الأطفال. ذلك أن الرسائل المشفرة من شأنها تسهيل الأنشطة الإرهابية. وتقترح كذلك تطبيق قوانين جديدة تفرض عقوبات على وسائل التواصل الاجتماعي حال التقاعس عن حماية مستخدميها من المحتوى المتطرف.
كما تبحث بريطانيا في إمكانية محاسبة الإدارة العليا لشركات التكنولوجيا لتقاعسها عن الحد من انتشار المحتوى المتطرف. وقد أتى ذلك على خلفية انتحار طالبة تبلغ من العمر 14 عاما بعد أن شاهدت مواد تحض على الاكتئاب والانتحار عبر الإنترنت. وفي السياق ذاته، تبحث أستراليا في فرض غراماتٍ على شركات التواصل الاجتماعي حال التقاعس عن إزالة المحتوى المتطرف بشكلٍ سريع.
وأقرت إحدى المحاكم الهندية مسؤولية شركات التواصل الاجتماعي عن الأضرار التي تُلحقها بالمجتمع نتيجة للشائعات والأخبار المزيفة التي تتداول على منصاتها. ناهيك عن مسئوليتها عن المحتوى الذي يشاركه المستخدمون. وطبقًا للقواعد الهندية الجديدة، يمكن للحكومة أن تطلب من وسائل التواصل الاجتماعي حذف بعض الصفحات في غضون 24 ساعة والكشف عن هوية المستخدمين. وتأتى تلك القواعد على خلفية اتهام الحزب الهندي الحاكم وسائل التواصل الاجتماعي بمراقبة المحتوى وتسييسه، وتعليق حسابات اليمين، مما يقوض الديمقراطية الهندية.
كما فرضت ألمانيا عددا من القيود على فيسبوك للتصدي للأخبار الكاذبة التي تروج على صفحاتها، وسط تخوفاتٍ من تداعيات الأخبار المغلوطة على نتيجة الانتخابات البرلمانية، وخطابات الكراهية على ما يزيد على مليون مهاجر إلى أراضيها.
وعقد مجلس الشيوخ الأمريكي جلسة استماع -في 18 سبتمبر/أيلول الماضي- لبحث الجهود التي تبذلها وسائل التواصل الاجتماعي لإزالة المحتوى المتطرف من منصاتها، ومناقشة توظيف تلك المنصات من قبل المتطرفين الذين يرتكبون عمليات قتلٍ جماعي، وغيرها من أعمال العنف. وبحثت الجلسة أيضًا انتشار التطرف عبر الإنترنت، ومدى فاعلية الجهود المبذولة للتصدي له.
وفي ذلك السياق، تجدر الإشارة إلى إعلان عمالقة التكنولوجيا وفي مقدمتها "جوجل، وفيسبوك ومايكروسوفت، وأمازون، وتويتر" دعمها للاتفاقية الدولية المعروفة باسم "دعوة كرايستشيرش" والتي تهدف إلى مكافحة المحتوى المتطرف على الإنترنت، والتي تمت صياغتها عقب الهجوم على مسجدين في مدينة كرايستشيرش بنيوزيلندا. وبموجبها، تلتزم تلك الشركات بالتحديث الدوري لشروط الاستخدام، وتنويع آليات الإبلاغ عن المحتوى الضار، والاستثمار في تقنيات رصده. لتنضم بذلك تلك الشركات إلى عددٍ من الدول على شاكلة: نيوزيلندا، وفرنسا، وكندا.
تقييم عام
على الرغم من الجهود الدولية المبذولة لمكافحة المحتوى المتطرف، تواجه تلك الجهود جملةً من التحديات التي يمكن تحليلها على النحو التالي:
1- حذّر أنصار الحريات المدنية من خطورة المساعي الدولية لتقويض وحذف المحتوى الضار بسبب غموض مفهومه من ناحية، وإطلاق سلطات الدول في الحظر والحذف والإزالة دون ضوابط من ناحيةٍ أخرى. وهو ما يجعل من ذلك المحتوى أمرا نسبيا، فما قد يكون محظورا في دولة ما، قد يكون مباحا في أخرى.
2- تواجه وسائل التواصل الاجتماعي صعوبة في التمييز بين خطاب الكراهية والخطاب السياسي المشروع.
3- تقوض سياسات الحظر حق مستخدمي الإنترنت في الوصول إلى المعلومات وحرية التعبير. ومن شأن تلك السياسات أن يساء استخدامها من قبل الدول السلطوية حيث تتراجع حرية التعبير.
4- تفاوت الاستجابات الدولية من دولةٍ إلى أخرى. ولذا، دعا "مارك زوكربيرج" (الرئيس التنفيذي لفيسبوك) إلى لوائح عالمية للخصوصية والبيانات القياسية.
5- يمكن مقاضاة المجلات والشبكات التلفزيونية لنشرها معلوماتٍ تشهيرية خاطئة أو زائفة، ولكن في المقابل، لا يمكن مقاضاة منصات التواصل الاجتماعي على المحتوى الذي يتم تداوله.
6- يقع على وسائل التواصل الاجتماعي عبء مراقبة المحتوى المتطرف وحذفه، إلا إنها تتقيد بقوانين الدول الداخلية. وهي القوانين التي إما أن تنزع فتيل التمييز وتمنع العنف أو تُستخدم لقمع الأقليات والمعارضة السياسية.
7- يتم حذف المحتوى المتطرف في أعقاب نشره، ومشاهدته، وانتشاره. ولا تملك وسائل التواصل الاجتماعي الكثير للحيلولة دون نشره ابتداء بحكم طبيعتها.
8- لا توظف وسائل التواصل الاجتماعي ما يكفي من الموظفين الذين يجيدون اللغات المحلية. وهو الأمر الذي اتضح في ميانمار في عام 2015، حيث وظف فيسبوك اثنين فقط من المتحدثين بالبورمية، على الرغم من انتشار خطابات الكراهية بواسطة الرهبان البوذيين القوميين. وعلى خلفية ذلك، تعهد فيسبوك بزيادة عدد المشرفين الذين يجيدون اللغة المحلية.
وبجانب الإشكاليات السابقة، ينبغي تسليط الضوء على إشكاليةٍ أخرى مهمة، تتصل باعتماد كل من فيسبوك ويوتيوب على "نظام اللوغاريتمات"، وهو عبارة عن خوارزميات مصممة لزيادة مشاهدة الفيديوهات من خلال ترشيح بعضها للمستخدمين بناء على معلوماتهم المتاحة على حساباتهم الشخصية. وقد تتضمن تلك الترشيحات فكرا متطرفا ومفاهيم مغلوطة. وقد تسفر آلية "التشغيل التلقائي" لفيديوهات اليوتيوب عن مشاهدة محتوياتٍ متطرفة.
وقد صممت اللوغاريتمات بالأساس لزيادة أوقات المشاهدة لزيادة الربح المادي، فتتم تزكية فيديوهات بعينها إذا رأى ذلك النظام أنها قد تحقق نسبة مشاهدة عالية، وهو ما يعني مشاهدة إعلاناتٍ أكثر، وبالتالي إيراداتٍ أكبر. وفي يونيو الماضي، أجرى اليوتيوب تغييرات على خوارزمية التوصية، وأعلن عن إزالته المقاطع الخاصة بالنازيين الجدد والعنصريين البيض.
وختاما، تواجه جهود مكافحة المحتوى المتطرف على وسائل التواصل الاجتماعي قيودا وتحدياتٍ جمة تقوض فاعليتها. وعلى الرغم من ذلك، وفي ظل تعدد تنامي خطابات الكراهية والإرهاب الأبيض وأحداث القتل الجماعي، تدعو الحاجة إلى تفعيل تلك الجهود من خلال لوائح موحدة، وقوانين ملزمة، وبروتوكولات للطوارئ.
** د. رغدة البهي: مدرس العلوم السياسية بجامعة القاهرة
aXA6IDMuMTIuMTYxLjE1MSA= جزيرة ام اند امز