حماية الناخبين من خداع الذكاء الاصطناعي.. وعود حقيقية أم مراوغة تكنولوجية؟
قررت مجموعة من شركات التكنولوجيا الرائدة التعاون لمواجهة التهديد الذي يسببه الذكاء الاصطناعي للحقوق السياسية قبل انطلاق الانتخابات.
مع استعداد أكثر من نصف سكان العالم للتصويت في الانتخابات حول العالم هذا العام، يشعر قادة التكنولوجيا والمشرعين ومنظمات المجتمع المدني بقلق متزايد من أن الذكاء الاصطناعي يمكن أن يسبب الارتباك والفوضى للناخبين.
وذكر تقرير نشرته شبكة "سي إن إن" أنه في مواجهة هذه المخاوف، قررت مجموعة من شركات التكنولوجيا الرائدة التعاون لمواجهة هذا التهديد.
وتعهدت أكثر من اثنتي عشرة شركة تقنية تشارك في بناء أو استخدام تقنيات الذكاء الاصطناعي، أمس الجمعة، بالعمل معًا لاكتشاف ومكافحة محتوى الذكاء الاصطناعي الضار في الانتخابات، بما في ذلك التزييف العميق للمرشحين السياسيين. وتمثلت أبرز هذه الشركات في: OpenAI وGoogle وMeta وMicrosoft وTikTok وAdobe وغيرها.
وتتضمن الاتفاقية، التي تسمى "الاتفاق الفني لمكافحة الاستخدام الخادع للذكاء الاصطناعي في انتخابات 2024"، التزامات بالتعاون في مجال التكنولوجيا لاكتشاف المحتوى المضلل الناتج عن الذكاء الاصطناعي والتحلي بالشفافية مع الجمهور بشأن الجهود المبذولة لمعالجة محتوى الذكاء الاصطناعي الذي قد يكون ضارًا.
وقال رئيس مايكروسوفت براد سميث في بيان في مؤتمر ميونيخ للأمن الجمعة: “لم يخلق الذكاء الاصطناعي خداعًا انتخابيًا، لكن يجب علينا التأكد من أنه لا يساعد في ازدهار الخداع”. ويأتي الاتفاق بينما تستمر الهيئات التنظيمية في التخلف عن إنشاء حواجز حماية أمام تقنيات الذكاء الاصطناعي سريعة التقدم. وتوفر مجموعة جديدة ومتنامية من أدوات الذكاء الاصطناعي القدرة على إنشاء نصوص وصور واقعية مقنعة بسرعة وسهولة ومقاطع فيديو وصوت، والتي يقول الخبراء إنه يمكن استخدامها لنشر معلومات كاذبة لتضليل الناخبين.
ويأتي الإعلان عن الاتفاقية بعد أن كشفت OpenAI يوم الخميس عن أداة جديدة واقعية بشكل مذهل لتحويل النص إلى فيديو تعمل بالذكاء الاصطناعي تسمى Sora.
وقال سام ألتمان، الرئيس التنفيذي لشركة OpenAI، أمام الكونغرس في جلسة استماع في شهر مايو/أيار، حث خلالها المشرعين على تنظيم الذكاء الاصطناعي: "إن أسوأ مخاوفي هي أننا نسبب ضررًا كبيرًا - نحن العاملون في مجال التكنولوجيا وصناعاتها - ونتسبب في إلحاق ضرر كبير للعالم".
وقد دخلت بعض الشركات بالفعل في شراكة لتطوير معايير الصناعة لإضافة البيانات الوصفية إلى الصور التي تم إنشاؤها بواسطة الذكاء الاصطناعي والتي من شأنها أن تسمح لأنظمة الشركات الأخرى باكتشاف أن الصور تم إنشاؤها بواسطة الكمبيوتر تلقائيًا.
ويأخذ اتفاق يوم الجمعة تلك الجهود المشتركة بين عمالقة الصناعات التكنولوجية خطوة أخرى إلى الأمام - حيث يتعهد الموقعون بالعمل معًا في جهود مثل إيجاد طرق لربط إشارات يمكن قراءتها آليًا بأجزاء من المحتوى الناتج عن الذكاء الاصطناعي والتي تشير إلى مكان نشأتها وتقييم نماذج الذكاء الاصطناعي الخاصة بها لمعرفة مخاطرها من حيث إنشاء محتوى ذكاء اصطناعي خادع ومتعلق بالانتخابات.
وعود غير كافية
وقالت الشركات أيضًا إنها ستعمل معًا في حملات تثقيفية لتعليم الجمهور كيفية "حماية أنفسهم من التلاعب أو الخداع بهذا المحتوى".
ومع ذلك، فإن بعض مجموعات المجتمع المدني تشعر بالقلق من أن التعهد لا يذهب إلى المدى الكافي.
وقالت نورا بينافيديز، كبيرة المستشارين ومديرة العدالة الرقمية والحقوق المدنية في منظمة "فري برس" لمراقبة التكنولوجيا والإعلام، في بيان: “الوعود الطوعية مثل تلك التي تم الإعلان عنها ليست جيدة بما يكفي لمواجهة التحديات العالمية التي تواجه الديمقراطية. ففي كل دورة انتخابية، تتعهد شركات التكنولوجيا بمجموعة غامضة من المعايير الديمقراطية ثم تفشل في الوفاء بهذه الوعود بشكل كامل. ولمعالجة الأضرار الحقيقية التي يشكلها الذكاء الاصطناعي في عام انتخابي مزدحم، نحن بحاجة إلى إشراف قوي على المحتوى يتضمن المراجعة البشرية ووضع العلامات والتنفيذ."