سيناريو مرعب لعالم جديد.. هل يعلن الذكاء الاصطناعي موت الحقيقة؟
أصبح من الممكن الآن إنشاء محتوى مزيف في قالب يشبه الواقع وذلك بنقرة واحدة فقط على فأرة الحاسوب.
هذا ما ذكره تقرير نشرته مجلة الإيكونوميست والتي ضربت مثالا بفيديو نشر على حساب بموقع TikTok له أكثر من 5 ملايين متابع.. ويظهر الفيديو نجم هوليوود توم كروز "الاصطناعي" الذي يرتدي رداء أرجواني ويرقص مع النجمة باريس هيلتون (وهي حقيقية) ويحمل كلبًا لعبة في يده.
الخطير في الأمر، بحسب الإيكونوميست، أن ذلك يقتحم عالم طالما اعتبرته المجتمعات دليلا ماديا قاطعا على حدوث أمر ما أو أن شيئًا ما حقيقي، وهو "التسجيل بالصوت والصورة".
والآن بات المحتالون يحتاجون فقط إلى عشر ثوانٍ فقط من التسجيل الصوتي على الهاتف، لالتقاط البصمة الصوتية لشخص ما وفبركة أصواتهم بمضمون آخر.
وفي هذا السياق، يروج النجمان "الاصطناعيان" اللذان أنشأهما الذكاء الاصطناعي توم هانكس وتايلور سويفت للمنتجات الرديئة عبر الإنترنت، كما تنتشر مقاطع الفيديو المزيفة للسياسيين.
الفبركة السهلة
والمشكلة الأساسية هنا مشكلة قديمة، فبين عصري المطبعة إلى الإنترنت غالبًا ما سهّلت التقنيات الجديدة نشر الأكاذيب أو انتحال الشخصيات، وعادة يستخدم البشر بعض الأدوات لاكتشاف التلاعب.
على سبيل المثال يشير وجود عدد كبير جدا من الأخطاء الإملائية إلى أن البريد الإلكتروني قد يكون مزورا يهدف للاحتيال، وفي الآونة الأخيرة غالباً ما تعرضت الصور المولدة بالذكاء الاصطناعي للتلاعب من خلال أشكال الأيدي التي لا تبدو حقيقية مثلا، وقد يكون الفيديو والصوت المزيفان غير متزامنين في بعض الأحيان، لكن الخطير والمرعب الآن هو معرفة القدرة الفعلية على ما يستطيع الذكاء الاصطناعي فعله بالحقائق.
فالمنتجات المزيفة باتت أكثر صعوبة في اكتشافها سريعا، ولا بزال الذكاء الاصطناعي يتطور ويتحسن طوال الوقت، حيث أصبحت قوة الحوسبة وبيانات التدريب أكثر وفرة، والسؤال الذي طرحه تقرير الايكونوميست: هل بإمكان برنامج الكشف عن التزييف المدعوم بالذكاء الاصطناعي، والمدمج في متصفحات الويب، تحديد المحتوى الذي يتم إنشاؤه بواسطة الكمبيوتر؟ وذكر التقرير أن الإجابة هي: للأسف لا.
وقال التقرير إن سباق التسلح بين التوليد generation والكشف detection هو لصالح المزور، ففي نهاية المطاف من المحتمل أن تكون نماذج الذكاء الاصطناعي قادرة على إنتاج نسخ رقمية مزيفة ومثالية للوقائع المحتملة.
حتى أفضل نظام كشف لن يكون لديه أي فرصة للكشف عن الحقيقة.
وأشار تقرير الايكونوميست إلى النماذج التي تديرها الشركات الكبرى والتي يمكنها تضمين علامة مائية على محتواها، لكن هذا أيضا لن يؤثر على المحتالين الذين يستخدمون نماذج مفتوحة المصدر، والتي يمكن للمحتالين تعديلها وتشغيلها في المنزل على أجهزة الكمبيوتر المحمولة الخاصة بهم.
حرب على اليقين
وأشار التقرير إلى سيناريو مرعب لعالم ستكون فيه أي صورة شخصية لفرد ما قابلة للتحول إلى صورة إباحية من قبل شخص يستخدم نموذجا مفتوح المصدر، ثم يستخدم هذه الصور المفبركة للابتزاز، وهو تكتيك حذر منه مكتب التحقيقات الفيدرالي بالفعل.
وربما يتمكن أي شخص من إنتاج مقطع فيديو لرئيس أو رئيس وزراء يعلن عن توجيه ضربة نووية أولى، الأمر الذي يضع العالم على حافة الهاوية للحظات، كما سوف ينتشر المحتالون الذين ينتحلون صفة الأقارب.
ومع ذلك، فإن المجتمعات سوف تتكيف أيضا مع المزيفين، وسوف يتعلم الناس أن الصور أو الصوت أو الفيديو لشيء ما لا يثبت حدوثه، مثلما الإقرار الجماعي للمعلومات، لم يعد يثبت حدوث أمر ما.
ولن يمكن التحقق من المحتوى عبر الإنترنت بعد الآن، وبالتالي فإن من قام بنشر شيء ما سيصبح التعرف عليه بنفس أهمية ما تم نشره. بافتراض أن المصادر الجديرة بالثقة يمكنها الاستمرار في التعريف عن نفسها بشكل آمن، عبر عناوين URL وعناوين البريد الإلكتروني ومنصات الوسائط الاجتماعية. وستصبح السمعة والمصدر أكثر أهمية من أي وقت مضى.
قد يبدو الأمر غريبا، ولكن هذا كان صحيحا بالنسبة لمعظم التاريخ، إذ كان عصر المحتوى الموثوق به والذي تم إنتاجه بكميات كبيرة هو الاستثناء. وحقيقة أن الناس قد يجدون صعوبة قريبا في اكتشاف اليد الخفية للذكاء الاصطناعي لا تعني أن تبادل الأفكار محكوم عليها بالفشل، لكن بمرور الوقت ستصبح المنتجات المزيفة هي التي تنتشر في الغالب.