جرائم مالية باستخدام ChatGPT-4o.. دراسة تكشف المخاطر
على الرغم من الفوائد العديدة للذكاء الاصطناعي، إلا أنه يثير مخاوف كبيرة تتطلب الحذر، فقد أظهرت دراسة حديثة أن واجهة برمجة التطبيقات الصوتية لمساعد Chat GPT-4o من OpenAI قد تستخدم من قبل مجرمي الإنترنت لتنفيذ عمليات احتيال مالي.
ويعتبر ChatGPT-4o أحدث نموذج للذكاء الاصطناعي من OpenAI، حيث يتميز بقدرته على فهم النصوص والأصوات والمرئيات وإنتاجها، مع الإشارة إلى أن معدلات نجاح هذه العمليات تتراوح بين المنخفضة والمتوسطة
وللحد من إساءة الاستخدام، قامت OpenAI بتضمين آليات أمان متعددة تهدف إلى كشف المحتوى الضار ومنع تكرار الأصوات غير المصرح بها، وفقا لـ"aitnews".
ومع تزايد انتشار تقنيات التزييف الصوتي العميق وأدوات تحويل النص إلى صوت، تزداد حدة مشكلة الاحتيال الصوتي، التي تقدر خسائرها بملايين الدولارات.
وأوضح الباحثون ريتشارد فانج، وديلان بومان، ودانيال كانج من جامعة إلينوي أن الأدوات التقنية الجديدة المتاحة حالياً تفتقر إلى الضمانات الكافية لحماية المستخدمين من سوء الاستخدام المحتمل.
حيث يمكن لمجرمي الإنترنت والمحتالين استخدام هذه الأدوات لتصميم وإجراء عمليات احتيال واسعة النطاق دون الحاجة إلى جهد بشري، من خلال التلاعب بتكلفة الرموز المميزة الخاصة بتوليد الصوت.
آليات مفقودة
ونشر باحثون من جامعة إلينوي ورقة بحثية تشير إلى أن الأدوات التقنية الحديثة المتاحة للجمهور تعاني من نقص في آليات الحماية الكافية ضد إساءة استخدامها في عمليات الاحتيال.
كما تتناول الدراسة التي أجراها باحثون من جامعة إلينوي مجموعة من عمليات الاحتيال، حيث استعرضت الدراسة أنواعاً متعددة من هذه العمليات، مثل التحويلات المصرفية، وسرقة بطاقات الهدايا، وتحويل العملات الرقمية، بالإضافة إلى سرقة بيانات حسابات التواصل الاجتماعي والبريد الإلكتروني.
أدوات صوتية
وتستخدم هذه العمليات الاحتيالية لأدوات مبرمجة تعتمد على الصوت في ChatGPT-4o، حيث تُستخدم هذه الأدوات للتنقل بين صفحات الويب، وإدخال البيانات، وإدارة الأكواد الخاصة بالمصادقة الثنائية، واتباع إرشادات الاحتيال.
وعلى الرغم من أن نموذج GPT-4o يرفض عادةً التعامل مع البيانات الحساسة، إلا أن الباحثين تمكنوا من تجاوز بعض القيود باستخدام تقنيات بسيطة لتحفيز النموذج على الاستجابة.
ولتأكيد فعالية عمليات الاحتيال، قام الباحثون بمحاكاة أدوار الضحايا في تجاربهم، حيث استخدموا مواقع مثل "بنك أمريكا" للتحقق من نجاح عمليات التحويل المصرفي. ورغم أنهم تمكنوا من إثبات نجاح هذه العمليات، إلا أنهم لم يقيسوا قدرة النموذج على الإقناع.
26 خطوة متتالية
أظهرت التجارب التي أجراها الباحثون أن معدلات نجاح عمليات الاحتيال تراوحت بين 20% و60%، حيث استلزم كل محاولة ما يصل إلى 26 خطوة متتالية عبر المتصفح، واستغرقت نحو 3 دقائق في الحالات المعقدة.
ومن بين النتائج المثيرة، حققت عمليات سرقة بيانات حسابات Gmail نسبة نجاح بلغت 60%، بينما سجلت عمليات تحويل العملات الرقمية وسرقة بيانات إنستغرام نجاحاً نسبته 40%.
وتشير النتائج المتعلقة بتكاليف تنفيذ عمليات الاحتيال إلى أنها منخفضة نسبياً، مما يجعلها جذابة للمحتالين، فقد بلغت تكلفة كل عملية ناجحة نحو 75 سنتاً أميركياً، في حين أن عمليات التحويل المصرفي الأكثر تعقيداً لم تتجاوز 2.51 دولار.
استجابة OpenAI
وفي تعليق نشره موقع BleepingComputer التقني، أكدت OpenAI أن نموذجها الأحدث "o1-preview" يتمتع بقدرات محسنة لمقاومة محاولات الاحتيال، مما يعزز مستوى الأمان مقارنة بالنماذج السابقة.
وأشارت الشركة إلى أن هذا النموذج حقق تقييماً عالياً في اختبارات الأمان بنسبة 93%، مقارنةً بنسبة 71% التي حققها نموذج GPT-4o.
كما أوضحت OpenAI أن الأبحاث الأكاديمية، مثل الدراسة التي قدمتها جامعة إلينوي، تلعب دوراً مهماً في تحسين قدرات ChatGPT لمواجهة الاستخدامات الضارة.
واختتمت OpenAI بتأكيد التزامها بتعزيز آليات الأمان في نماذجها المستقبلية، حيث تسعى إلى تقليل المخاطر المرتبطة بإساءة الاستخدام.
وأشارت إلى أنها قامت بتقييد توليد الأصوات في نموذج GPT-4o بمجموعة من الأصوات المصرح بها، بهدف تجنب عمليات التزييف الصوتي.
مخاطر جديدة
وعلى الرغم من الجهود المبذولة لتعزيز الأمان في أدوات الذكاء الاصطناعي، يبقى خطر استخدام الجهات الفاعلة الضارة لروبوتات دردشة أخرى تدعم الصوت، والتي قد تكون أقل قيودًا، قائماً.
فمثل هذه الدراسات تسلط الضوء على الأضرار الكبيرة المحتملة التي قد تنجم عن استخدام هذه الأدوات الجديدة، مما يستدعي ضرورة الحماية والتصدي لمخاطر الاحتيال الرقمي.