"خطر على البشرية".. الأب الروحي للذكاء الاصطناعي يندم ويستقيل من غوغل
يشعر جيفري هينتون عالم الحواسيب الذي وصف بأنه "الأب الروح الروحي للذكاء الاصطناعي"، بالندم، الأمر الذي دفعه للاستقالة من غوغل والتحذير من مستقبل مرعب.
وهينتون هو مبتكر الأساس التقني لمنظومة الذكاء الاصطناعي، التي أصبحت فيما بعد أساسا لمشاريع مستقبلية كثيرة تضخ فيها شركات التكنولوجيا العملاقة استثمارات ضخمة.
وحسب "دويتشه فيله"، مثلت استقالة هينتون صدمة في الأوساط التقنية، خاصة بعد تحذيرات أطلقها العالم الذي يحظى باحترام العالم من الخطر الذي تمثله تقنيات الذكاء الاصطناعي على البشرية.
- "غوغل" ترحم مستخدميها من تعقيدات "كلمة المرور".. أهلا بتقنية "المفاتيح"
- فيسبوك تحظر الترويج للسيارات المستعملة.. صدمة للتجار والمستهلكين
وبهذه الاستقالة، ينضم هينتون إلى مجموعة متزايدة من المنتقدين، الذين يقولون إن شركات التقنية العالمية تتسابق نحو خطر محدق بتطويرها منتجات تعتمد على الذكاء الاصطناعي التوليدي، وهي التكنولوجيا التي تدعم برامج الدردشة الشهيرة مثل Chat GPT.
تقنية مخيفة
وقال هينتون الذي عمل لأكثر من 10 سنوات في غوغل إن بعض مخاطر برامج الدردشة الآلية باتت "مخيفة للغاية"، وأضاف: "في الوقت الحالي، هم ليسوا أكثر ذكاء منا، لكنني أعتقد أنهم قد يفوقوننا ذكاء قريبًا".
وأضاف أنه يحمل بداخله ندماً شديداً على المشاركة في أبحاث تطوير الذكاء الاصطناعي.
ورغم أهمية التقنية في مجالات حيوية كأبحاث الأدوية والتعليم، يرى مراقبون أن هناك مخاوف متعاظمة من إطلاق "شيء خطير" قد يصعب السيطرة عليه لاحقاً.
ويخشى خبراء التقنية من أن نموذج الذكاء الاصطناعي التوليدي "GPT" يمكن أن يكون بالفعل مصدراً للتضليل ونشر المعلومات غير الصحيحة كما يمكن أن يشكل خطرًا على الوظائف.
ويذهب أكثر القلقين في مجال التكنولوجيا إلى أنه قد يشكل خطرًا على البشرية نفسها.
سيناريوهات كابوسية
وقال هينتون إن وجود مثل هذه التقنية الآخذة في التطور بسرعة في أيدي الجهات السيئة "سيكون نوعاً من أسوأ السيناريوهات، نوع من السيناريوهات الكابوسية".
وتابع: "يمكنك أن تتخيل ما سيكون عليه الأمر، على سبيل المثال، إن قام بعض الفاعلين السيئين باتخاذ قرار بمنح الروبوتات القدرة على إنشاء أهداف فرعية خاصة بها".
وأعرب عن خوفه من تمكن الذكاء الاصطناعي من إنشاء برمجيات كومبيوتر يمكنها أن تقوم من خلالها بتشغيل برامج أخرى بنفسها ليأتي يوم تصبح فيه تلك الروبوتات قاتلة وتمتلك سلاحاً يمكنها تشغيله دون إذن البشر.