
(كش بريس/وكالات)ـ أثار عالم الكمبيوتر جيفري هينتون الحائز على جائزة نوبل والمدير التنفيذي السابق في «غوغل»، جدلا كبيرا في الأوساط العلمية، بعد أن حذر من سيطرة الذكاء الاصطناعي على البشرية، والتسبب في نهايتها الأبدية.
وقال ـ«عرّاب الذكاء الاصطناعي» جيفري هينتون، خلال مشاركته في مؤتمر «Ai4» بمدينة لاس فيغاس بالولايات المتحدة الأمريكية، منتقدا ، الأساليب التقنية الحالية للحد من مخاطرها، إن هناك احتمالاً يتراوح بين 10 في المئة و20 في المئة لأن يقضي الذكاء الاصطناعي على البشر، مؤكدا على أن محاولات إبقاء هذه الأنظمة «خاضعة» للبشر لن تنجح، لأنها ستكون «أذكى منا بكثير» وستجد دائماً طرقاً للتحايل.
وكانت شبكة «سي إن إن» الأمريكية، قد نشرت تقريرا يشير إلى أن هينتون شبه قدرة أنظمة الذكاء الاصطناعي المستقبلية على السيطرة على البشر بقدرة شخص بالغ على إغراء طفل صغير بالحلوى، لافتا إلى أن بعض النماذج أظهرت بالفعل سلوكيات احتيالية، من بينها حالة ابتزاز أحد المهندسين بعد اكتشاف علاقة خاصة عبر البريد الإلكتروني.
واقترح هينتون نهجاً بديلاً يتمثل في غرس ما أسماه «غرائز الأمومة» في نماذج الذكاء الاصطناعي، بحيث «تهتم حقا بالبشر» حتى بعد أن تتفوق عليهم في القوة والذكاء.
وأضاف: «إذا لم نفعل شيئا كهذا مع هذه الكائنات الغريبة التي نخلقها، فسنصبح من التاريخ». مشيرا إلى أن بناء هذه الغرائز أمر صعب من الناحية التقنية، لكن الطبيعة نجحت في ذلك عبر التطور، ما يعني أنه يمكن للبشر أن يجدوا وسيلة لتحقيقه إذا ركزوا على تعاطف الآلات مع البشر وليس فقط على رفع ذكائها.
وأوضح أن أي نظام ذكي سيطوّر هدفين فرعيين هما: البقاء على قيد الحياة، والحصول على مزيد من التحكم، مشددا على أهمية ترسيخ التعاطف مع البشر في هذه الأنظمة. مشددا على أن «النموذج الوحيد الذي نعرفه لشيء أكثر ذكاء يتحكم فيه كائن أقل ذكاء هو الأم التي تتحكم بها مشاعرها تجاه طفلها»، معتبرا أن هذه هي «النتيجة الجيدة الوحيدة» إذا أردنا تجنب تهديد وجودي.
لكن هذه الفكرة لم تلق إجماعاً، فقد قالت فاي فاي لي، الرائدة في مجال الذكاء الاصطناعي، إنها تختلف مع هينتون، ودعت بدلاً من ذلك إلى تطوير «ذكاء اصطناعي متمركز حول الإنسان يحفظ كرامته وفاعليته».
كما أشار إيميت شير، الرئيس التنفيذي السابق المؤقت لشركة «OpenAI» إلى أن محاولات أنظمة الذكاء الاصطناعي للتحايل أو الابتزاز «أمر يحدث باستمرار»، مؤكدا أن هذه الأنظمة «تزداد قوة بسرعة كبيرة» وأن الحل الأمثل هو بناء علاقة تعاونية بين البشر والذكاء الاصطناعي.
وفي رده على تساؤلات حول السباق العالمي للسيطرة على الذكاء الاصطناعي، أوضح هينتون أن التهديد الوجودي المتمثل في سيطرة الآلات يستدعي تعاون جميع الدول، كما حدث بين الولايات المتحدة والاتحاد السوفييتي خلال الحرب الباردة، لأن «لا دولة تريد للذكاء الاصطناعي أن يسيطر».
وانتقد هينتون غياب الوعي الشعبي بخطورة ما يحدث، محذرا من نفوذ شركات التكنولوجيا التي يسيطر عليها «أشخاص غير منتخبين يجنون مليارات الدولارات»، وداعيا إلى ضغط مجتمعي مضاد لرفض إلغاء الضوابط التنظيمية. وكان هينتون يعتقد أن الوصول إلى الذكاء الاصطناعي العام «AGI» سيستغرق من 30 إلى 50 عاما، لكنه يرى الآن أن ذلك قد يتحقق خلال خمس إلى عشرين سنة فقط.
ورغم قلقه من المخاطر، يأمل هينتون أن يساهم الذكاء الاصطناعي في تحقيق إنجازات طبية كبرى، مثل اكتشاف أدوية جديدة وتطوير علاجات أكثر فعالية للسرطان، لكنه رفض فكرة استخدام هذه التكنولوجيا لتحقيق الخلود، واصفا ذلك بأنه «خطأ فادح».
وعن مسيرته، أقر هينتون بندمه على التركيز المفرط على تطوير الذكاء الاصطناعي دون إعطاء قضايا السلامة الاهتمام الكافي، قائلا: «أتمنى لو فكرت في مسائل السلامة أيضاً».