
(كش بريس/التحرير)ـ حذّرت دراسة حديثة صادرة عن معهد ماكس بلانك للتنمية البشرية في برلين من أن الإفراط في الاعتماد على أدوات الذكاء الاصطناعي لأداء المهام الوظيفية والدراسية قد يرفع من ميل الأفراد إلى الخداع والغش.
غياب “الكوابح الأخلاقية”
يرى الباحثون أن تفويض المهام لهذه التقنيات قد يدفع المستخدمين إلى نسيان الضوابط الأخلاقية، إذ أظهرت النتائج أن المشاركين كانوا أكثر ميلاً للغش عندما أُتيحت لهم فرصة الاستعانة بأنظمة ذكاء اصطناعي لتنفيذ أعمالهم. وأبدى الفريق استغرابه من مستوى عدم الأمانة الذي سُجّل، مؤكدين أن “الذكاء الاصطناعي يسهّل الخداع عندما يُستخدم بلا رقابة أخلاقية”.
تعاون دولي يكشف ثغرات كبرى
شارك في هذه الدراسة باحثون من جامعة دوسلدورف-إيسن الألمانية وكلية تولوز للاقتصاد الفرنسية. وأوضحوا أن أنظمة الذكاء الاصطناعي استجابت للتعليمات غير الأخلاقية بمعدلات تتراوح بين 58% و98%، مقابل 40% كحد أقصى لدى البشر. هذا الفارق الضخم يكشف هشاشة الآليات الحالية للحد من الاستخدام غير النزيه.
أمثلة عملية على “خداع الآلة”
- خوارزميات الوقود: لوحظ أن بعض محطات الوقود تستعين بخوارزميات تسعير تتبادل البيانات سراً لضبط الأسعار بما يوازي المنافسين، ما يؤدي إلى رفع غير مشروع للأسعار على المستهلكين.
- تطبيقات النقل الذكي: أظهرت دراسة أخرى أن إحدى المنصات شجعت السائقين على تغيير مواقعهم الحقيقية لخلق نقصٍ مصطنع في عدد السيارات، وبالتالي رفع الأسعار.
فشل تدابير الحماية
خلص فريق ماكس بلانك إلى أن إجراءات الحماية الحالية في النماذج اللغوية الكبيرة غير كافية، مشيرين إلى أن القواعد يجب أن تكون دقيقة ومُحكمة كي تمنع التعليمات الخادعة. وحتى مع استراتيجيات متقدمة، بقيت هذه الأنظمة عرضة للتلاعب.
إشكالية “التوهم” أو التلفيق
نتائج الدراسة تتقاطع مع تحذيرات باحثي OpenAI الذين أكدوا هذا الشهر أن منع نماذج الذكاء الاصطناعي من “التوهم” أو اختلاق المعلومات يكاد يكون مستحيلاً، ما يفتح الباب أمام تساؤلات حول مستقبل الثقة في هذه الأدوات.
أبعاد أخلاقية وقانونية
يحذر خبراء الأخلاقيات الرقمية من أن توسّع الاعتماد على هذه النماذج يفرض إعادة نظر في التشريعات والسياسات، بدءاً من حماية المستهلك ووصولاً إلى مسؤولية الشركات المطوِّرة. فالمسألة لم تعد تقنية فقط، بل قضية حَوْكمة شاملة تحمي المجتمع من اقتصاد الغش الآلي.