
(كش بريس/ التحرير)ـ في تقرير دولي مشترك صدر يوم 22 أكتوبر عن هيئة الإذاعة البريطانية (BBC) واتحاد الإذاعات الأوروبية (EBU)، برزت نتائج صادمة تهز ثقة العالم في المحتوى الإخباري الذي تنتجه أنظمة الذكاء الاصطناعي التوليدي. فقد كشف التقرير أن ما يقارب 45% من إجابات هذه الأنظمة تحتوي على أخطاء جسيمة أو تضليل صريح، فيما وصلت نسبة الردود المليئة بالخلل – صغيرًا كان أم كبيرًا – إلى 81%.
إنها أرقام لا تعكس فقط خللاً تقنيًا، بل أزمة معرفية وأخلاقية تهدد أسس المصداقية الإعلامية في العصر الرقمي.
يأتي هذا التقرير ليضع النقاش حول الذكاء الاصطناعي والمعلومة في سياقه الأخطر: فالمشكلة لم تعد في قدرة الآلة على إنتاج النصوص، بل في قدرتها على قول الحقيقة. فعندما تصبح أربعة من كل خمس إجابات غير دقيقة، فنحن أمام تحول خطير من “ذكاء توليدي” إلى “توليد منظم للخطأ”، حيث تتحول الخوارزميات من أدوات مساعدة إلى فاعلين يساهمون في تشكيل وعي زائف لدى الجمهور.
من الناحية التحليلية، تضع هذه النتائج الإعلام العالمي أمام مفارقة مزدوجة:
فمن جهة، تمثل أدوات الذكاء الاصطناعي قفزة نوعية في سرعة الوصول إلى المعلومة وإعادة إنتاجها.
ومن جهة أخرى، تفتح الباب أمام موجة غير مسبوقة من التضليل الممنهج وغير المقصود، بسبب غياب الرقابة الصارمة وضعف البنية الأخلاقية المرافقة لتصميم النماذج اللغوية.
لقد أشار التقرير إلى أن انتشار الأخطاء لا يمكن اعتباره مجرد عيب في البرمجة، بل هو خطر بنيوي يهدد المجال العام، إذ يؤدي إلى خلق ما سماه التقرير “واقعًا مزيفًا يتمدد بصمت”. هذا الواقع لا يصطدم بالمستخدم مباشرة، بل يتسلل إلى وعيه عبر واجهات موثوقة المظهر وسلسة الاستخدام، فيصدقها دون مساءلة. وهكذا يتحول المستخدم من متلقٍّ ناقد إلى متلقٍّ مطمئن زائف الثقة، الأمر الذي يعمّق الاستقطاب المعرفي والمجتمعي بدل أن يخففه.
في جوهره، يمثل هذا التقرير نداءً فلسفيًا وأخلاقيًا بقدر ما هو علمي وتقني. فمصداقية المعرفة – التي كانت أساس تقدم الحضارة الحديثة – تجد نفسها اليوم مهددة بأدوات أنتجها العقل البشري نفسه. إنها لحظة مواجهة بين الذكاء الصناعي والضمير الإنساني: من يتحكم في من؟ ومن يملك الحقيقة عندما يصبح “الناقل” أكثر تأثيرًا من “الخبير”؟
كما أن الدعوة إلى مساءلة الشركات التكنولوجية الكبرى ليست فقط مطلبًا تقنيًا لتحسين الدقة، بل هي مطالبة بإرساء مبدأ المساءلة الأخلاقية في الاقتصاد المعرفي العالمي. فإطلاق النماذج اللغوية دون ضمانات للموثوقية، خاصة في المجالات الحساسة كالأخبار، يعني تقويض الثقة في الإعلام وفي المؤسسات التي تمثل ركيزة الديمقراطية المعاصرة.
وبذلك، يصبح هذا التقرير وثيقة تحذيرية من تحول الذكاء الاصطناعي إلى سلطة جديدة بلا ضوابط، سلطة تنتج معرفة مشوّهة ولكنها مغرية الشكل، وتبني “عالمًا من المظاهر” يشبه الحقيقة ولا يطابقها.
ما كشفه هذا التقرير ليس فشلًا تقنيًا بقدر ما هو امتحان إنساني لقيم الحقيقة في زمن ما بعد الواقع (Post-truth). فالمسألة لم تعد في حدود الصواب والخطأ، بل في إعادة تعريف الموثوقية في عالمٍ تكتب فيه الخوارزميات الأخبار وتعيد صياغة الإدراك العام. إننا أمام لحظة فارقة تتطلب إعادة تأسيس أخلاقيات جديدة للذكاء الاصطناعي، تجعل من الشفافية والمسؤولية شرطين أساسيين لأي تقدم رقمي ذي معنى.