‏آخر المستجداتلحظة تفكير

دة. فاطمة رومات*: من أجل استراتيجة وطنية للتعليم في عصر الذكاء الاصطناعي

ساهم الذكاء الاصطناعي في خلق فرص جديدة في مجالات الصحة والتعليم والنقل و الثروة ويرفع مستوى النمو الاقتصادي، ويمكن استخدامه لحل القضايا الاجتماعية الملحة مثل الحد من التلوث البيئي و ضمان الأمن الغذائي على سبيل المثال لا الحصر. لكن بقدر أهمية الآثار الايجابية للذكاء الاصطناعي في كل المجالات التي تصب في النهاية في إطار ضمان الحقوق الأساسية و الاجتماعية و الاقتصاديةللأفراد بقدر ما نلاحظ أنها تعمل على تعزيز دور الشركات المتعددة الجنسيات مقابل تراجع دور الحكومات لاسيما في مجال مثل التعليم الذي فتح باب الخوصصة فيه على مصراعيه. و الشركات هدفها ربحي محض في حين أن ضمان الحقوق، بما في ذلك الحق قي التعليم، هو مسؤولية الدول. و هنا يطرح تحد أساسي و هو ضرورة ضمان الحق في الانترنيت للجميع و الذي يعتبره ميثاق الحقوق و المبادئ على شبكة الانترنيت من الحقوق الأساسية التي أصبحت ترهن الحق في التعليم. لكن الأمر أصبح أكثر صعوبة و تعقيدا في عصر الذكاء الاصطناعي لان الأفراد (المعلمين و المتعلمين) الآن هم أمام خيارات تحددها الشركات لا الدول الملتزمة تجاه الأفراد بمقتضى العقد الاجتماعي. في هذا السياق، تندرج أهمية التوصية حول أخلاقيات الذكاء الاصطناعي الصادرة عن المؤتمر العام لليونسكو في دورته 41المنعقدة في شهر نوفمبر 2021 و التي تعتبر أول آلية معيارية دولية من شأنها أن تعزز العمل على وضع التشريعات و السياسات و الاستراتيجيات الوطنية الكفيلة بضمان التعليم للجميع في عصر الذكاء الاصطناعي.

فما أهم ما جاء في التوصية فيما يتعلق بالتعليم لضمان استفادة هذا القطاع بكل مستوياته من تكنولوجيا الذكاء الاصطناعي و مواجهة المخاطر التي يطرحها و ما هي التدابير و الإجراءات التي يتعين على الدول اتخاذها للتقليص من هذه المخاطر و ضمان التعليم للجميع ؟

سنحاول تناول هذا الموضوع من حلال نقطتين أساسيتين: الأولى تتعلق بالمخاطر التي حدرت منها التوصية حول أخلاقيات الذكاء الاصطناعي. و الثانية التدابير و الإجراءات التي تضمنتها هذه التوصية و التي يتعين على الدول اتخاذها لجعل الذكاء الاصطناعي في خدمة التعليم مع التقليص من مخاطره.

مخاطر الذكاء الاصطناعي على التعليم:

إن التعليم عن بعد الذي سرعت به الجائحة و الذي سيستمر في المستقبل أيضا يجعل المتعلم في مواجهة مباشرة مع مخاطر الذكاء الاصطناعي لأن معظم الوسائل التكنولوجية و المنصات التعليمية مزودة بأنظمة الذكاء الاصطناعي، و بالتالي تتجلى أبرز المخاطر في آثار التفاعل بين هذه الأنظمة من جهة و المتعلمين من جهة أخرى. و يزداد الأمر خطورة بالنسبة للأطفال الذين يمضون ساعات أمام هذه الأنظمة و يستخدمونها أثناء التعلم و اللعب مع ما لذلك من آثار على الصحة النفسية و الجسدية للطفل من إدمان و عزلة اجتماعية و غيرها من الآثار المتوقعة و غير المتوقعة لهذه التفاعلات بين المتعلمين و أنظمة الذكاء الاصطناعي. تتضمن التوصية العديد من التدابير و الاجراءات التي يتعين على الدول تطبيقها على مستوى التشريعات و السياسات العمومية و كلها تصب في إطار جعل الذكاء الاصطناعي في خدمة التعليم مع ضمان وصول جميع الأفراد لهذا الحق باعتماد مقاربة النوع الاجتماعي و المساواة بين الجنسين و عدم التمييز بين الأفراد و بمقاربة تشاركية مع كافة الفاعلين على المستوى الوطني و الدولي.

و قد حذرت التوصية حول أخلاقيات الذكاء الاصطناعي من احتمال استخدامه  للتلاعب بأوجه التحيز المعرفي الموجودة لدى البشر و استغلالها و لهذا ركزت على ضرورة تعزيز أمان أنظمة الذكاء الاصطناعي و تيسير استخدامها في مختلف الظروف. كما نصت على ضرورة ضمان حماية البيانات بما فيها تلك التي ينتجها الأطفال أثناء التعلم عن بعد و أثناء اللعب باستخدام اللعب الالكترونية. فالأنظمة الذكية المضمنة في المنصات التعليمية و في اللعب الالكترونية قادرة على خلف بروفايلات عديدة للطفل و التنبؤ بتوجهاته الفكرية و العقائدية في المستقبل انطلاقا من تحليل البيانات التي ينتجها الطفل أثناء التعلم أو اللعب أمام شاشة الكمبيوتر بما في ذلك القدرة على قراءة و تحليل تعابير الوجه.

في عصر الذكاء الاصطناعي يجد المتعلم نفسه أمام خطر الإغراق بالمعلومة و خطر المعلومات المزيفة لهذا يتعين عليه التأكد من صحة المعلومة و تقييمها باستخدام المنطق و البحث عن الأدلة و المقارنة للوصول إلى نتائج و هذه الأدوات و المقاربات المنهجية تساعد على خلق الحس النقدي لدى المتعلم. في هذا الإطار، نصت التوصية على ضرورة تعزيز آليات التعلم الذاتي لان عصر الذكاء الاصطناعي يتميز بأشكال جديدة للتعلم بعضها يكون ذاتيا أي بدون معلم و حتى إن توفر المعلم فيقتصر دوره على التوجيه و التأطير و المساعدة على استخدام المعلومات بدلا من نقل المعرفة. التربية على أخلاقيات الذكاء الاصطناعي تقتضي التربية على أخلاقيات البحث العلمي لأننا نلاحظ تنامي ظاهرة السرقة الأدبية في الدول العربية عامة و ببلادنا أيضا و هذه الظاهرة لها انعكاسات كبيرة على ضعف المحتوى الرقمي و الدعامات الرقمية التي يجب توفيرها لضمان التعليم عن بعد في ظل الخرق المتنامي للقوانين الخاصة بحقوق المؤلف و الناشر على حد سواء و عدم التربية على الأمانة العلمية. و تزيد أنظمة الذكاء الاصطناعي من حدة هذه القضايا لكونها تساعد على خلق المحتوى انطلاقا من نصوص موجودة في الفضاء الرقمي ليصبح استخدام هدا النوع من الأنظمة دون ذكر المصدر من الاستعمالات الخبيثة للذكاء الاصطناعي و التي يمكن ضبطها بأنظمة ذكية أخرى أضحت واسعة الانتشار في الغرب و تستخدم بشكل كبير من طرف دور النشر و المجلات العلمية المحكمة للتأكد من خلو الأبحاث العلمية من السرقة الأدبية. بالتالي يجب على وزارة التربية و الرياضة و وزارة التعليم العالي و البحث العلمي العمل على توفير الحماية القانونية و التقنية لضمان اغناء المنصات الرقمية للجامعات و الأكاديميات بالدعامات الرقمية.

خارطة طريق للتعليم في عصر الذكاء الاصطناعي:

يؤكد الخبراء في الذكاء الاصطناعي على أن اللعب هو وسيلة طبيعية للتعلم بحيث يمكن أن تكون الألعاب مكملة للتعلم الأكاديمي و تساهم في بناء شخصية الطفل ذلك أن لعبة “Pokemon Go” استقطبت 50 مليون مستعمل في 19 يوما فقط. إضافة إلى ظهور تقنيات جديدة أصبحت تحتل مكانة مهمة في البرامج التعليمية و الدورات التدريبية الموجهة لتعليم المعلمين أو لتقوية المهارات. و تكمن أهمية إدراج هذه التكنولوجيا في التعليم في كونها تسهل ضمان إشراك الجميع في تحقيق أهداف التنمية المستدامة و ذلك بتوجيه المتعلمين إلى هده الأهداف بالاعتماد على البيانات التي ينتجونها و أيضا على ما يسمى بالذكاء الاستباقي الذي يمكن الحكومات من الوصول إلى كل البيانات بما فيها تفاعلات البشر العاطفية عبر تقنية قراءة تعابير الوجه و التعرف عليه و التي تمكن الدول من ضمان الأمن و الاستقرار الداخلي بتوجيه الرأي العام أو التنبؤ بالاحتجاجات. في هذا السياق، نصت التوصية حول أخلاقيات الذكاء الاصطناعي على ضرورة احترام سيادة الدول على بياناتها. كما دعت الدول إلى ضرورة “إخضاع أنظمةالذكاء الاصطناعي المستخدمة في مجال التعلم لمتطلبات صارمة فيما يخص الرصد أو تقييم القدرات أو التنبؤ بسلوك المتعلمين و الحرص على عدم انتزاع معلومات حساسة، وذلك وفقاً للمعايير المتعلقة بحماية البيانات الشخصية. ويجب عدم إساءة استخدام البيانات التي تُقدَّم من أجل اكتساب المعارف وتُجمع خلال تفاعل المتعلمين مع نظام الذكاء الاصطناعي، وعدم الاستحواذ عليها بطريقة غير مشروعة، وعدم استغلالها لأغراض إجرامية وأغراض تجارية.” لهذا أرى بان الذكاء الاصطناعي ارتقى بقطاع التعليم من مجرد قطاع يسهر على ضمان الحق في التعليم لكل الأفراد إلى مجال سيادي يرهن سيادة الدولة (أتحدث بشكل عام و لا اقصد دولة بعينها) و يجب أن ينظر إليه على هذا الأساس أثناء تشكيل الحكومة وعلى مستوى قانون المالية و الميزانية المخصصة له.

و نذكر هنا بأهمية المبادرات الفردية لبعض الأساتذة و الأستاذات، داخل الجامعات المغربية (خاصة في كليات العلوم) ، الذين يعملون على توجيه الطلبة للبحث العلمي في موضوع الذكاء الاصطناعي و تأطير بحوثهم الجامعية في غياب تام لأي دعم مادي لهؤلاء الباحثين الشباب في سلك الدكتوراه الذين اختاروا خوض هذه المغامرة رغم صعوبة البحث في هذا المجال من منطلق حبهم للوطن في انتظار وضع إستراتيجية تعليم معتمدة على الذكاء الاصطناعي و خلق البنية التحتية التكنولوجية الضرورية باعتماد خارطة طريق واضحة كفيلة بجعل قطاع التعليم قطاع سيادي لأنه يرهن إلى حد كبير السيادة على البيانات و السيادة التكنولوجية و التي تمتد من الفصول الدراسية إلى حماية الحدود المادية الجغرافية مرورا بكل القطاعات السيادية الأخرى. في ما يلي أهم التدابير و الإجراءات التي يجب أن تتضمنها خارطة الطريق هذه :

أولا: إعادة النظر في ميثاق الاستثمار و الذي يجب أن يتضمن تحفيزات مالية و ضريبية لتشجيع الاستثمار الداخلي و الأجنبي في الذكاء الاصطناعي.

ثانيا: جعل الاستثمار في مجال الذكاء الاصطناعي أولوية في أي اتفاقية تعاون ثنائية أو متعددة الأطراف و ضرورة جعلها أولوية على مستوى مهام الدبلوماسية المغربية.

ثالثا: البحث عن مصادر تمويل البنية التحتية التكنولوجية و أيضا تخفيض الرسوم الجمركية على الأدوات التكنولوجية لضمان وصول الجميع للتعليم عبر الانترنيت.

رابعا: ضرورة توفير الدعم المالي للقطاعين العام و الخاص و البحث عن مصادر جديدة للتمويل بما في ذلك إعادة النظر في الضرائب.

خامسا : وضع إطار قانوني يضمن حقوق المؤلف الالكتروني و حماية الملكية الفكرية في ظل التحديات التي يطرحها الذكاء الاصطناعي أو على الأقل تعديل قانون حقوق المؤلف بما يتلاءم مع هذه التحديات.

سادسا: الاستثمار في الموارد البشرية و تحفيز الباحثين في مجال الذكاء الاصطناعي لوقف هجرة الأدمغة لاسيما مع الأشكال الجديدة للحروب التي تميز عصر الذكاء الاصطناعي و من بينها حرب الأدمغة و براءات الاختراع.

سابعا : إدراج تعلم المهارات المتعلقة بالذكاء الاصطناعي في كل السياسات العمومية و في كافة القطاعات الوزارية مع تبني مقاربة النوع الاجتماعي.

ثامنا: دمج تكنولوجيا الذكاء الاصطناعي في الفصول الدراسية كأداة للتعلم وكمادة لا تقتصر فقط على تخصصات العلوم و الهندسة و الرياضيات بل يجب أن تمتد إلى باقي العلوم الاجتماعية و القانونية و الاقتصادية و الإنسانية لدراسة و فهم و تحليل آثارها الحالية و المستقبلية على العلاقات داخل كل مجتمع و على المستوى الدولي. في هذا السياق، نصت التوصية على ضرورة إدراج التربية على أخلاقيات الذكاء الاصطناعي في البرامج التعليمية للتقليل من الاستخدامات الخبيثة لهذه التكنولوجيا.

تاسعا : التوعية و التحسيس بأهمية الذكاء الاصطناعي لتحقيق أهداف التنمية المستدامة و للحد من مخاطر الاستعمالات الخبيثة لهذه التكنولوجيا و إشراك الإعلام في هذه العملية و أحيي بهذه المناسبة المنصة الرقمية “E-Himaya” التي أطلقتها وزارة الانتقال الرقمي و إصلاح الإدارة بشراكة مع قطاعات وزارية أخرى و الخاصة بحماية الأطفال من مخاطر الانترنيت بتاريخ 7 دجنبر 2021 في انتظار خلق منصة موجهة للمواطن العادي لحمايته ليس فقط من مخاطر الانترنيت و لكن من مخاطر الذكاء الاصطناعي التي أصبحت تهدد الأمن النفسي الدولي.

.

*الدكتورة فاطمة رومات

أستاذة العلاقت الدولية بجامعة محمد الخامس، كلية العلوم القانونية و الاقتصادية و الاجتماعية أكدال– الرباط

رئيسة المعهد الدولي للبحث العلمي بمراكش

عضو مجموعة الخبراء الذين تم تعيينهم من طرف اليونسكو لانجاز التوصية حول أخلافيات الذكاء الاصطناعي

‏مقالات ذات صلة

Back to top button