مخاطر التحيز وغياب الشفافية

حتى أكثر أنواع الزجاج شفافية تشوه الرؤية.
في المقالة الأولى من هذه السلسلة، رأينا أن هناك معارضين لفتح الباب على مصراعيه أمام تطبيقات واستخدامات الذكاء الاصطناعي، ويقدم هؤلاء المعارضون العديد من الحجج التي تؤيد هذه التوجهات.

ومن هذه المخاوف ما يثيره منتقدو الذكاء الاصطناعي في التعليم بشأن الافتقار إلى الشفافية والتحيزات المحتملة المتأصلة في هذه التكنولوجيا، ما يبرر وفق وجهة النظر هذه التشكيك في موثوقية وحيادية التطبيقات التي تعمل بنظام الذكاء الاصطناعي، ولا سيما عندما يتعلق الأمر بمصادر هذه البيانات والمعلومات المستخدمة.

تنبع هذه المخاوف من حقيقة أن خوارزميات الذكاء الاصطناعي يتم تدريبها على مجموعات بيانات واسعة، وإذا كانت مجموعات البيانات هذه تحتوي على تحيزات، فإن الخوارزميات نفسها سترث هذه التحيزات وتعمل على استدامتها. ويمكن أن يؤدي ذلك إلى نتائج غير عادلة أو تمييزية، ولا سيما بالنسبة للفئات المهمشة أو الأقل حظاً.

على سبيل المثال، فإن تطبيقات الذكاء الاصطناعي قد لا تكون عادلة أو منصفة في تصحيح الأوراق الامتحانية، لأنها مدربة على أساليب أو نماذج معينة في الكتابة قد تختلف من مجموعة ديموغرافية إلى مجموعة ديموغرافية أخرى، وذلك بسبب أن هذه التطبيقات قد تفتقر إلى التنوع، ما يعني غياب العدل في تقييم درجات الطلاب على سبيل المثال، وهذا ما يجب الانتباه إليه في مجموعة البيانات المستخدمة لإنشاء هذه التطبيقات.

على المنوال نفسه، فإن الافتقار إلى الشفافية في أنظمة الذكاء الاصطناعي هو مصدر قلق مشروع، إذ إنه وفي كثير من الأحيان يكون من غير الواضح والمعلوم كيفية وصول هذه التطبيقات والتقنيات إلى الاستنتاجات والأجوبة التي تصل لها حتى لدى من قاموا بتصميم هذه التطبيقات والتقنيات، وذلك ما يؤثر في ثقة العاملين في مجال التعليم بهذه التطبيقات والنماذج.

وبالتالي، فإن توفير المعلومات الكافية والوافية عن طريقة عمل هذه التطبيقات مسألة ضرورية لكي تحظى تطبيقات الذكاء الاصطناعي التعليمية بثقة القائمين على أمور التعليم.

وفي حين أن الجهود جارية لتطوير أنظمة ذكاء اصطناعي أكثر شفافية وخضوعاً للمساءلة، لا يزال من الأهمية بمكان التعامل مع هذه التكنولوجيا بعين ناقدة ومميزة.

ويجب على المؤسسات التعليمية إعطاء الأولوية لاستخدام أنظمة الذكاء الاصطناعي التي خضعت لاختبارات صارمة للتخفيف من التحيزات المحتملة وتدارك الجوانب المتعلقة بالشفافية. وعلاوة على ذلك، فإن الرصد والتقييم المستمرين ضروريان لضمان استخدام أدوات الذكاء الاصطناعي الاستخدام العادل والمنصف في سياق وظائف التعليم.

في المقالة القادمة، سنتناول أحد المخاوف المتمثل في حلول نماذج الذكاء الاصطناعي محل البشر في أداء وظائف التعليم.