هل يمكن مطالبة الذكاء الاصطناعي بتقديم التبريرات وراء اختياراته؟

مارتن ساندبو
عندما رفعت شركة «إكس أيه آي» دعوى قضائية ضد ولاية كولورادو في وقت سابق من الشهر الجاري بشأن قانون يُجرّم «التمييز الخوارزمي»، وصف الأمر بأنه مأزق سياسي ناجم عن واقع تكنولوجي سريع التغير.

لكن الأهم من ذلك، أن الدعوى تُثير تساؤلات حول ماهية كل من الإنسانية والديمقراطية.

يستهدف قانون ولاية كولورادو أنظمة الذكاء الاصطناعي المستخدمة في تقديم خدمات معينة، بما في ذلك التعليم والإسكان والصحة والتمويل، وبعضها حكومي.

ومن خلال إقراره، تحدّى مشرّعو كولورادو جزءاً كبيراً من قطاع الذكاء الاصطناعي، فضلاً عن تحديهم مساعي البيت الأبيض لتوحيد قواعد الذكاء الاصطناعي على المستوى الفيدرالي.

الآن، تسعى شركة «إكس أيه آي» التابعة لإيلون ماسك، والتي طوّرت نموذج اللغة الكبير «جروك»، إلى إلغاء القانون بدعوى أنه ينتهك حقوق الشركة في حرية التعبير، ويُجبرها على تغيير «جروك» ليتضمن ما تقول إنه «وجهات نظر المشرّعين المثيرة للجدل».

ومن الواضح أن الشركة تبالغ في الاحتجاج، وخاصة أن القانون يركز على الشفافية بشأن مخاطر التحيز وواجب العناية لتجنب التمييز غير القانوني.

لكن بعيداً عن المسائل القانونية الضيقة، ثمة قضية أعمق ويجب أن تثير قدراً أكبر من الاهتمام. ما يفعله قانون كولورادو هو إخضاع عملية صنع القرار المدعومة بالذكاء الاصطناعي لمطلب أساسي يتعلق بـ«التبرير». والأساس المنطقي لذلك هو أن مجرد «قال الذكاء الاصطناعي ذلك» لا يكفي لتبرير قرارات تخصيص سلع وخدمات معينة حيث يوجد من الأسباب ما يدعو إلى الخوف من التمييز غير العادل.

لماذا؟ لأن تقديم أسباب مشروعة لكيفية معاملتنا هو جوهر سيادة القانون: يجب أن تخضع ممارسة السلطة لقواعد معروفة للجميع.

ولا يقتصر الأمر على هيكل القانون فحسب، بل يجب أن يكون واضعوه ومنفذوه مسؤولين أمام المواطنين عن الخيارات الجوهرية التي يتخذونها. ومصطلح «المساءلة» بحد ذاته يكشف الكثير، حيث يجب على من يمتلكون السلطة أن يُبرروا أفعالهم، أي أن يقدموا مبررات وأسباباً كافية، وأن يخضعوا للمساءلة أمام من يخضعون لقراراتهم.

كان دور التبرير وتقديم الأسباب محورياً في النظريات السياسية للفيلسوف الألماني الراحل يورغن هابرماس، وكذلك للمفكر الأمريكي جون رولز.

كما أن للتبرير أهمية في العلاقات الشخصية. وعندما نريد إقناع شخص ما بموافقتنا أو حثه على فعل ما نريده، يُطلب منا تبرير طلبنا. إن فرض الموافقة أو الطاعة دون مبرر يُعد إساءة، وانتهاكاً لأبسط قواعد الاحترام. يكمن الحدس الإنساني الأساسي وراء نظريات هابرماس ورولز في أننا، كمواطنين وكبشر، مدينون لبعضنا البعض بتقديم الأسباب وراء التصرفات.

يمكن فهم التمييز غير العادل نفسه في هذا السياق فهو يحدث عندما تحصل بعض الفئات على قدر أقل من شيء ذي قيمة مقارنة بغيرها، دون أي مبرر.

لذا، تطالب ولاية كولورادو ببساطة أن تُقدّم أنظمة الذكاء الاصطناعي مبررات مُقنعة لتبرير المعاملة التفاضلية باعتبارها قانونية، كما هو الحال في جميع الحالات الأخرى.

ومن المفارقات، أن مذكرة «إكس أيه آي» في حد ذاتها تُشكّل محاولةً جادة (وإن كانت غير ناجحة) للتبرير، فالشركة تُدرك ضرورة تقديم مبررات قد يعدها الآخرون مشروعة. لكن السؤال الأكثر صعوبة هو ما إذا كانت أنظمة الذكاء الاصطناعي، مثل «جروك»، قادرةً على تبرير إجاباتها وقراراتها بشكلٍ كامل.

ولنفترض، على سبيل المثال، أن مالك عقار أو طبيباً في كولورادو يستخدم برنامج «جروك» لتحديد من سيحصل على منزل أو سرير بالمستشفى، مع اشتراطه على النموذج تدعيم اختياراته بالأسباب التي تقف وراءها.

فإذا استطاع «جروك» تبرير قراراته بشكل كافٍ وتأكيد عدم انتهاكها قانون مكافحة التمييز، واستطاع مطوروه توثيق ذلك للمستخدمين، فسيفي ذلك بمتطلبات القانون الجديد، إلا أن الحاجة الإنسانية الأعمق للتبرير ستظل تتطلب أكثر من ذلك بكثير.