سارة أوكونور
مع تزايد اعتمادنا على الأنظمة الآلية في اتخاذ القرارات يصبح التساؤل حول عدالتها أكثر أهمية وإلحاحاً، وحتى الآن ينصبّ التركيز في النقاشات العامة على قضية التحيز والتمييز، وهو أمر طبيعي، فغالباً ما يُنظر إلى هذه الأجهزة على أنها أقل تحيزاً من البشر، ما يبرر استخدامها في مجالات مثل التوظيف، لكن من الضروري الانتباه إلى الأدلة التي تشير إلى احتمالية تحيزها أيضاً. فكلمة «عادل» تحمل العديد من التفسيرات، و«عدم التحيز» ليس سوى واحد منها.
ومؤخراً وجدت نفسي في موقف تلقيت فيه قراراً آلياً جعلني أفكر فيما يعنيه حقاً أن تشعر بأنك عوملت بعدالة، ومدى صعوبة التمسك بهذه المبادئ في عالم يزداد اعتماداً على الأتمتة. إن لدي حساب بريد إلكتروني شخصي على «Gmail» أستخدمه في المراسلات الخاصة بمشروع كتاب أعمل عليه. وفي أحد صباحات شهر نوفمبر استيقظت لأجد أنني لم أعد قادرة على الوصول إليه.
لقد ظهرت لي رسالة من «جوجل» تفيد بأن حسابي قد تم تقييده عالمياً، لأنه «يبدو أن الحساب قد استُخدم لإرسال محتوى غير مرغوب فيه»، و«إرسال الرسائل غير المرغوب فيها يعد انتهاكاً لسياسات جوجل»، هذا ما جاء في الرسالة، التي أوضحت أن القرار اتخذ عن طريق «معالجة آلية»، وأنني إذا كنت أعتقد أنه خطأ فيمكنني تقديم طلب استئناف.
لم أكن أرسلت أي رسائل غير مرغوب فيها، ولم أتخيل السبب وراء اعتقاد خوارزمية «جوجل» أنني فعلت، وقد جعل ذلك من الصعب معرفة ما الذي يجب كتابته في مربع نص «الاستئناف»، بخلاف نسخة مرتبكة من شيء مثل، «لم أفعل ذلك (أياً كان ما هو)!» و«أرجوكم ساعدوني، أنا حقاً بحاجة إلى الوصول إلى بريدي الإلكتروني وملفاتي»، ولحسن حظي أدركت لاحقاً أنني لم أفقد الوصول إلى محرك التخزين السحابي الخاص بي.
بعد يومين تلقيت رداً: «بعد مراجعة طلب الاستئناف الخاص بك لا يزال الوصول إلى حسابك مقيداً لهذه الخدمة». لم يتم تزويدي بأي معلومات أخرى حول ما هو مفترض أنني فعلته أو سبب رفض الاستئناف، ولكن قيل لي «إذا كنت لا توافق على هذا القرار فيمكنك تقديم طلب استئناف آخر»، وقد حاولت مجدداً، وتم رفض استئنافي مرة أخرى.
فعلت ذلك بضع مرات أخرى، وكان فضولي في تلك المرحلة حول المدة، التي قد تستمر فيها هذه الحلقة المفرغة. وبنظرة سريعة على موقع «ريديت» ظهر لي أن آخرين قد مروا بتجارب مشابهة. وفي النهاية استسلمت. (رفضت «جوجل» التعليق على الأمر رسمياً).
من بين الجهات التنظيمية تعتبر إحدى الإجابات الشائعة عن سؤال كيفية جعل القرارات الآلية أكثر «عدلاً» هي التأكيد على أن الأشخاص يمكنهم طلب مراجعة بشرية لهذه القرارات، ولكن ما مدى فعالية هذا الحل؟ من ناحية البشر يميلون إلى «التراخي الآلي» - وهو ميل لثقة مفرطة في الآلة- في حالة فضيحة «مكتب البريد» في المملكة المتحدة، على سبيل المثال، حيث تم اتهام مديري الفرع بسرقة أموال، بسبب نظام حاسوبي معيب يُسمى «هورايزون»، خلص القاضي في عام 2019 إلى أن الأشخاص في مكتب البريد أظهروا «عناداً مؤسساتياً أو رفضاً للنظر في أي بدائل ممكنة لرؤيتهم تجاه هورايزون».
ويقول بن غرين، الخبير في عدالة الخوارزميات في جامعة ميشيغن، إن هناك أيضاً مشاكل عملية يمكن أن تحدث في بعض المؤسسات «في كثير من الأحيان يكون المشرفون البشريون مضغوطين بالوقت، ولديهم العديد من القضايا لمراجعتها». ويضيف: «الكثير من الحالات التي نظرت فيها هي حالات يكون القرار فيها مبنياً على نوع من التنبؤ الإحصائي»، لكن «البشر ليسوا جيدين جداً في إجراء هذه التنبؤات، فكيف سيكونون جيدين في تقييمها؟».
بعد أن هدأت موجة غضبي بشأن بريدي الإلكتروني وجدت أنني أشعر ببعض التعاطف مع «جوجل»، فمع وجود هذا العدد الكبير من العملاء يعد النظام الآلي هو الطريقة العملية الوحيدة للكشف عن انتهاكات سياساته.
وعلى الرغم من أن شعوراً بالظلم ظل قائماً لأنني اضطررت للتراجع عن حل مشكلتي دون معرفة ما الذي دفع النظام لاتخاذ هذا القرار، أو أي شرح عن الثغرات التي يجب تجنبها في الاستئناف، إلا أنني كنت أستطيع أن أرى أيضاً أنه كلما قدمت «جوجل» تفاصيل أكثر حول كيفية عمل النظام، أصبح من الأسهل على الأشخاص ذوي النيات السيئة التلاعب به، لكن هذه هي النقطة، ففي الأنظمة الآلية المتزايدة، غالباً ما يتصادم هدف العدالة الإجرائية- أن يشعر الناس بأن العملية كانت عادلة معهم- مع أهداف أخرى مثل الحاجة إلى الكفاءة أو الخصوصية أو الأمان.
لا توجد طريقة سهلة لجعل هذه التنازلات تختفي، أما بالنسبة لحساب بريدي الإلكتروني، فعندما قررت كتابة تجربتي في هذا العمود، أرسلت بريداً إلكترونياً إلى المكتب الإعلامي لـ«جوجل» مع التفاصيل لمعرفة إذا كان بإمكاني مناقشة المسألة. بنهاية اليوم استعدت الوصول إلى حساب بريدي الإلكتروني. كنت سعيدة بالطبع، لكنني لا أعتقد أن الكثير من الناس سيرون ذلك عادلاً.
