سارة أوكونور
كلما زادت المخاطر في البيئة التي تُنشر فيها أنظمة الذكاء الاصطناعي القوية، ازدادت حاجتنا إلى حل بديهي: أن يكون البشر هم من يتخذون القرارات النهائية دائماً.
في سياق الحرب، وكما هو واضح من الخلاف الأخير بين شركة «أنثروبيك» والحكومة الأمريكية، فقد ركز النقاش العام والتنظيمي على التمييز الثنائي الظاهري بين الأسلحة ذاتية التشغيل بالكامل، وتلك الخاضعة «للسيطرة البشرية». وفي عالم الشركات أيضاً، دفع نشر الأنظمة شبه المستقلة، الشركات إلى الاعتماد على البشر ذوي الخبرة، كصناع القرار النهائيين.
كذلك، فقد أفادت التقارير بأن أمازون تشدد على أن مهندسي البرمجيات المبتدئين والمتوسطين يحتاجون إلى موافقة مهندسين أكثر خبرة على التغييرات التي تتم بمساعدة الذكاء الاصطناعي. لكن هل يؤدي هذا الحل بالضرورة إلى الجمع بين أفضل ما في العالمين، حيث تعزز الآلات السرعة والدقة والإنتاجية، بينما يوفر البشر الخبرة والسياق والحكم والمساءلة؟
إننا نفكر منذ زمن طويل في أفضل السبل للجمع بين الآلات والبشر. ففي عام 1951، وضع عالم النفس بول فيتس قائمةً بالأمور التي «يُجيدها البشر»، وتلك التي «تُجيدها الآلات». لكن للأسف، يبدو أننا لم نتعلم الكثير من أخطائنا الكثيرة على مرّ السنين.
تكمن المشكلة الأبرز في أن الذكاء الاصطناعي يعمل بسرعة تفوق سرعة البشر. ففي ساحة المعركة، على سبيل المثال، حتى الأنظمة التي تترك القرارات النهائية للبشر، قادرة على معالجة كميات هائلة من البيانات، ما يزيد بشكل كبير من عدد الأهداف المحتملة. ولكن عندما يتم اختصار ما يعرف بـ «سلاسل القتل» من ساعات إلى دقائق أو حتى ثوانٍ، يثور السؤال المهم حول مدى قدرة البشر على التحكم في الوقت الفعلي.
وفي عالم العمل المكتبي، الذي لا ينطوي على مخاطر كبيرة، بدأنا نلاحظ ظاهرة مماثلة، حيث تُسرّع أنظمة الذكاء الاصطناعي بشكل كبير، وتيرة وحجم العمل الذي لا يزال يتطلب توجيهاً ومراجعةً من البشر. وقد وجدت دراسة استمرت ثمانية أشهر حول استخدام الذكاء الاصطناعي التوليدي في شركة تقنية أمريكية، أن الزيادة الكبيرة في الإنتاجية ترافقت مع «إرهاق ذهني، واحتراق وظيفي، وضعف في اتخاذ القرارات».
المشكلة الثانية هي أن العديد من البشر يميلون إلى الثقة بالآلات، حتى رغم تلقيهم تحذيرات بعدم فعل ذلك. وقد وُثِّقت ظاهرة «الانحياز للأتمتة» مراراً وتكراراً في مختلف السياقات على مر السنين، بدءاً من سائقين تقودهم أنظمة تحديد المواقع العالمية (GPS) إلى الأنهار، وصولاً إلى طلاب يتبعون الروبوتات بعيداً عن مخارج الطوارئ في حالات المحاكاة على الطوارئ. وأتذكر هنا ثانية، التجربة التي أُجريت في شركة فولفو للسيارات، حيث سمح ما يقرب من 30 % من الأشخاص لسيارة شبه ذاتية القيادة بالاصطدام مباشرةً بجسم ما في الطريق.
وفي الشهر الماضي، صاغ أكاديميان من كلية وارتون للأعمال مصطلح «الاستسلام المعرفي»، لوصف الظاهرة التي يتخلى فيها الشخص ببساطة عن «التحكم المعرفي، ويتبنى حكم الذكاء الاصطناعي كحكمه».
وهنا تبرز مشكلة ثالثة، تتمثل في أن المسؤولية تصبح غير واضحة. إذ من سيكون المسؤول عندما يحدث خطأ ما؟ قد نميل إلى إلقاء اللوم على الإنسان الذي اتخذ القرار النهائي، ولكن إذا كان يعمل ضمن نظام لم يُصمم للتخفيف من حدة المشكلتين السابقتين، فقد لا يكون ذلك منصفاً، ولن يُفضي الأمر في النهاية إلى حلول هيكلية مناسبة.
بدلاً من ذلك، قد يجد البشر أنفسهم في ما أسمته الأكاديمية مادلين كلير إيليش «منطقة الانهيار الأخلاقي». فقد كتبت في ورقة بحثية عام 2019: «مثلما يتم تصميم منطقة الانهيار في السيارة لامتصاص قوة الصدمة في حالة الاصطدام، فإن الإنسان في نظام شديد التعقيد والأتمتة، قد يصبح مجرد عنصر يتم تحميله وطأة المسؤوليات الأخلاقية والقانونية عندما يتعطل النظام ككل».
الجيد أن هذه المشاكل ليست مستعصية. وفي الواقع، لقد تعلمنا الكثير بالفعل حول كيفية التخفيف من حدتها في بعض المهن. فعلى سبيل المثال، يتفاعل طيارو الخطوط الجوية مع تكنولوجيا الأتمتة منذ عقود. وشهد هذه المسار بعض الكوارث، لكنه قدم أيضاً دروساً قيّمة، منها، على سبيل المثال، أهمية تدريب الطيارين على كيفية عمل أنظمة التشغيل الآلي المختلفة (وكيف يمكن أن تتعطل)، فضلاً عن تشجيعهم على الطيران اليدوي، كلما سنحت لهم الفرصة لصقل مهاراتهم.
ثمة جاذبية فطرية لفكرة أن يكون للإنسان الكلمة الفصل في هذه التقنيات الجديدة فائقة القوة. لكن تاريخ التفاعل بين الإنسان والآلة يُظهر لنا أن تحقيق ذلك ليس بالأمر الهين. بل إن وهم السيطرة البشرية قد يكون أشد خطورة من غيابها التام.
