اختيار ضحايا الحوادث إشكالية تواجه مصنعي السيارات ذاتية القيادة

ت + ت - الحجم الطبيعي

تثار الجوانب الأخلاقية للسيارات المتصلة بالإنترنت من مؤسسات أوروبية، فيما يركز الأسلوب الأميركي بالتعامل مع هذه القضية على التجربة، فقد أنشأ المختبر الإعلامي لمعهد ماساتشوستس للتكنولوجيا MIT Media Lab منصة تدعى الآلة الأخلاقية، تتيح للجمهور التعبير عن آرائهم حول القرارات التي يجب أن تتخذها المركبات ذاتية القيادة في سيناريوهات تستخدم نموذج «مشكلة العربة».

وهي تجربة فكرية في الأخلاق، عبارة عن موقف إشكالي افتراضي حيث تجد نفسك وأنت في عربة جامحة تنطلق نحو سكة حديد فيها خمسة أشخاص مقيدين وغير قادرين على الحركة، والعربة متجهة نحوهم مباشرة، وبجانبك مباشرة توجد ذراع، إذا رفعتها ستوجه العربة إلى مجموعة أخرى من خطوط السكة الحديد، إلا أنك تلاحظ وجود شخص واحد على السكة الجانبية.

وهنا أنت أمام خيارين، إما عدم القيام بأي شيء، وترك العربة لتقتل الأشخاص الخمسة على السكة الحديدية الرئيسية، أو أن تسحب الذراع وتحول مسار العربة إلى السكة الجانبية حيث تقتل شخصاً واحداً، والسؤال هما أيهما هو الخيار الأخلاقي، هذه المشكلة طرحت منذ 1905 وقد تكون ما زالت مرتبطة بالسيارات ذاتية القيادة، فكيف تبرمج واجهة الكمبيوتر لاختيار من يموت ومن لا يموت.

ويرى مختصون أن البرمجة الحالية تبقى متحفظة، فإذا طرأت حالة يتطلب الأمر فيها الاختيار، ستتوقف السيارة. وبما أن السيارات ستصبح متصلة بالسيارات الأخرى أو بالبنية التحتية، سيتم إرسال إشارة لوقف الإجراءات كافة لحين انحسار الموقف.

ولكن ذلك السيناريو النموذجي لا يصلح إلا إذا كانت البنية التحتية متصلة بالكامل، فالسيارات الأخرى ذاتية القيادة المتواجدة في المكان والمتصلة بالإنترنت والسيارات التي تعمل يدوياً بشكل تام ستعطل هذا الأسلوب. ويتوقع البعض أن يكون هناك استقواء من جانب السيارات العادية نحو السيارات ذاتية القيادة.

Email