علموا الروبوتات ألا تقلد السلوك البشري الخاطئ

  • الصورة :
  • الصورة :
صورة
ت + ت - الحجم الطبيعي

قبل بضعة أشهر في سان فرانسيسكو، وجدت نفسي أقود سيارتي خلف مركبة ذاتية القيادة. كان الأمر مثيراً للتوتر، ليس لأن السيارة ذاتية القيادة كانت تسير بشكل سيئ أو خطير؛ بل العكس، حيث كانت القيادة أكثر من ممتازة. ما رصدته على وجه التحديد هو التزام السائق الروبوتي بالتوقف عند كل إشارة تقتضي ذلك، واستخدام المكابح عند الإشارات الضوئية الصفراء، والحفاظ على السرعة دون الحد الأقصى الرسمي. لقد أجبرني ذلك على فعل الشيء نفسه، الأمر الذي أثار غضبي إلى حد ما لأنني (مثل معظم السائقين البشر) اعتدت تجاوز قواعد المرور قليلاً في بعض الأحيان.

هذه حكاية طريفة قليلاً، لكنها تسلط الضوء على سؤال وجودي في انتظار الرد عليه خلال القمة التي تعقدها حكومة المملكة المتحدة حول الذكاء الاصطناعي هذا الأسبوع، ألا وهو: بينما نتسابق لبناء أنظمة متقدمة في «لعبة المحاكاة»، ما السلوكيات البشرية التي يجب على الروبوتات تقليدها؟ هل ينبغي أن تكون رؤيتنا المثالية للسلوك، على سبيل المثال، عالم نلتزم فيه جميعاً بقواعد المرور؟ أم هي أرض البشر «الحقيقيين»، حيث يتسلل السائقون رغم علامات التوقف؟ والأهم من ذلك، من الذي يجب أن يقرر؟

إن هذه القضية مهمة في كل مجال يتم فيه تطبيق الذكاء الاصطناعي التوليدي، سواء أكان التمويل أم الإعلام أم الطب أم العلوم. لكن قصة المركبات ذاتية القيادة تبلور القضية بشكل واضح، حيث إن شركات مثل وايمو وجنرال موتورز وتسلا التي تدير بالفعل أساطيل في أماكن مثل أريزونا وكاليفورنيا تتبع بمهارة أساليب مختلفة.

لنأخذ مثلاً وايمو، الشركة المملوكة لمجموعة ألفابيت، حيث كانت مركباتها تتجول في مدينة فينيكس بولاية أريزونا لمدة عامين تقريباً باستخدام نظام للذكاء الاصطناعي تم تطويره تقريباً بالاستناد إلى مبادئ محددة مسبقاً، مثل قواعد الإدارة الوطنية لسلامة المرور على الطرق السريعة. وتقول الشركة إنه على عكس البشر، تم تصميم سائق مركبات وايمو يتبع حدود السرعة المطبقة، مستشهدة بأبحاثها الأخيرة التي أظهرت أن السائقين من البشر يخالفون قواعد السرعة في سان فرانسيسكو وفينيكس في 50% من الأحيان.

كذلك، يتم تدريب المركبات على التوقف عند الأضواء الحمراء، وهي نقطة تسعد الإدارة الوطنية لسلامة المرور على الطرق السريعة والتي كشفت أخيراً أن ما يقرب من 4.4 ملايين أمريكي من السائقين البشر تجاوزوا الأضواء الحمراء في عام 2022، وقتل أكثر من 11 ألف شخص بين عامي 2008 و2021 بسبب قيام هؤلاء السائقين بتجاوز الأضواء الحمراء. ومن غير المستغرب أن يجعل هذا سيارات وايمو أكثر أماناً من البشر (ولا شك أن هذا الرقم منخفض للغاية، خصوصاً وأن 42 ألف شخص لقوا حتفهم في حوادث سيارات في الولايات المتحدة العام الماضي). ولكن الأمر المثير للاهتمام حقاً هو أن مسؤولي وايمو يعتقدون أن وجود مركبات ذاتية القيادة تتبع القواعد في فينيكس يشجع السائقين البشر على اتباع القواعد أيضاً، إما لأنهم عالقون خلف مركبة ذاتية القيادة أو لشعورهم بالخجل من وجود روبوت يذكرهم عن غير قصد بقواعد المرور.

بالفعل، فإن ضغط الأقران فعال، حتى مع الروبوتات، ورغم أن هناك القليل من الأبحاث حول ذلك، حتى الآن، لكنه يعكس تجربتي الخاصة في سان فرانسيسكو. وتظهر دراسة (محدودة) أجراها معهد ماساتشوستس للتكنولوجيا أن وجود المركبات ذاتية القيادة على الطريق يمكن أن يؤدي إلى تحسين سلوك جميع السائقين.

مرحا! مرحا! لكن شركة تيسلا التي يملكها إيلون ماسك اتخذت مساراً مختلفاً. فكما تشير السيرة الذاتية التي كتبها والتر إيزاكسون عن ماسك، حاول ماسك في البداية تطوير الذكاء الاصطناعي بقواعد محددة مسبقاً، إلا أنه تبنى بعد ذلك أشكالاً أحدث من الذكاء الاصطناعي التوليدي أو الإحصائي (وهو النهج المستخدم في تشات جي بي تي). ويعمل هذا النوع على «تدريب» أنظمة الذكاء الاصطناعي على كيفية القيادة ليس باستخدام تعليمات برمجية محددة مسبقاً ولكن من خلال مراقبة السائقين الحقيقيين من البشر؛ وفيما يبدو فقد تم استخدام 10 ملايين مقطع فيديو من سيارات تسلا الموجودة على الطرق.

وقد ذكر دافال شروف، أحد مسؤولي شركة تسلا، في حديثه مع الكاتب إيزاكسون، إن مقاطع الفيديو الوحيدة المستخدمة في هذا التدريب كانت «للبشر عندما تعاملوا مع الموقف بشكل جيد». وهذا يعني أنه طلب من موظفي شركة تسلا تصنيف تلك المقاطع التي يبلغ عددها 10 ملايين مقطع وتقديم أمثلة قيادة «جيدة» لتدريب الروبوتات، فقط على السلوك الجيد، وليس السيئ. وربما يكون هذا صحيحاً، لكن هناك تقارير تشير إلى أن سيارات تسلا ذاتية القيادة تحاكي البشر بدرجة كبيرة للغاية، حتى أنها تسلل، على سبيل المثال، متجاوزة إشارات التوقف أو إشارات المرور الضوئية.

في الواقع، عندما قام إيلون ماسك ببث مباشر لرحلة قام بها في أغسطس الماضي بمركبة ذاتية القيادة، كان عليه أن يتدخل يدوياً لمنعها من تجاوز الإشارة الحمراء، وهو أمر تقوم الإدارة الوطنية لسلامة المرور على الطرق السريعة بالتحقيق حوله. بالطبع، قد يرد ماسك قائلاً إن جميع السائقين يحتاجون أحياناً إلى خرق القواعد في ظروف استثنائية للحفاظ على سلامتهم. وقد يرد أيضاً إنه من الطبيعي أن تتبع الشركات أساليب مختلفة في التعامل مع الذكاء الاصطناعي، ثم تترك للعملاء حرية الاختيار؛ وتلك هي حال المنافسة بين الشركات عادة.

ومع ذلك، تشعر بعض الجهات التنظيمية بالقلق، فرغم أن شركة كروز التابعة لجنرال موتورز قد أصدرت بيانات في وقت سابق من هذا العام تظهر أن سجل السلامة الإجمالي جيد، فإن إدارة المركبات الآلية في كاليفورنيا طالبت الشركة هذا الأسبوع بالتوقف عن تشغيل المركبات ذاتية القيادة بعد وقوع حادث. وتكمن المشكلة في أنه بينما يمكن للجهات التنظيمية نظرياً فحص المركبات التي تستخدم قواعد محددة مسبقاً (إذا كان هناك إمكانية لغير العاملين بالشركات للوصول إلى الشفرات البرمجية)، فمن الصعب مراقبة الذكاء الاصطناعي التوليدي، نظراً لأن عواقب محاكاة السلوك البشري «الحقيقي» لا يمكن التنبؤ بها - حتى بالنسبة لمبدعيها.

وفي كلتا الحالتين، فإن المسألة الأساسية التي يحتاج المستثمرون إلى فهمها هي أن المتغيرات المختلفة المتعلقة بهذه المشكلة سوف تطال قريباً مجالات مثل التمويل أيضاً، حسبما قال جاري جينسلر، رئيس هيئة الأوراق المالية والبورصات، لصحيفة «فاينانشيال تايمز» أخيراً.

فهل ينبغي برمجة اللاعبين المدعومين بالذكاء الاصطناعي في الأسواق المالية بقواعد محددة مسبقاً من أعلى إلى أسفل؟ أو أن نتعلم من خلال محاكاة سلوك البشر الذين قد «يلجأون إلى المراجحة» أي (تحوير) القواعد من أجل الربح؟ من الذي يقرر؟ ومن يتحمل المسؤولية إذا حدث خطأ؟ لا توجد إجابات سهلة. ولكن كلما ترسخ وجود الذكاء الاصطناعي، أصبح التحدي أصعب، كما يدرك المشاركون بقمة الأسبوع الجاري. ربما ينبغي عليهم البدء بالتفكير في إشارة المرور.

كلمات دالة:
  • FT
Email