أصدر مجموعة من كبار علماء الذكاء الاصطناعي الغربيين والصينيين تحذيراً صارماً، مفاده أن مواجهة الأخطار المحيطة بالتكنولوجيا المتطورة، تتطلب تعاوناً عالمياً مشابهاً للجهود التي بذلت في الحرب الباردة؛ لتجنب الصراعات النووية.
والتقى مجموعة من الخبراء الدوليين البارزين في بكين الأسبوع الفائت؛ حيث حددوا «الخطوط الحمراء» حيال تطوير الذكاء الاصطناعي، ويشمل ذلك استخدامه في تصنيع أسلحة بيولوجية، وشن هجمات الإلكترونية.
وفي بيان اطلعت عليه «فاينانشال تايمز»، وصدر في الأيام القليلة التي تلت الاجتماع، حذر الأكاديميون من ضرورة تبني نهج مشترك لضمان سلامة الذكاء الاصطناعي؛ لوقف «الأخطار الكارثية، أو حتى الوجودية بالنسبة للبشرية في حياتنا».
وقال البيان «في خضم الحرب الباردة، ساعد التنسيق الدولي على المستويين العلمي والحكومي على تجنب كارثة نووية حرارية، وتحتاج البشرية مرة أخرى إلى التنسيق لتجنب كارثة قد تنجم عن تكنولوجيا غير مسبوقة».
ويشمل الموقعون جيفري هينتون ويوشوا بنجيو، اللذين فازا بجائزة تورنغ عن أعمالهما في الشبكات العصبية، وغالباً ما يشار إليهما بوصفهما «الأبوين الروحيين» للذكاء الاصطناعي، وأستاذ علوم الحاسوب في جامعة كاليفورنيا ستيوارت راسل، وأندرو ياو أحد أبرز علماء الحاسوب في الصين.
وجاء البيان عقب منتدى «الحوار الدولي عن سلامة الذكاء الاصطناعي» الذي عقد في بكين الأسبوع الماضي، حيث شارك مسؤولون من الحكومة الصينية، ما يشير إلى تأييد رسمي ضمني للمنتدى ونتائجه. ويشكل اللقاء جزءاً من استراتيجية الضغط التي تمارسها المجتمعات الأكاديمية على الشركات التقنية والحكومات؛ للعمل معاً في المسائل المتعلقة بسلامة الذكاء الاصطناعي، ولا سيما عبر جمع أقوى دولتين في مجال التكنولوجيا في العالم، الصين والولايات المتحدة.
وفي شهر نوفمبر، التقى الرئيس الأمريكي جو بايدن ونظيره الصيني شي جين بينغ، وناقشا موضوع سلامة الذكاء الاصطناعي، واتفقا على إقامة حوار في هذه المسألة، كما اجتمعت شركات الذكاء الاصطناعي الرائدة في جميع أنحاء العالم مع خبراء الذكاء الاصطناعي الصينيين في جلسات مغلقة في الأشهر الأخيرة.
وفي الشهر نفسه، اتفقت 28 دولة، ومن ذلك الصين، وشركات الذكاء الاصطناعي الرائدة على التزامات عامة للتعاون والعمل معاً؛ لمواجهة الأخطار الوجودية الناجمة عن الذكاء الاصطناعي المتقدم، وذلك على هامش قمة سلامة الذكاء الاصطناعي، التي نظمها رئيس الوزراء البريطاني ريشي سوناك.
وفي الأسبوع الماضي في العاصمة بكين، ناقش الخبراء التهديدات المتعلقة بتطوير «الذكاء العام الاصطناعي»، أو أنظمة الذكاء الاصطناعي التي تضاهي البشر أو تتفوق عليهم.
وقال الباحث في مجال الذكاء الاصطناعي يوشوا بنجيو: «تمحورت النقاشات في الخطوط الحمراء التي ينبغي لأي نظام ذكاء اصطناعي قوي عدم تجاوزها، والتي يجب على حكومات العالم فرضها عند تطوير واستخدام الذكاء الاصطناعي».
وتتعلق هذه الخطوط الحمراء بالأنظمة الذاتية المتزايدة، فيقول البيان: «إنه ينبغي لأي نظام ذكاء اصطناعي عدم التمتع بالقدرة على استنساخ أو تحسين نفسه من دون موافقة ومساعدة بشرية صريحة» أو «اتخاذ إجراءات لزيادة قوته وتأثيره من دون مبرر»، كما أضاف العلماء إنه ينبغي لأي أنظمة ألّا تعزز قدرة الجهات الفاعلة على تصميم أسلحة الدمار الشامل، أو انتهاك اتفاقية الأسلحة البيولوجية أو الكيميائية، أو أن تكون قادرة على تنفيذ هجمات سيبرانية ذاتياً تسفر عن خسائر مالية جسيمة، أو ما يعادلها من أضرار.