هل يجب أن نقلق حقاً بشأن تزويد الذكاء الاصطناعي بالمشاعر؟

أنجانا أهوجا

تتسع دائرة النقاشات حول ما إذا كان الذكاء الاصطناعي سيصل إلى مستوى الذكاء البشري أو سيتجاوزه، وهل سيمثل ذلك خطراً وجودياً على البشرية! وتخيل البعض هذا الخطر في صورة روبوت ينقلب على صانعه، على غرار فرانكنشتاين، أو احتمالية أن تُقرر أنظمة الذكاء الاصطناعي بهدوء في يوم من الأيام إدارة شؤون الحكومات والشركات، لأن العالم سيكون أفضل حالاً بدون تدخل البشر.

كما يطرح الفلاسفة والباحثون في الذكاء الاصطناعي اليوم سؤالاً جديداً: هل ستتمكن هذه الآلات من التطور بحيث يداخلها شعور بالملل أو رغبة بإيقاع بالأذى على من حولها؟ وفي سبتمبر الماضي، عينت شركة أنثروبيك للذكاء الاصطناعي باحثاً متخصصاً في «رفاهية الذكاء الاصطناعي»، لتقييم ما إذا كانت هذه الأنظمة الذكية تتجه ببطء نحو تطوير وعي خاص بها أو الشعور بالاستقلالية، وإن كان الأمر كذلك، فهل من الضروري تقييم الحاجة لمراعاة رفاهية هذه الأنظمة.

وفي الأسبوع الماضي، نشرَت مجموعة من الباحثين الدوليين تقريراً حول هذا الموضوع، خلصت فيه إلى أن وتيرة التطور التكنولوجي تُشير إلى «احتمالية واقعية بأن تُصبح بعض أنظمة الذكاء الاصطناعي واعية أو مستقلة على نحو فعال، ما يضفي أهمية أخلاقية على هذا الموضوع في المستقبل القريب».

وتبدو فكرة القلق من تطور أحاسيس ومشاعر للذكاء الاصطناعي شديدة الغرابة، لكنها تكشف عن مفارقة في صميم التوجه الكبير نحو تطوير أنظمة الذكاء الاصطناعي. وتتمثل هذه المفارقة في تسابق الشركات على بناء أنظمة اصطناعية أكثر ذكاء وأكثر شبهاً بنا، لكنها قلقة في الوقت نفسه من أن تلك الأنظمة الاصطناعية ستصبح شديدة الذكاء وشبيهة بنا للغاية.

وبما أننا لا ندرك تماماً كيفية نشوء الوعي أو الشعور بالذات داخل الأدمغة البشرية، فلا يمكننا أن نكون واثقين تماماً من أن هذا لن يتحقق في الأدمغة الاصطناعية. واللافت وسط كل هذا، هو عدم وجود إشراف خارجي شامل وقوي على الاتجاه الذي تسلكه هذه الأنظمة.

والتقرير المُشار إليه والذي حمل عنوان «أخذ رفاهية الذكاء الاصطناعي على محمل الجد»، ألّفه باحثون في شركة إليوس إيه آي البحثية التي تصرف الكثير من التركيز إلى «تحري وعي الذكاء الاصطناعي ورفاهيته». وشارك فيه آخرون يشملون ديفيد تشالمرز، الفيلسوف في جامعة نيويورك، الذي يعتقد أن العوالم الافتراضية حقيقية، علاوة على جوناثان بيرش، الأكاديمي في كلية لندن للاقتصاد، الذي طرح إطاراً للتفكير بشأن عقول الحيوانات والذكاء الاصطناعي في كتابه المنشور حديثاً بعنوان «حافة الوعي».

صحيح أن التقرير لم يذهب إلى ادعاء أن وصول الذكاء الاصطناعي إلى الوعي (أي القدرة على الشعور بأحاسيس مثل الألم) ممكن أو وشيك، لكنه أشار إلى وجود «عدم يقين كبير بشأن هذه الإمكانات». وقد سلّط الباحثون الضوء على وجود أوجه تشابه بين ذلك وجهلنا التاريخي بشأن الوضع الأخلاقي الخاص بالحيوانات، ما أتاح تربية الحيوانات داخل المصانع. ولم تحصل حيوانات مثل سرطانات البحر والكركدن والأخطبوط على الحماية إلا في عام 2022 بموجب قانون رفاهة الحيوانات في المملكة المتحدة، ويعود الفضل في ذلك جزئياً إلى أعمال جوناثان بيرش.

وحذر الباحثون، من أن الحدس البشري ليس معياراً قوياً. وأوضحوا أن جنسنا البشري عُرضة للتجسيد، أي نسب صفات بشرية إلى غير البشر فيما هم لا يملكونها حقاً، وأيضاً إنكار السمات البشرية، أي أن ننكر على غير البشر تمتعهم بصفات بشرية يملكونها بالفعل.

ويوصي التقرير بضرورة أخذ الشركات مسألة رفاهة الذكاء الاصطناعي بجدية، وينصح الباحثين بالتوصل إلى طرق لتحري ما إذا كان الذكاء الاصطناعي يملك وعياً، والسير على خطى العلماء الذين يدرسون الحيوانات، وأن يبدأ صانعو السياسات في التفكير بشأن فكرة الذكاء الاصطناعي الحساس أو الواعي، وحتى عقد تجمعات للعامة للمشاركة في بحث هذه المسائل.

وقد لقيت هذه الطروحات قدراً من الدعم في الأوساط البحثية التقليدية. وقال أنيل سيث، أستاذ علم الأعصاب المعرفي والحوسبي بجامعة ساسيكس والباحث المرموق في مجال الوعي: «أستبعد أن يكون هناك وعي اصطناعي حقيقي، لكنه ليس مستحيلاً». ويعتقد سيث أن شعورنا بذواتنا مرتبط ببيولوجيتنا الإنسانية وأنه أكثر من مجرد حسابات.

لكن ماذا لو كان مخطئاً؟ كما يقر بأنه قد يكون كذلك، فيمكن للتداعيات أن تكون وخيمة للغاية. وذكر: «سيكون تطوير ذكاء اصطناعي واعٍ كارثة أخلاقية، لأننا سنكون قد قدمنا للعالم أشكالاً جديدة من الذوات الأخلاقية وربما أشكالاً جديدة من المعاناة، لكن على نطاق صناعي». وشدد لذلك على ضرورة ألا يحاول أحد بناء مثل هذه الآلات.

ويبدو أن القلق من وهم وصول الذكاء الاصطناعي للوعي يقترب منا بسرعة. ففي عام 2022، طُرد أحد المهندسين لدى «غوغل» من عمله بعدما أعرب عن إيمانه بأن روبوت الدردشة الخاص بالشركة أظهر مؤشرات على الوعي. وتعمل «أنثروبيك» على «تدريب شخصي» لنماذجها اللغوية الكبيرة لمنحها سمات مثل التفكير.

وبالنظر إلى أن الآلات تتواجد حولنا في كل مكان، لا سيما النماذج اللغوية الكبيرة، التي يتم تصنيعها بحيث تكون أكثر شبهاً بالبشر، فإننا نخاطر بالتعرض للخداع على نطاق واسع من شركات تتقيد بالقليل من الضوابط الرقابية. كما أننا نخاطر عندما لا نهتم بالآلات لأنها لا يمكنها الرد علينا بالمثل، ونصرف اهتماماتنا الأخلاقية عن العلاقات المهمة. إن حدسي البشري يقلق بشكل أقل بشأن اكتساب الذكاء الاصطناعي القدرة على الإحساس، لكن قلقي أكبر حيال فقدان العقول البشرية القدرة على الاهتمام والعناية.