حوكمة الذكاء الاصطناعي

ت + ت - الحجم الطبيعي

التحضير لمستقبل الذكاء الاصطناعي يحتوي على تفاصيل عدة، ويواجهنا بمجموعة من التساؤلات، منها كيف يمكن استخدام التكنولوجيا لتعزيز الخير الاجتماعي وتحسين العمليات الحكومية؛ وما هو السبيل لتكييف اللوائح التي تؤثر على تقنيات الذكاء الاصطناعي، بطريقة تشجع الابتكار مع حماية الجمهور؛ وكيفية ضمان أن تكون تطبيقات الذكاء الاصطناعي عادلة وآمنة ومحكومة؛ وكيفية تطوير القوى العاملة الماهرة والمتنقلة.

هذه التساؤلات تؤكد أن التكنولوجيا لن تتمكن من تحقيق أقصى إمكاناتها، وتساعد على تحسين حياة الإنسان، ومواجهة التحديات العالمية، إلا إذا تم حوكمتها، وهو ما سوف يسخرها بالشكل الأمثل في سبيل خدمة الإنسان.

مخاطر

وعلى الرغم من أن التقنيات الجديدة تعد بمستقبل أفضل، فإن من الواضح أن علينا العمل أكثر لنساعد هذه التقنيات على تحقيق أقصى إمكاناتها، وهذا لا يعني إدارة المخاطر المرتبطة بها فقط، وإنما وضع الخطط التنظيمية اللازمة التي تمكن الأسواق والأفراد من تحقيق الاستفادة القصوى من هذه الفرص.

بكلام أوضح حدث على مدار السنوات القليلة الماضية، تطور سريع في الذكاء الاصطناعي حتى أصبح مجالاً حيوياً من مجالات التكنولوجيا. وبطرق منظورة وغير منظورة، دخلت حياتنا اليومية آلات تتعلم من التجربة وتتكيف مع المدخلات الجديدة، وتقوم بمهام كانت في السابق حكراً على البشر.

ومع السرعة الهائلة التي أصبحت طابعاً للتغير والابتكار في الوقت الراهن، باتت المسألة التي تواجه الحكومات وصناع السياسات هي كيفية الاستفادة من منافع الذكاء الاصطناعي وعدم التخوف من سيطرة الروبوتات على كل شيء.

والحل البسيط لهذه المسألة هو أن نجعل الروبوتات تعمل لصالحنا. تلك التطورات كشفت أن آليات الحوكمة الحالية لا تكفي لمواجهة المخاطر، لذلك فالهياكل الجديدة لا بد أن تكون قابلة للتكيّف وسريعة لتواكب سرعة الابتكار.

وترى المؤسسات الفاعلة التي تعمل بشكل دؤوب من أجل النمو الاقتصادي البشري أن من الأهمية بمكان أن تعمل الصناعة والمجتمع المدني والحكومة معاً على تطوير الجوانب الإيجابية لتطبيقات الذكاء الاصطناعي وإدارة المخاطر والتحديات التي تواجهها، وأن تكفل إتاحة الفرصة للجميع للمساعدة في بناء مجتمع معزز والمشاركة في فوائدها.

وثمة ما ينبغي التوعية بشأنه ويرتبط بحوكمة الذكاء الاصطناعي والقضايا المرتبطة بها وأولها البطالة التي ستورثها طفرة الذكاء الاصطناعي، فالسيارات ذاتية القيادة على سبيل المثال يمكن أن تضع الملايين من سائقي السيارات والشاحنات خارج العمل، ولكن يمكن أن تقلل من مخاطر حوادث السيارات.

ويمكن أن تعني الأتمتة أيضاً أن الناس قادرون على العمل لساعات أقل حتى يكون لديهم المزيد من الوقت لقضائه مع أسرهم والتعامل مع مجتمعاتهم المحلية، وقد تؤدي إلى «إعادة الانتشار الجماعي» بالطريقة نفسها التي تؤدي بها الثورة الصناعية إلى التحول من الحياة الزراعية إلى المدن. ومع ذلك، من المرجح أن يؤدي التشغيل الآلي دوراً جديداً للعمال ذوي المهارات العالية وليس العمال ذوي المهارات المنخفضة، لذا فإن البعض يدافع عن دخل أساسي عالمي لضمان سبل عيش العمال النازحين.

أما المشكلة الأخرى التي قد تجعل الناس ينفرون من تطبيقات الذكاء الاصطناعي فهي عدم المساواة وكيفية توزيع الثروة الناتجة عن الآلات، فمع الأتمتة، سيكون هناك حاجة أقل للقوى العاملة البشرية التقليدية، ومع تراجع أعداد العاملين سوف تذهب الإيرادات إلى عدد قليل من الناس، لذلك يجب التفكير في كيف يمكننا ضمان فوائد تعم الجميع؟

وهناك جانب الإنسانية وكيف تؤثر الآلات على سلوكنا؟ وما ينتج من التفاعل معها. فتفاعل أطفالنا مع آلات شبيهة بالإنسان قد يؤثر تأثيراً بالغاً على تنميتهم. وثمة مسألة الغباء الاصطناعي وكيف يمكننا الاحتراس من الأخطاء، فمن الأهمية بمكان التأكد من أن الآلات تعمل على النحو المطلوب ولا يمكن التلاعب بها من أجل مكاسب.

وهناك مشكلة الروبوتات العنصرية، إذ يجب الانتباه إلى كيفية إنشاء أنظمة الذكاء الاصطناعي من قبل البشر غير المتحيزين، لأن من المهم تجنب الخوارزميات التي تتصرف بطرق ضارة مثل التنميط العنصري عند التنبؤ بالمجرمين في المستقبل.

وأيضاً فإن مسألة الأمن وكيف نحافظ على بقاء الخوارزميات بأمان من الخصوم مسألة بالغة الأهمية، فقد تتصاعد حروب الأمن السيبراني بشدة في حال حصل أشخاص لهم نوايا خبيثة على خوارزميات الذكاء الاصطناعي.

وهناك مسألة الشر في تطبيقات الذكاء الاصطناعي وكيفية توقي العواقب غير المقصودة. قد يتعلم الروبوت جيداً في تعاطيه مع البيانات المدخلة له، لكن المخرجات والأحكام الصادرة عن هذه التطبيقات يجب أن تحقن بالحكم البشري التي تعود عليها.

وتعد مسألة التفرد مسألة هامة أيضاً حيث يجب مراعاة كيفية إبقاء سيطرتنا البشرية على هذه الأنظمة الذكية المعقدة، فتطور الإنسان وهيمنته في هذا الكوكب جاءت نتيجة لتفوقه على غيره من الكائنات والموجودات، وعلى الرغم من براعة المادية التي بين أيدينا حالياً إلا أنه ومن الحيوي أن يكون الإنسان أكثر ذكاء منها لتستمر سيطرته عليها وتستمر صلاحياته في هذا الكوكب.

وهناك مسألة حقوق الروبوت وكيف نحدد معاملة إنسانية مناسبة للروبوتات بشكل قانوني، خصوصاً عندما تصبح الآلات قادرة على الإدراك، والعمل، بالطريقة نفسها التي تضمن للحيوانات حقوقها.

وهناك أدوار ستلعبها الجامعات ومراكز الأبحاث بخصوص أخلاقيات وحوكمة تطبيقات الذكاء الاصطناعي منها أولاً: ينبغي للجامعات أن توفر موارد مفتوحة للبحث والتطوير ونشر نظم الذكاء الاصطناعي، وخاصة تطبيقات وتقنيات الذكاء الاصطناعي من أجل المصلحة العامة والصالح الاجتماعي. ومن المعروف على نطاق واسع أن نظم الذكاء الاصطناعي تتطلب بنية تحتية وموارد بيانات هامة.

وبينما يبدو أننا في عصر ذهبي لأبحاث الذكاء الاصطناعي، إلا أن مسار تبادل المعرفة والتعاون على نطاق واسع مسار غير مؤكد، نتيجة للمصالح التجارية الهائلة وراء تطوير هذه التقنيات، فضلاً عن زيادة المصالح الجيوسياسية للدولة القومية، ويمكننا أيضاً أن نتوقع أن هذا العصر الذهبي للانفتاح لن يستمر إلى الأبد، لذلك يمكننا القول إن أحد أهم أدوار الجامعات يجب أن يكون ضمان الوصول عبر الوقت إلى موارد المنظمات العاملة في تطبيقات الذكاء الاصطناعي وبنيتها التحتية، وفي الواقع تنويع وتوسيع فرص الحصول على هذه الموارد سواء كانت موهبة أو تعليماً أو موارد حاسوبية أو قوة حاسوبية أو ما إذا كانت هي مجموعات البيانات التي تلعب دوراً استراتيجياً في التعلم الآلي، على سبيل المثال.

أدوار

ويدور الدور الثاني للجامعات في أخلاقيات وحوكمة سياق الذكاء الاصطناعي الذي يمضي قدماً حول وظائف الوصول والمساءلة، ويمكن للجامعات أن تلعب دوراً رئيسياً كمؤسسات مستقلة وموجهة نحو المصلحة العامة إذ يمكنها إجراء البحوث وتطوير وسيلة لقياس دقة نظم الذكاء الاصطناعي وتقييمها.

وستكون نظم المنظمات العاملة في هذا المجال ونظم صنع القرار بكل تأكيد بمثابة "صناديق سوداء". فالمستخدمون لا يفهمون تماماً ما يحدث وراء الكواليس.. وفي بعض الحالات، قد لا يعرف حتى صناع أنظمة الذكاء الاصطناعي ما ستفعله هذه الأنظمة، فأحياناً برمجيات ومكونات أنظمة الذكاء الاصطناعي تبدو قاب قوسين أو أدنى من خلق نفسها.

وتشمل الأدوات التي تحتاج إلى تطوير منهجيات ومقاييس ومعايير جديدة، مقترنة بآليات مراجعة موثوقة تسمح لنا ليس فقط بتقييم هذه الصناديق السوداء داخل الخوارزميات، ولكن أيضاً التعرف على آثار عمليات مثل كيف ننظم مجموعات البيانات وما شابه ذلك.

وإضافة إلى هذه الوظيفة الاستعراضية الهامة، يمكن للجامعات أيضاً أن تلعب دوراً في تصميم النظم والآليات التصحيحية التي يمكن أن تستجيب للأحكام الخوارزمية السلبية التي هي نتيجة لأنظمة صنع القرار، ولا تتماشى مع قيم مجتمعنا. فالدور الناشئ للجامعات كبير وذو قيمة ويمكنه أن يلعب وظيفة اجتماعية حيوية من غير المرجح أن تلعبها الشركات نفسها، بل وحتى الإدارات الحكومية.

وبفضل دورها المحتمل كونها مستشاراً موثوقاً به، فإن الجامعات أيضاً في وضع جيد يمكنها من أداء وظيفة تقييم الأثر، حيث ستصبح شريكاً أساسياً في البحث وتطوير منهجيات تحليل الأثر الاجتماعي والاقتصادي لمؤسسات الدولة العاملة في أنظمة الذكاء الاصطناعي، وهذا هو التحدي المنهجي فنحن ندرس التكنولوجيا الرقمية لسنوات عديدة، ومن الصعب تطوير منهجيات قوية وخاصة عندما يتعلق الأمر بالتقنيات ذات النطاق الواسع في تطبيقاتها ويعد جزءاً لا يتجزأ من جوانب متعددة من الحياة والمجتمع.

وتشكل تقنيات الذكاء الاصطناعي تحدياً أكبر، حيث إن العديد من العمليات الأساسية غير مرئية إلى حد كبير للجميع عدا الشركة التي صنعت ذلك.

كيف يمكنك قياس تأثير خوارزمية تحديد الأخبار في مواقع التواصل الاجتماعي عندما تكون الآلية الفعلية وراء التصفية غير شفافة؟ وهنا يجب التأكيد أنه يمكن للجامعات والباحثين، وخاصة في هذه البيئة، أن يلعبوا دوراً هاماً جداً في وضع منهجيات وتحديد العوامل المناسبة لاستعراض الأثر والقياس، هذا الدور هو الأكثر أهمية.

ودور الجامعات رئيسي في توفير قاعدة الأدلة اللازمة لصنع السياسات، وهو أمر بالغ الأهمية على المدى الطويل. كيف نضمن أن نفهم ما تقوم به هذه التقنيات للمجتمع مع مرور الوقت؟ هذا السؤال مهم بشكل خاص ويدور الآن في العالم بأسره.

اندماج

الوظيفة الرابعة للجامعات تركز على المشاركة والاندماج، حيث يمكنها توجيه دعوة لجمع مختلف أصحاب المصلحة في النظام الإيكولوجي للمؤسسات الفاعلة والنشطة في تطبيقات الذكاء الاصطناعي التي قد لا تكون على استعداد للمشاركة في الحوار. وأحد الدروس المستفادة من سنوات عديدة من العمل على القضايا الرقمية هو أن اللاعبين في الصناعة لا يجتمعون لأسباب واضحة؛ فهم في تنافس قوي في ما بينهم.

وعلاوة على ذلك، فإنهم لم يكونوا تاريخياً مع المجتمع المدني بطريقة منظمة، ولا يمكن المبالغة في التحدي المتمثل في إشراك أصوات غير مسموعة ومجتمعات ممثلة تمثيلاً ناقصاً في هذه المحادثات.

الجامعات لديها القدرة على مساعدة سد ثغرات المشاركة من خلال دعوة وجهات النظر التي ليست بالفعل جزءاً من المحادثة التي تحدث اليوم. إحدى المبادرات التي تمت مناقشتها هي إنشاء مختبر للإدماج، يستكشف السبل التي يمكن بها تصميم نظم الذكاء الاصطناعي ونشرها لدعم الجهود الرامية إلى إيجاد مجتمع أكثر تنوعاً وشمولاً من الناحية الرقمية.

الدور الأخير للجامعات يمكن القول إنها يجب أن تلعب في المشهد دور المترجم، فالجامعات لديها التزام لسد فجوة التماثل والفجوة المعرفية، بترجمة ميكانيكا أنظمة وتطبيقات الذكاء الاصطناعي، لوصف آثارها والفرص والمخاطر، وجعل هذه المعرفة متاحة على نطاق واسع للأشخاص العاديين الذين، بذكاء أو عن غير قصد، يتعرضون لهذه التقنيات.

وهذا العمل المترجم هو أمر عاجل. تتطلب هذه الحافظة من الأدوار المحتملة للجامعات، والتي تجسد الفرص والمسؤوليات في هذا المجال، عدداً من أساليب العرض التي تلعب دوراً في هذه الأدوار الخمسة وعبرها من حيث العقلية والتوجه.

ومن أجل الاستجابة لمطالب التطور السريع في تقنيات الذكاء الاصطناعي، يجب على الجامعات أن تكسر الصوامع داخل الأوساط الأكاديمية وعبر التخصصات، لتعزيز قابلية التشغيل البيني. ومن الجدير بالذكر أنه لا يزال هناك فصل قوي بين المهندسين وعلماء الكمبيوتر الذين يطورون تقنيات الذكاء الاصطناعي والتقنيات والتطبيقات من جهة، والعلوم الإنسانية، وعلماء الاجتماع، والمحامين، والباحثين في مجال الحكم، والأخلاقيين من جهة أخرى. إن إطلاق صندوق الأخلاقيات وحوكمة الذكاء الاصطناعي مؤخراً هو من أجل صالح المجتمع والخير الأكبر.

جميع الإجراءات التي اتخذتها الجامعات في التصدي للتحديات الكبرى لها عقليتان محددتان ملازمتان للطبيعة الأكاديمية: الخيال والتجريب. والسؤال: كيف يمكننا ضمان استخدام التكنولوجيا كوسيلة لحل أكبر المشاكل الإنسانية؟ كيف يمكن تصميم هذه الأنظمة بطريقة تكرم القيم الإنسانية وتجسدها؟ لذلك نحن بحاجة إلى الخيال.

سنحتاج إلى طرق جديدة لجمع مبادئ الأخلاق والتصميم والهندسة وأطر الحكم، وحتى الفنون، وستتطلب هذه الطرائق الجديدة تفانياً خجولاً وشجاعة لا حصر لها للتجربة.

ومن غير المرجح أننا كوننا مجتمعاً سوف نتعامل مع هذه التكنولوجيا المتعددة الأوجه باستخدام حل تنظيمي، وهذه الروح من التجريب لا تنطبق فقط على تطوير تقنيات الذكاء الاصطناعي، ولكن أيضاً لتطوير نظم الحكم والمبادئ والقواعد. نحن بحاجة إلى بناء واختبار وتعلم وتكرار، والتجدد في ذلك مراراً وتكراراً.

ديمومة

أخيراً يمكن التأكيد على أن الاستراتيجية الأكثر فعالية على المدى القصير لضمان بقاء الذكاء الاصطناعي مفيداً وحميداً مع التقدم بالمجال، قد تكون هي الاستمرار في دعم المنظمات المعنية بأمان الذكاء الاصطناعي، وكذلك تهيئة صناديق تمويل حكومية لبحوث الأمان بمجال الذكاء الاصطناعي، من أجل تعزيز المجتمع البحثي بمجال سلامة الذكاء الاصطناعي على المستوى الأكاديمي والصناعي على السواء، وصولاً إلى حلول فنية تتوفر وقت الاحتياج إليها، وأيضاً إلى مجموعات من الفنيين المهرة المختصين بأمان الذكاء الاصطناعي تستخدمهم الحكومات وقت الحاجة إليهم. وللحديث بقية.

Email