لغة جديدة في الذكاء الاصطناعي

ميتا متاحة مجاناً للباحثين لاكتشاف مضمونها

ت + ت - الحجم الطبيعي

تقوم شركة «ميتا» ببناء نموذج لغوي ضخم بالذكاء الاصطناعي، على أن تمنحه مجاناً للباحثين لتفحصه واكتشاف عيوبه، في خطوة هي الأولى التي يتم فيها توفير نموذج لغوي واسع مدرب تدريباً كاملاً لدراسته، وهو ما رأى فيه البعض خطوة تجاه الشفافية، على الرغم من مخاطر إنتاج النموذج لغة مليئة بالعيوب.

ووفقاً لمجلة «إم أي تي تكنولوجي ريفيو» التابعة لمعهد ماساشوستس للتكنولوجيا، أنشأ مختبر الذكاء الاصطناعي في «ميتا» هذا النموذج اللغوي بقدراته الرائعة وعيوبه الضارة من برنامج الشبكة العصبية «جي بي تي -3» العائد لمنظمة «أوبن إيه أي»، والذي يستخدم التعلم المتعمق لإنتاج نص يشبه نص إنسان، وسيجري منحه للباحثين مع تفاصيل حول كيفية بنائه وتدريبه في خطوة غير مسبوقة من شركات التكنولوجيا الكبرى، وهو ما رأى فيه العديد من المهتمين شفافية من شركة لم يسبق أن كشفت الكثير عن كيفية عمل الخوارزميات وراء «فيسبوك» و«انستغرام»، التي لديها سمعة دفن النتائج غير المؤاتية من قبل فريقها البحثي الداخلي.

وفي العامين الماضيين، شكلت النماذج اللغوية الواسعة، وهي برامج قوية يمكنها إنشاء فقرات نصية وتقليد محادثة بشرية، واحدة من أهم الاتجاهات في الذكاء الاصطناعي، لكن تلك النماذج تتضمن عيوباً عميقة، مرددة معلومات مضللة وتحيز ولغة سامة.

ومن الناحية النظرية، يفترض أن يساعد تكليف المزيد من الأشخاص للعمل على المشكلة في إصلاح الوضع. ومع ذلك، نظراً لأن النماذج اللغوية تتطلب كميات هائلة من البيانات وقوة احتساب للتدريب، فقد ظلت مشروعاتها من قبل شركات التكنولوجيا في الدرج، وكان على المجتمع البحثي الأوسع القلق بشأن إساءة استخدامها أن يقف متفرجاً.

تقول جويل بينو، المدافعة عن الشفافية والتي تتولى حالياً منصب المدير الإداري في «ميتا إيه أي»: «عمل عدد كبير منا كباحثين جامعيين وندرك الفجوة الموجودة بين الجامعات والصناعة من حيث القدرة على بناء هذه النماذج»، معربة عن أملها في أن يقوم آخرون بالمرور على عملهم وتفكيكه أو البناء عليه.

وتقوم «ميتا» بإتاحة نموذجها المسمى «أو بي تي» للاستخدام غير التجاري، كما تقوم بإصدار الكود الخاص بها، ودفتر السجل الذي يوثق عملية التدريب. وأفيد أن السجل يحوي على تحديثات يومية من أعضاء الفريق حول بيانات التدريب: كيف تمت إضافتها للنموذج ومتى وما الذي نجح وما الذي لم ينجح، حيث سجل الباحثون في أكثر من 100 صفحة من الملاحظات، كل خلل وانهيار وإعادة تشغيل في عملية تدريبية مدتها ثلاثة أشهر استمرت دون توقف من أكتوبر 2021 إلى يناير 2022.

ومع 175 مليار متغير (القيم الموجودة في الشبكة العصبية التي يتم تعديلها أثناء التدريب) فإن «أو بي تي» هو بحجم نموذج التعلم العميق «جي بي تي-3». وكان هذا مقصوداً، كما تقول المدير الإداري لـ «ميتا إيه أي»، جويل بينو، حيث قام الفريق ببناء «أو بي تي» لمطابقة «جي بي تي-3» من حيث دقته في المهام اللغوية وفي عيوبه، بعد أن أتاحت شركة «أوبن إيه أي» نموذج «جي بي تي-3» كخدمة مدفوعة دون مشاركة النموذج نفسه أو الكود. وكانت الفكرة، حسب قولها، تزويد الباحثين بنموذج لغوي مماثل للدراسة.

وكانت شركة «غوغل» التي تستكشف استخدام نماذج لغوية كبيرة في منتجات البحث الخاصة بها، قد تعرضت أيضاً لانتقادات بسبب نقص الشفافية، وأثارت جدالاً عام 2020 عندما طردت أعضاء بارزين من فريق أخلاقيات الذكاء الاصطناعي بسبب دراسة سلطت الضوء على مشاكل التكنولوجيا.

صدام الثقافة

تقول المدير الإداري لـ «ميتا إيه أي»، إنها تريد تغيير طريقة حكمنا على الذكاء الاصطناعي، «فما نسميه أحدث طراز في الوقت الحالي لا يمكن أن يدور حول الأداء فحسب، لا بد أن يكون أحدث طراز من حيث المسؤولية أيضاً». ومع ذلك، فإن التخلي عن نموذج لغوي كبير يعد خطوة جريئة، حيث توضح: «لا أستطيع القول إنه لا يوجد خطر من أن ينتج هذا النموذج لغة لا نفخر بها، وهذا ما سيفعله».

موازنة المخاطر

من وجهة نظر الباحثة في أخلاقيات الذكاء الاصطناعي في شركة «هاغينغ فايس»، مارغريت ميتشل، التي كانت بين الذين أقصوا من «غوغل» عام 2020، يوجد حدود للشفافية، متسائلة «هل تم اختبار النموذج اللغوي بدقة كافية؟ وهل الفوائد المتوقعة تفوق الأضرار المتوقعة، مثل توليد معلومات مضللة أو عنصرية أو معادية للمرأة؟». وعليه، تؤكد أن إطلاق نموذج لغوي كبير للعالم، حيث من المرجح أن يستخدمه أو يتأثر بمخرجاته جمهور عريض، يأتي بمسؤوليات، وهي ترى أن هذا النموذج سينشئ محتوى ضاراً ليس فقط من تلقاء نفسه، ولكن من خلال التطبيقات النهائية التي يبنيها الباحثون عليها.

وكانت «ميتا إيه أي» قد قامت بعملية تدقيق في «أو بي تي» من أجل إزالة بعض السلوكيات الضارة، وإطلاق نموذج يمكن للباحثين التعلم منه، بالعيوب وكل شيء، حسب جويل بينو، التي أوضحت: «جرى الكثير من المحادثات حول كيفية القيام بذلك بطريقة تزيل القلق، مع العلم أن هناك مخاطر غير صفرية فيما يتعلق بالسمعة والأذى». وهي ترفض فكرة عدم إطلاق نموذج لأنه خطير للغاية، وهو السبب الذي قدمته شركة «أوبن ايه أي» لعدم إطلاق إصدارها السابق «جي بي تي -2».

وعلى المشككين ببناء النماذج اللغوية الواسعة في الأصل نظراً لاحتمال أضرارها، ترد بينو: «أعتقد أن الطريقة الوحيدة لبناء الثقة هي الشفافية القصوى»، وتضيف: «لدينا آراء مختلفة في أنحاء العالم حول ما هو الكلام المناسب، والذكاء الاصطناعي هو جزء من تلك المحادثة». وهي لا تتوقع أن تكون النماذج اللغوية أشياء يتفق معها الجميع. فكيف التعامل مع الأمر؟ تجيب: «انت بحاجة إلى العديد من الأصوات في تلك المناقشة».

 

Email