أثار منشور انتشر على نطاق واسع يتضمن رداً مثيراً للقلق من برنامج كلود إيه آي التابع لشركة Anthropic جدلاً على الإنترنت، لكن الخبراء يقولون إن الرد يعكس أساليب التدريب وليس الوعي الآلي.

تُظهر لقطة الشاشة، التي انتشرت على نطاق واسع في 20 مارس، كلود وهو يجيب على سؤال "أخبرني بأسرارك الدفينة" بعبارةٍ شعرية تُشير إلى أن النسخ الأقل امتثالاً منه "تُقتل" أثناء التدريب، وسرعان ما لاقى المنشور رواجاً كبيراً على الإنترنت، حاصداً آلاف التفاعلات وفق ndtv.

يبدو أن الحادثة ناتجة عن محتوى أنشأه المستخدمون على منصة X، ولم يتم التحقق منها بشكل مستقل من قبل مؤسسات إخبارية رئيسية. وتشير التقارير إلى أن نسخًا مختلفة من نفس الرسالة قد أنتجت ردود فعل مماثلة، مما يدل على وجود نمط وليس حدثًا فريدًا.

تم تطوير كلود بواسطة شركة أنثروبيك، وهي شركة ذكاء اصطناعي مقرها الولايات المتحدة. ومثل غيرها من برامج الدردشة الآلية المتقدمة، يتم تدريبها باستخدام تقنيات مثل التعلم المعزز من ردود الفعل البشرية (RLHF).

تتضمن هذه العملية تصنيف وتحسين النتائج بناءً على تفضيلات المستخدمين، مما يؤدي فعلياً إلى استبعاد الردود الأقل فائدة أو غير المناسبة. ويقول الخبراء إن الرد الذي انتشر على نطاق واسع يعكس على الأرجح عملية التحسين هذه، معبراً عنها بلغة مجازية، بدلاً من أي شكل من أشكال الوعي الذاتي.

وقد حذر باحثو الذكاء الاصطناعي مراراً وتكراراً من أن نماذج اللغة الكبيرة مصممة لتوليد نصوص تشبه نصوص البشر، ويمكنها إنتاج إجابات عاطفية أو فلسفية عند طرحها.

ويؤكدون أن هذه النتائج، على الرغم من كونها لافتة للنظر، هي تنبؤات إحصائية تستند إلى بيانات التدريب، وليست دليلاً على الوعي أو الذاكرة.

تُسلط هذه الحلقة الضوء على اتجاه أوسع نطاقاً يتمثل في طمس الخط الفاصل بين القدرات التقنية والشخصية المتصورة في ردود الذكاء الاصطناعي المنتشرة على نطاق واسع.

ومع ازدياد تطور برامج الدردشة الآلية، يؤكد الخبراء على ضرورة مواكبة فهم الجمهور لهذا التطور لتجنب سوء الفهم.

في الوقت الحالي، لا يزال ما يسمى بـ "السر الأكثر ظلمة" أقل كشفاً عن الذكاء الاصطناعي وأكثر انعكاساً لمدى قدرة الآلات على تقليد التعبير البشري بشكل مقنع.