«غوغل»: لن نستخدم الذكاء الاصطناعي لإيذاء الناس

أكدت غوغل أنها لن تستخدم الذكاء الاصطناعي من أجل تطوير الأسلحة أو «التسبب أو تسهيل التسبب بصورة مباشرة بإيذاء الناس» مع نشر جملة من المبادئ المتصلة بهذه التكنولوجيا.

وقال رئيس غوغل التنفيذي سوندار بيتشاي في مدونة فصَّل فيها سياسة الشركة في مجال الذكاء الاصطناعي، إنه حتى وإن كانت غوغل لن تستخدم الذكاء الاصطناعي لصنع أسلحة، فإننا سنواصل العمل مع الحكومات والجيش في مجالات عديدة أخرى، بما فيها الأمن المعلوماتي والتدريب والبحث والإنقاذ.

وواجهت غوغل ضغوطا من موظفيها ومن جهات خارجية بشأن عقد مع الجيش الأميركي قالت الشركة ومقرها كاليفورنيا إنه لن يُجدد.

وحدد بيتشاو سبعة مبادئ تسترشد بها غوغل في تطبيق الذكاء الاصطناعي أو الحوسبة المتقدمة التي تحاكي السلوك البشري الذكي.

وقال إن غوغل تستخدم الذكاء الاصطناعي من أجل مساعدة الناس على حل مشكلات عاجلة مثل التنبؤ بحدوث حرائق ومساعدة المزارعين وتشخيص الأمراض أو تفادي الإصابة بالعمى.

وأضاف في مدونته: نحن نقر بأن هذه التكنولوجيا القوية تطرح أسئلة قوية بالمثل بشأن استخداماتها. إن طريقة تطوير الذكاء الاصطناعي واستخدامه سيكون لها تأثير كبير على المجتمع لعدة سنوات قادمة. وكقادة في مجال الذكاء الاصطناعي، نشعر بأن لدينا مسؤولية كبيرة في أن نفعل الأمر بصورة صحيحة.

وقال بيتشاو إن برامج الذكاء الاصطناعي لدى غوغل ستصمم من أجل تطبيقات مفيدة اجتماعيا وتفادي إحداث أو تعزيز التحيز غير المنصف.

وقال إن المبادئ تركز على أن يتم تصميم واختبار تطبيقات الذكاء الاصطناعي بحيث تضمن السلامة وتتحمل المسؤولية إزاء الناس وتتضمن مبادئ حماية الخصوصية.

وكتب أن غوغل ستتفادى استخدام أي تكنولوجيا تتسبب أو يمكن أن تتسبب بضرر عام.

وهذا يعني عدم تطوير أسلحة أو تكنولوجيات أخرى الغاية الرئيسية منها أو من تطبيقها التسبب أو تسهيل التسبب بصورة مباشرة بإيذاء الناس وأنظمة «تجمع أو تستخدم المعلومات من أجل المراقبة وتنتهك الأعراف المتفق عليها دولياً».

تعليقات

تعليقات