أخطاء الذكاء الاصطناعي لم تتوقف طوال عام 2025

يقضي كثير من الناس الآن وقتاً طويلاً في القلق بشأن ما إذا كان الذكاء الاصطناعي سيبلغ يوماً ما مستوى من الذكاء يكفي لإزاحة البشر، لكن ماذا لو كان ذلك قد بدأ بالفعل؟

خطر لي هذا السؤال وأنا أستعرض قائمة أعدها لأبرز أخطاء الذكاء الاصطناعي في عام 2025، أو بتعبير أدق، أولئك الذين سقطوا ضحايا استخدام ما يقال لنا اليوم إنه ذكاء اصطناعي بدائي نسبياً.

قد تكون هذه التقنية حميدة، لكن القائمة تذكرنا بأن بعض صفاتنا البشرية، كالكسل والجشع والطموح، تجعلنا فريسة سهلة لها، ويتضح هذا جلياً في مجال عملي، حيث بدأ العام بتلقي بعض مستخدمي تطبيق «بي بي سي» نبأ، مفاده أن نجم التنس الإسباني، رافائيل نادال، قد أصبح برازيلياً.

وكما ذكرت «بي بي سي» فإن ملخص الأخبار، الذي حمل هذه المعلومات المغلوطة كان تم إنشاؤه بواسطة ميزة ذكاء اصطناعي، أطلقتها شركة أبل لمستخدمي أحدث هواتف آيفون، وبالفعل قامت شركة التكنولوجيا العملاقة لاحقاً بتعليق هذه الخاصية، التي كانت تصدر أيضاً تنبيهات خطأ أخرى، فما هي الضغوط التنافسية التي ربما دفعت إلى إطلاق هذه الميزة في المقام الأول؟ هذا سؤال راودني بعد بضعة أشهر بعدما قالت صحيفة «شيكاغو صن تايمز» إنها تعلمت درساً لا ينسى بعد أن قدمت لقرائها قائمة للقراءات الصيفية، تضمنت توصيات لكتب غير موجودة أصلاً. وكانت القائمة من إعداد كاتب مستقل يعمل مع أحد «شركاء المحتوى» للصحيفة، وقد استخدم الذكاء الاصطناعي. بعد أشهر قليلة فقط في باكستان صدر اعتذار آخر من صحيفة «دون» حول قصة عن مبيعات السيارات انتهت بتنبيهات محرجة من الذكاء الاصطناعي.

من الوارد ارتكاب الأخطاء في الصحافة، ولقد ارتكبتها بنفسي مرات عدة، لكن من المقلق أن نتخيل قطاعاً يعاني من أزمات مالية ينجذب بشكل متزايد إلى أدوات الذكاء الاصطناعي الموفرة للتكاليف، التي ترتكب الكثير من الأخطاء.

ومن الجانب الإيجابي نادراً ما تؤدي أخطاء الصحف إلى دخول المستشفى، لكن لا يمكن قول الشيء نفسه عن معلومات الذكاء الاصطناعي، التي استخدمها رجل لتقليل استهلاكه للملح، فقد انتهى به الأمر في المستشفى مصاباً بحالة تعرف باسم «التسمم بالبروميد»، ما دفع الباحثين إلى التحذير في أغسطس من أن استخدام الذكاء الاصطناعي في الاستشارات الطبية قد يؤدي إلى «نتائج صحية سلبية».

ولا يقتصر الأمر على عالمي الطب والإعلام فقط، فقد عانى مجال القانون من سلسلة من الأخطاء الفادحة المتعلقة بالذكاء الاصطناعي، ففي أستراليا اعتذر محامٍ بارز لقاضٍ يرأس قضية قتل تأخرت، بسبب مذكرات مدعومة بالذكاء الاصطناعي، تضمنت اقتباسات وهمية وقضايا غير موجودة، وتضمنت قاعدة ترصد القرارات القانونية المتعلقة بأخطاء الذكاء الاصطناعي ما يقرب من 700 مثال منذ أبريل 2023، أي بعد خمسة أشهر من إطلاق «شات جي بي تي» للجمهور، لكن هل يقل هذا العدد في قطاعات الخدمات المهنية الأخرى؟ لا أظن ذلك، فقد أفاد خبر نشر في أكتوبر بأن شركة «ديلويت» ستعيد جزءاً من المبلغ، الذي دفعته مقابل تقرير مليء بالأخطاء بقيمة 290 ألف دولار أمريكي أعدته للحكومة الأسترالية، والذي أنتج جزئياً باستخدام الذكاء الاصطناعي، ويأتي ذلك رغم استثمار شركات الاستشارات، كغيرها من الشركات، ملايين الدولارات في الذكاء الاصطناعي للحفاظ على قدرتها التنافسية وتعزيزها.

ويبقى المجال الذي شهد استمرار بعض أبرز أخطاء الذكاء الاصطناعي هذا العام هو السياسة، ولا أتحدث هنا عن قدرة الذكاء الاصطناعي على نشر معلومات مضللة على نطاق واسع، وغيرها من التهديدات للديمقراطية، بل عن الطريقة الأكثر شيوعاً، وإن كانت مثيرة للقلق، التي تعامل بها السياسيون حول العالم مع هذه التقنية المشكِلة.

«إننا لم نصوت لشات جي بي تي»: هذه العبارة أصبحت مألوفة، بعد أن صرح رئيس الوزراء السويدي، أولف كريسترسون، لأحد الصحفيين بأنه استشار أدوات الذكاء الاصطناعي للحصول على رأي في بعض الأمور، لكن الخطوة الأكثر إثارة للاستغراب جاءت في سبتمبر بألبانيا، عندما قدم رئيس الوزراء إيدي راما «وزيرة حكومية» مولدة بواسطة الذكاء الاصطناعي تدعى ديلا كونها عضواً في حكومته، وقد تكون هذه خطوة رمزية، إذ ينص دستور البلاد على أن يكون الوزراء مواطنين لا يقل عمرهم عن 18 عاماً، لكنها خطوة محبطة، فمن الصعوبة بمكان معرفة موقفك من شخص ما، بكل عيوبه ونقائصه، أما مع الذكاء الاصطناعي، كما نكتشف سريعاً، فيمكن أن تكون الصعوبة أكبر بكثير.