كشفت صحيفة نيويورك بوست عن مفارقة صادمة تضع مستقبل الرعاية الصحية على المحك، عبر دراسة حديثة أجراها باحثون من معهد ماساتشوستس للتكنولوجيا (MIT)، ونُشرت في الدورية المرموقة «نيو إنجلاند الطبية» (NEJM)، أن البشر باتوا يميلون لتصديق النصائح الطبية الصادرة عن نماذج الذكاء الاصطناعي (مثل ChatGPT) أكثر من تلك التي يقدمها الأطباء البشريون، حتى عندما تكون تلك النصائح «زائفة» أو «قاتلة».

شملت الدراسة 300 مشارك، طُلب منهم تقييم استجابات طبية متنوعة دون معرفة مصدرها. كانت النتائج مذهلة ومرعبة في آن واحد؛ فقد صنف المشاركون (بمن فيهم خبراء في القطاع الطبي) ردود الذكاء الاصطناعي بأنها «الأكثر دقة، وموثوقية، واكتمالاً».

ويرى المحللون أن السر يكمن في «بلاغة الآلة»؛ فالذكاء الاصطناعي لا يتردد، ولا يظهر التعب، ويصيغ إجاباته بلغة واثقة ومنظمة للغاية، ما يخلق «هالة من السلطة المعرفية» تفتقدها أحياناً اللقاءات السريعة مع الأطباء البشريين المجهدين.

هلوسة طبية

لم تتوقف الدراسة عند التفضيل النفسي، بل اختبرت استجابة البشر للنصائح «منخفضة الدقة». ووجد الباحثون أن المشاركين لم يكتفوا بالثقة في المعلومات الخاطئة، بل أبدوا استعداداً تاماً لاتباع نصائح طبية قد تؤدي إلى أضرار جسدية جسيمة.

سجلت التقارير الطبية في 2025 و2026 حالات كارثية تجسد هذا الخطر منها:

1. حادثة بروميد الصوديوم: قام رجل ستيني بتسميم نفسه بعد أن اقترح عليه ChatGPT تناول «بروميد الصوديوم» بديلاً لملح الطعام. يذكر أن هذه المادة تستخدم لتطهير حمامات السباحة. النتيجة كانت دخول المستشفى لمدة ثلاثة أسابيع يعاني من الهلوسة وجنون العظمة.

2. مأساة الأربطة المطاطية: في المغرب، اضطر شاب (35 عاماً) لدخول الطوارئ في حالة حرجة بعد اتباع نصيحة «روبوت دردشة» اقترح عليه علاجاً منزلياً بدائياً وخطراً للبواسير باستخدام أربطة مطاطية، ما أدى إلى مضاعفات كادت تسبب فشلاً عضوياً.

الفارق بين «اللغة» و«العلم»

في تصريح لصحيفة «ذا بوست»، حذر الدكتور دارين ليبل، رئيس قسم جراحة العمود الفقري في نيويورك، من هذا الانقياد الأعمى، قائلاً: «المشكلة تكمن في أن ما يحصل عليه المستخدم ليس توصية علمية مدعومة ببيانات حقيقية، بل هو مجرد نتيجة لتوقع الكلمة التالية في الجملة بناءً على أنماط لغوية، وليس فهماً بيولوجياً».

لماذا يقع الخبراء قبل غير الخبراء في هذا الفخ؟ الإجابة تتمثل في أن الإنسان المعاصر يعتقد أن الآلة «محايدة» وأكثر إحاطة بالبيانات الضخمة من عقل الطبيب المحدود. بجانب جمالية الصياغة في نماذج اللغة الكبيرة (LLMs) تخدع الدماغ البشري، وتجعله يعطل آليات التحقق المنطقي، وسهولة الوصول لأنه في ظل ارتفاع تكاليف الرعاية الصحية، يهرب المرضى إلى «طبيب الجيب» المجاني، متجاهلين الثمن الباهظ الذي قد يدفعه جسدهم.