احذروا.. الذكاء الاصطناعي طبيب «مهلوس» غير موثوق

حذّر خبراء من الاعتماد على روبوتات الدردشة المدعومة بالذكاء الاصطناعي للحصول على معلومات صحية وطبية، مؤكدين أنها قد تقدّم إجابات غير دقيقة أو مضللة. وأوضحت دراسة حديثة أن هذه الأنظمة، مثل ChatGPT وGrok، تعاني مما يُعرف بـ«الهلوسة» الطبية، وهي ظاهرة تؤدي إلى إنتاج معلومات خاطئة أو غير مكتملة، رغم عرضها بأسلوب يبدو موثوقاً.

وفي دراسة شملت 50 سؤالاً طبياً، تبيّن أن نحو نصف الإجابات التي قدمتها روبوتات الدردشة كانت «إشكالية». وأظهرت النتائج أن نسبة الأخطاء كانت عالية جداً. وأشار الباحثون إلى أن سبب هذه الأخطاء يعود إلى اعتماد هذه النماذج على بيانات تدريب قد تكون منحازة أو غير مكتملة، إضافة إلى ميلها أحياناً إلى ما يُعرف بـ«المجاملة»، أي تقديم إجابات تتوافق مع معتقدات المستخدم بدلاً من الالتزام بالدقة العلمية. كما لفتوا إلى أن هذه الأنظمة غير مرخّصة لتقديم المشورة الطبية، ولا تملك دائماً وصولاً إلى أحدث المعلومات، ما يجعل استخدامها في هذا المجال محفوفاً بالمخاطر من دون إشراف متخصص.

وأكد الباحثون أن روبوتات الدردشة لا تحلّل الأدلة العلمية بشكل حقيقي، بل تعتمد على التنبؤ الإحصائي لتوليد النصوص، ما يعني أنها قد تقدّم إجابات تبدو دقيقة، لكنها تفتقر إلى الموثوقية.