الذكاء الاصطناعي
الذكاء الاصطناعي


مع تزايد اعتماد المستخدمين حول العالم على روبوتات الدردشة المدعومة بالذكاء الاصطناعي، كشفت دراسة حديثة أنه لا يمكن الاستغناء عن الأطباء، بعدما أظهرت أن هذه الأنظمة تخطئ في أكثر من 80% من الحالات الطبية في مراحلها الأولى.

الدراسة، التي نُشرت في مجلة JAMA Network Open، سلطت الضوء على المخاطر المرتبطة باستخدام هذه الروبوتات كبديل للأطباء، مشيرة إلى أنها تواجه صعوبة في تقديم قائمة تشخيصات محتملة عندما تكون بيانات المرضى محدودة، وغالبًا ما تميل إلى تضييق الخيارات بسرعة نحو تشخيص واحد فقط.

وأظهرت النتائج أن دقة هذه الأنظمة تتحسن عندما تكون الحالة واضحة ومكتملة التفاصيل، لكنها تتراجع بشكل ملحوظ في المراحل المبكرة أو الحالات الغامضة، ما يحد من موثوقيتها في التشخيص الأولي.

كما حذرت الدراسة من الاعتماد الكامل على التكنولوجيا في تحديد المشكلات الصحية، خاصة عندما تكون المعلومات التي يقدمها المستخدم غير دقيقة أو ناقصة.

وقالت الباحثة آريا راو، من مؤسسة Mass General Brigham، إن هذه النماذج تتميز بقدرتها على تحديد التشخيص النهائي عند اكتمال البيانات، لكنها تواجه تحديات كبيرة في المراحل الأولى التي تفتقر إلى المعلومات الكافية، بحسب ما نقلته صحيفة Financial Times.

واعتمدت الدراسة على اختبار 21 نموذجًا من روبوتات الدردشة، من بينها نماذج طورتها شركات OpenAI وAnthropic وGoogle وxAI وDeepSeek، باستخدام 29 حالة سريرية افتراضية جرى عرض بياناتها تدريجيًا، بدءًا من التاريخ المرضي وحتى نتائج الفحوصات المخبرية.

وبيّنت النتائج أن معدلات الفشل في ما يُعرف بالتشخيص التفريقي — أي في ظل نقص المعلومات — تجاوزت 80% لدى جميع النماذج. في المقابل، انخفضت هذه النسبة إلى أقل من 40% عند توفر بيانات أكثر اكتمالًا، حيث حققت أفضل النماذج دقة تجاوزت 90% في التشخيص النهائي.

وكانت شركة Anthropic قد أوضحت أن نموذج “Claude” مصمم لتوجيه المستخدمين إلى استشارة مختصين عند طرح أسئلة طبية، فيما أكدت Google أن نموذج “Gemini” يتضمن تنبيهات تحث المستخدمين على التحقق من المعلومات. كما تنص سياسات OpenAI على عدم استخدام هذه الأدوات لتقديم استشارات طبية احترافية دون إشراف مختصين مؤهلين.

مشاركة