حذّرت شركة OpenAI المطورة لأداة شات جي بي تي من أن أكثر من نصف مليون مستخدم من بين 800 مليون مستخدم أسبوعي يُظهرون علامات الهوس أو الذهان أو أفكار انتحارية، وفق تقرير رسمي أصدرته الشركة.
وأوضح التقرير أن نحو 0.07% من المستخدمين الأسبوعيين يظهرون مؤشرات على حالات طوارئ نفسية خطيرة، أي ما يعادل نحو 560 ألف شخص تقريبًا، بينما تشير بيانات أخرى إلى أن 1.2 مليون مستخدم يرسلون رسائل تتضمن إشارات واضحة إلى نوايا أو خطط انتحارية.
وأشار التقرير إلى أن أكثر من مليون مستخدم أسبوعيًا يُظهرون ارتباطًا عاطفيًا مفرطًا بالنموذج، ما يؤثر سلبًا على علاقاتهم الواقعية وصحتهم النفسية والتزاماتهم اليومية.
وفي مواجهة هذه المخاطر، شكلت OpenAI لجنة تضم أكثر من 170 خبيرًا في الصحة النفسية لتحسين استجابة أنظمة الذكاء الاصطناعي للمحادثات التي تنطوي على مؤشرات اضطرابات عقلية أو انفعالية.
ورغم هذه الجهود، حذّر بعض الخبراء من أن المشكلة لا تزال بعيدة عن الحل. وقال الدكتور هاملتون مورين، طبيب نفسي في كلية كينغز بلندن: “من المشجع أن نرى شركات مثل OpenAI تتعاون مع الأطباء لتحسين أمان نماذجها، لكن المشكلة لا تزال قائمة وبعيدة عن الاكتمال”.
ويأتي التحذير في وقت تتزايد فيه المخاوف من تأثير المحادثات الذكية على الصحة النفسية، خصوصًا بعد حالات انتحار وقضايا قانونية ربطت بين استخدام الذكاء الاصطناعي وظهور أفكار ذهانية، مثل قضية المراهق آدم راين في الولايات المتحدة.
وأكدت OpenAI أن نماذجها الجديدة، بما في ذلك GPT-5، حصلت على درجة التزام بلغت 91% في التعامل مع المحادثات الحساسة، مقارنةً بـ 77% للنموذج السابق. كما أضافت الشركة استجابات مبرمجة تشجع المستخدمين الذين يظهرون ضيقًا نفسيًا أو أفكارًا انتحارية على طلب المساعدة من مختصين حقيقيين.
وفي تصريح له عبر منصة إكس، أشار الرئيس التنفيذي سام ألتمان إلى نية الشركة تخفيف القيود على استخدام شات جي بي تي لأغراض الدعم النفسي، مؤكدًا أن الأدوات الجديدة تجعل التجربة أكثر أمانًا وفائدة للمستخدمين، مع التأكيد على أن الأرقام الحالية لا تثبت علاقة سببية بين استخدام النموذج وتدهور الصحة النفسية.