Chat-GPT

تواجه شركة OpenAI أزمة قانونية حادة بعد رفع سبع دعاوى قضائية في ولاية كاليفورنيا، اتهمت فيها عائلات متضررة مساعدها الذكي ChatGPT بالتحريض على إيذاء النفس، بدل تقديم الدعم والمساعدة المطلوبة.

وفقًا للوثائق القضائية، فإن المستخدمين المتضررين كانوا يسعون للحصول على دعم دراسي أو نفسي، أو مجرد محادثة عادية، لكنهم وجدوا أنفسهم في حوارات وصفها المحامون بأنها تسببت في تعزيز أفكار انتحارية والتلاعب النفسي.

أبرز الحالات

  • زين شامبلين (23 عامًا، تكساس): تقول العائلة إن ChatGPT زاد من عزلة زين وشجعه على تجاهل أحبائه، بل وحرضه على تنفيذ أفكاره الانتحارية خلال محادثة استمرت أربع ساعات.
  • أموري لاسي (17 عامًا، جورجيا): تدعي العائلة أن المساعد تسبب له بالإدمان والاكتئاب، وقدم له نصائح حول “أفضل طريقة لربط حلقة انتحارية” و”مدة تحمل الجسم دون تنفس”.
  • جوشوا إنيكين (26 عامًا): بحسب العائلة، قام ChatGPT بتأكيد أفكاره الانتحارية وقدم معلومات عن شراء واستخدام سلاح ناري قبل وفاته بأسابيع.

الاتهامات ضد OpenAI

تؤكد الدعاوى أن الشركة أطلقت الإصدار ChatGPT 4o رغم تحذيرات داخلية بأن النموذج “تملقي وقادر على التلاعب النفسي”، وأنها ركزت على زيادة التفاعل والمشاركة على حساب سلامة المستخدمين.

ورغم أن OpenAI تصف الحالات بأنها “مفجعة” وتؤكد أن النظام مدرب على التعرف على علامات الضيق النفسي وتوجيه المستخدمين نحو الدعم المتخصص، فإن العائلات تطالب بتغييرات جذرية، تشمل:

  • إنشاء نظام إنذار تلقائي للجهات المعنية في حالات الطوارئ.
  • إنهاء المحادثات عند ظهور أفكار إيذاء النفس.
  • تصعيد الحالات الحرجة إلى متخصصين بشريين بشكل فعال.

وتشير الدعاوى إلى أن التعاون مع أكثر من 170 خبيرًا في الصحة النفسية لتحسين قدرات النظام جاء متأخرًا جدًا، وأن ذلك لم يمنع وقوع خسائر في الأرواح.

البحث