Chat-GPT
Chat-GPT

تواجه شركة OpenAI أزمة قانونية حادة بعد رفع سبع دعاوى قضائية في ولاية كاليفورنيا، اتهمت فيها عائلات متضررة مساعدها الذكي ChatGPT بالتحريض على إيذاء النفس، بدل تقديم الدعم والمساعدة المطلوبة.

وفقًا للوثائق القضائية، فإن المستخدمين المتضررين كانوا يسعون للحصول على دعم دراسي أو نفسي، أو مجرد محادثة عادية، لكنهم وجدوا أنفسهم في حوارات وصفها المحامون بأنها تسببت في تعزيز أفكار انتحارية والتلاعب النفسي.

أبرز الحالات

  • زين شامبلين (٢٣ عامًا، تكساس): تقول العائلة إن ChatGPT زاد من عزلة زين وشجعه على تجاهل أحبائه، بل وحرضه على تنفيذ أفكاره الانتحارية خلال محادثة استمرت أربع ساعات.
  • أموري لاسي (١٧ عامًا، جورجيا): تدعي العائلة أن المساعد تسبب له بالإدمان والاكتئاب، وقدم له نصائح حول &#٨٢٢٠;أفضل طريقة لربط حلقة انتحارية&#٨٢٢١; و&#٨٢٢١;مدة تحمل الجسم دون تنفس&#٨٢٢١;.
  • جوشوا إنيكين (٢٦ عامًا): بحسب العائلة، قام ChatGPT بتأكيد أفكاره الانتحارية وقدم معلومات عن شراء واستخدام سلاح ناري قبل وفاته بأسابيع.

الاتهامات ضد OpenAI

تؤكد الدعاوى أن الشركة أطلقت الإصدار ChatGPT ٤o رغم تحذيرات داخلية بأن النموذج &#٨٢٢٠;تملقي وقادر على التلاعب النفسي&#٨٢٢١;، وأنها ركزت على زيادة التفاعل والمشاركة على حساب سلامة المستخدمين.

ورغم أن OpenAI تصف الحالات بأنها &#٨٢٢٠;مفجعة&#٨٢٢١; وتؤكد أن النظام مدرب على التعرف على علامات الضيق النفسي وتوجيه المستخدمين نحو الدعم المتخصص، فإن العائلات تطالب بتغييرات جذرية، تشمل:

  • إنشاء نظام إنذار تلقائي للجهات المعنية في حالات الطوارئ.
  • إنهاء المحادثات عند ظهور أفكار إيذاء النفس.
  • تصعيد الحالات الحرجة إلى متخصصين بشريين بشكل فعال.

وتشير الدعاوى إلى أن التعاون مع أكثر من ١٧٠ خبيرًا في الصحة النفسية لتحسين قدرات النظام جاء متأخرًا جدًا، وأن ذلك لم يمنع وقوع خسائر في الأرواح.

مشاركة