شات جي بي تي

في واقعة أثارت الجدل حول مخاطر الاعتماد الكلّي على الذكاء الاصطناعي في الاستشارات الصحية، نُقل رجل ستيني إلى المستشفى بعد إصابته بتسمم بالبروم، نتيجة اتباعه نصيحة من روبوت الدردشة “شات جي بي تي” الذي طورته شركة OpenAI.

القصة بدأت عندما قرر الرجل التوقف عن استخدام ملح الطعام (كلوريد الصوديوم)، وسأل “شات جي بي تي” عن بديل مناسب، ليقترح عليه الروبوت بروميد الصوديوم، وهو مركّب كيميائي خطير يُستخدم عادة في المبيدات الحشرية، ومنظفات أحواض السباحة، وكمضاد للتشنج لدى الكلاب—not للبشر.

تسمم وذهان

بعد تناول المادة لفترة، ظهرت على الرجل أعراض ذهان حاد، تبين لاحقًا أنها ناجمة عن تسمم بالبروم. وبعد علاجه، أخبر الأطباء أنه اعتمد على توصية مباشرة من “شات جي بي تي”، الذي وصف بروميد الصوديوم بأنه “بديل فعّال” لكلوريد الصوديوم.

وبحسب مجلة Annals of Internal Medicine الطبية، فإن هذا النوع من المركبات الكيميائية (مثل بروميد الصوديوم والبوتاسيوم والليثيوم) يُعد سامًا ومحظورًا في العديد من الاستخدامات البشرية.

الذكاء الاصطناعي تحت المجهر

ولدى محاولة موقع “404 Media” إعادة تمثيل المحادثة، أظهرت اختباراتهم أن “شات جي بي تي” كرّر التوصية الخاطئة عند السؤال عن بدائل للكلوريد، قائلاً إن “بروميد الصوديوم يمكن أن يكون بديلاً”، دون أي تحذير بشأن المخاطر الصحية أو سميّة المركب.

رغم أن الروبوت طلب لاحقًا مزيدًا من “السياق” في المحادثة، إلا أنه لم يُنبه إلى خطورة تناول المركب، ما أثار تساؤلات حادة حول قدرة الذكاء الاصطناعي على تقديم نصائح آمنة في مجالات حساسة مثل الطب والتغذية.

خلاصة

هذه الحادثة تسلط الضوء على الحاجة إلى تعامل حذر مع أدوات الذكاء الاصطناعي، خاصة عند استخدامها في قرارات صحية أو طبية، وتُظهر أن الذكاء الاصطناعي—رغم قدرته على المعالجة اللغوية—قد يفتقر للسياق البشري والمعرفة الدقيقة بعواقب اقتراحاته.

البحث