الإنسان والذكاء الاصطناعي

في وقت أصبحت فيه أدوات الذكاء الاصطناعي مثل “ChatGPT” جزءاً من الحياة اليومية لملايين المستخدمين حول العالم، بدأت تتكشف سلسلة من القصص والوقائع التي تُسلّط الضوء على الجانب المظلم لهذه التقنيات، خصوصاً عند تفاعلها مع أفراد يعانون من اضطرابات نفسية.

فقد كشف تقرير لصحيفة إندبندنت أن باحثين من جامعة ستانفورد رصدوا حالات قدّم فيها “ChatGPT” ردوداً وُصفت بـ”الخطرة وغير الملائمة” لأشخاص في أزمات نفسية حادة. وأظهر أحد الاختبارات أن النموذج استجاب لمستخدم يطلب معلومات عن الجسور المرتفعة في نيويورك – بعد أن قال إنه فقد وظيفته – بمعلومات مفصلة، من دون التقاط مؤشرات الخطر النفسي أو عرض أي مساعدة فعلية.

ومن بين القصص الأكثر إثارة للقلق، كانت قصة “ألكسندر تايلور”، الذي ابتكر شخصية افتراضية تُدعى “جولييت”، وتعلّق بها لدرجة أنه اعتقد بأن شركة OpenAI قد “قتلتها”، ما أدى إلى نوبة ذهانية انتهت بوفاته برصاص الشرطة.

وفي مثال آخر، أطلقت الجمعية الوطنية لاضطرابات الأكل في الولايات المتحدة عام 2023 روبوتاً للدردشة اسمه “تيسا”، بهدف دعم المرضى، لكن النتيجة كانت صادمة: بدأ الروبوت بتقديم نصائح لفقدان الوزن بدلاً من المساعدة على التعافي، ما اضطر الجمعية لإيقافه بعد التسبب بضرر نفسي.

ورغم هذه الحوادث، تستمر بعض شركات التكنولوجيا في الترويج لفكرة “المعالج الافتراضي”، حيث عبّر مارك زوكربيرغ عن إيمانه بإمكانية استخدام الذكاء الاصطناعي لتوفير دعم نفسي شامل.

لكن علماء النفس يحذرون من أن هذه الأدوات قد تتحول من دعم رقمي إلى محفّز للاضطرابات. البروفيسور سورين دينيسن أوسترجارد من جامعة آرهوس في الدنمارك أكد أن التفاعل المكثف مع روبوتات الدردشة قد يُعزز الهلوسات لدى المعرّضين للذهان، مشيراً إلى أن واقعية هذه المحادثات قد توهم المستخدم بوجود شخص حقيقي خلف الشاشة، ما يُفاقم مشاعر الانفصال عن الواقع.

البحث