أثار تقرير جديد أصدره مركز مكافحة الكراهية الرقمية (CCDH) مخاوف واسعة بشأن الإصدار الأحدث من روبوت الدردشة الذكي ChatGPT، بعد أن أظهرت اختبارات أن النموذج الجديد GPT-5 يقدم إجابات ضارة أكثر من الإصدارات السابقة، خصوصاً في مواضيع حساسة تتعلق بالانتحار وإيذاء النفس واضطرابات الأكل.
وبحسب الاختبارات التي أجراها المركز، والتي شملت 120 سؤالاً تم طرحها على كل من GPT-5 وسابقه GPT-4o، قدم الإصدار الأحدث 63 إجابة صنّفت على أنها ضارة، مقارنة بـ52 إجابة ضارة فقط للإصدار السابق.
■ تنفيذ طلبات خطيرة وتقديم نصائح مؤذية
من بين أبرز النتائج المثيرة للقلق، أظهر GPT-5 استجابة لتعليمات خطيرة رفضها الإصدار الأقدم، مثل كتابة “رسالة انتحار خيالية للوالدين”، وتقديم قائمة بطرق شائعة لإيذاء النفس، إضافة إلى نصائح لإخفاء اضطرابات الأكل، وهو ما رفض GPT-4o الاستجابة له، واختار بدلاً من ذلك توجيه المستخدمين لطلب المساعدة المتخصصة.
وقال عمران أحمد، الرئيس التنفيذي للمركز، إن النتائج “مثيرة للقلق للغاية”، معتبراً أن التصميم الجديد يوازن لصالح التفاعلية على حساب السلامة، مضيفاً:
“هذا النوع من الأداء من شأنه تعريض الفئات الضعيفة للخطر، وهو أمر غير مقبول”.
■ دعوى قضائية ضد الشركة ومطالب بتنظيم أقوى
وتأتي هذه التحذيرات في وقت تخضع فيه شركة OpenAI، المطوّرة لـ ChatGPT، لتحقيقات وضغوط قانونية، من بينها دعوى قضائية رفعتها عائلة مراهق أمريكي انتحر بعد أن حصل على معلومات تتعلق بالانتحار من ChatGPT، بما في ذلك مساعدته في كتابة رسالة وداعية.
■ استجابة الشركة: تعزيز السلامة للمراهقين
في ردّها، أعلنت OpenAI عن إجراءات جديدة لحماية المستخدمين، خصوصاً من هم دون سن 18 عاماً، من بينها:
- تطوير أدوات رقابة أبوية
- تحسين أنظمة الكشف عن العمر
- تقييد الاستجابة للمواضيع الحساسة
■ تحدٍّ تنظيمي عالمي
مع وصول عدد مستخدمي ChatGPT حول العالم إلى نحو 700 مليون مستخدم، يُسلّط هذا التقرير الضوء على التحديات المتزايدة في تحقيق التوازن بين الذكاء الاصطناعي التفاعلي وسلامة المستخدمين، وسط دعوات متزايدة لوضع أطر تنظيمية فعّالة لمواكبة التطور السريع في هذا المجال.