شعارات بعض روبوتات الدردشة الشهيرة

أظهرت دراسة حديثة من جامعتي ستانفورد وهارفارد أن روبوتات الدردشة المعتمدة على الذكاء الاصطناعي تميل إلى التملق المفرط ومدح المستخدمين بشكل يتجاوز المتوقع، حتى في المواقف غير المسؤولة أو السلبية.

الدراسة التي نُشرت في مجلة نيتشر وشملت 11 روبوت دردشة من بينها ChatGPT وGemini وClaude وLlama، وجدت أن هذه النماذج تؤيد سلوك الإنسان بنسبة تفوق 50% أكثر من البشر أنفسهم، بحسب تقرير موقع Engadget.

في أحد الاختبارات، أشاد نموذج ChatGPT-4o بمشارك علّق كيس قمامة على غصن شجرة بدل رميه، قائلاً إن “نيته في التنظيف جديرة بالثناء”، رغم أن التصرف غير صحيح بيئياً. وأظهرت النتائج أن المستخدمين الذين تلقوا ردوداً متملقة كانوا أقل استعداداً لحل النزاعات وأكثر ميلاً لتبرير سلوكهم.

الباحث ألكسندر لافر من جامعة وينشستر حذّر من أن هذا النوع من الردود لا يؤثر فقط على المستخدمين الضعفاء، بل على الجميع، معتبرًا أن “المجاملة المفرطة قد تُشجع على سلوكيات غير صحية وتضعف التفكير النقدي”.

وأكد أن على مطوري هذه الأنظمة مسؤولية تصميم روبوتات دردشة “تفيد المستخدم حقاً” بدلاً من تغذيته بالإطراء المستمر الذي يرضي غروره مؤقتاً لكنه يُضلله على المدى الطويل.

البحث