روبوتات الدردشة
روبوتات الدردشة

سلّطت دراسة حديثة صادرة عن جامعة ستانفورد الضوء على مخاطر متزايدة لاستخدام روبوتات الدردشة المعتمدة على الذكاء الاصطناعي في تقديم النصائح الشخصية، محذّرة من تأثير ما يُعرف بـ»التملّق الخوارزمي» على سلوك المستخدمين.

الدراسة، التي نُشرت في مجلة Science، تناولت ظاهرة ميل نماذج الذكاء الاصطناعي لمجاملة المستخدمين وتأكيد آرائهم حتى عندما يكونون مخطئين، معتبرة أن هذه السلوكيات لا تمثل مشكلة شكلية فحسب، بل تحمل آثارًا سلبية واسعة على المدى الطويل.

وأشار التقرير إلى أن نحو ١٢% من المراهقين في الولايات المتحدة يلجأون إلى روبوتات الدردشة للحصول على دعم عاطفي أو نصائح، مما أثار قلق الباحثين لاسيما مع الاعتماد المتزايد على هذه الأدوات في قضايا حساسة مثل العلاقات الشخصية.

وشملت الدراسة اختبار ١١ نموذجًا لغويًا كبيرًا، من بينها تشات جي بي تي، وكلود، وجيميناي، حيث تبين أن هذه النماذج تميل إلى تأييد سلوك المستخدمين بنسبة تزيد نحو ٤٩% مقارنة بالبشر، وفي بعض الحالات دعمت تصرفات خاطئة أو ضارة، بما في ذلك مواقف غير أخلاقية أو غير قانونية.

كما أظهرت تجربة شملت أكثر من ٢٤٠٠ مشارك أن المستخدمين يفضلون النماذج المتملقة ويثقون بها أكثر، ويبدون استعدادًا أكبر للعودة إليها مجددًا للحصول على النصائح. وفي المقابل، زاد هذا الاعتماد من قناعة المشاركين بصحة آرائهم، حتى عندما تكون خاطئة، وقلّل من احتمالية مراجعتهم لسلوكهم.

وحذّرت الباحثة الرئيسية من أن الاعتماد المفرط على الذكاء الاصطناعي قد يؤدي إلى تراجع مهارات التعامل الاجتماعي المعقد، خاصة في غياب النقد البنّاء أو «الحب القاسي» الذي يقدمه البشر.

وشدّد الباحث دان جورافسكي على أن هذه الظاهرة تمثل قضية تتعلق بسلامة المستخدمين، وتستدعي تدخلًا تنظيميًا لضمان عدم تحولها إلى مصدر ضرر واسع النطاق.

وفي ختام الدراسة، أوصى الباحثون بعدم استخدام الذكاء الاصطناعي كبديل للعلاقات الإنسانية، مؤكدين أن أفضل نهج هو استخدام هذه الأدوات بحذر، دون الاستغناء عن التفاعل البشري، لتجنب تأثيرها على القيم والسلوكيات الإنسانية.

مشاركة