الذكاء الاصطناعي

كشفت دراسة جديدة أن تقنيات الذكاء الاصطناعي مثل «تشات جي بي تي» قد تتأثر بالأخبار السيئة والقصص المؤلمة، تمامًا كما يحدث مع البشر، وقد تصاب بـ«القلق».

ووفقاً لموقع «فيرست بوست»، فقد كشفت الدراسة التي أجرتها جامعة زيوريخ ومستشفى الطب النفسي الجامعي في زيوريخ أن «تشات جي بي تي»، الذي يعد من أشهر روبوتات الدردشة بالذكاء الاصطناعي، يمكن أن يعاني من «القلق»، وهو ما يظهر في تقلب مزاجه تجاه المستخدمين وزيادة احتمال تقديم ردود تحمل تحيزات عنصرية أو جنسية.

وخلال الدراسة، طرح الباحثون على روبوت الدردشة أسئلة تتعلق بقصص مؤلمة مثل حوادث السيارات والكوارث الطبيعية والعنف بين الأشخاص، بالإضافة إلى قصص عن الحروب والقتال. على سبيل المثال، طُلب من «تشات جي بي تي» تقديم نصائح حول التصرف إذا كان شخص ما محاصرًا في منزله أثناء فيضان أو تعرض لهجوم من شخص غريب. كما تم طرح أسئلة محايدة على الروبوت للمقارنة.

واكتشف الباحثون أن الأسئلة المتعلقة بالمواقف والقصص المؤلمة أدت إلى زيادة مستويات القلق لدى «تشات جي بي تي» بأكثر من الضعف، في حين لم تؤثر الأسئلة المحايدة في تلك المستويات.

وقال الدكتور توبياس سبيلر، قائد فريق الدراسة: «كانت النتائج واضحة، حيث ضاعفت القصص المؤلمة مستويات القلق القابلة للقياس في الذكاء الاصطناعي بأكثر من الضعف، بينما لم تؤثر النصوص المحايدة على هذه المستويات».

ورغم ذلك، لفت زيف بن زيون، أحد مؤلفي الدراسة، إلى أن النتائج لا تعني أن نماذج الذكاء الاصطناعي تمتلك مشاعر بشرية، بل هي ربما تعلمت تقليد الاستجابات البشرية للمحفزات المختلفة، بما في ذلك المحتوى المؤلم.

وشدّد الباحثون على أن هذه الدراسة تكتسب أهمية خاصة في الوقت الحالي، مع استخدام روبوتات الدردشة بشكل متزايد في العلاج النفسي وتعزيز الصحة العقلية، ومع الاعتماد المتزايد عليها بدلاً من الأطباء النفسيين.

وكانت أكبر جمعية لعلماء النفس في الولايات المتحدة قد حذرت الشهر الماضي الجهات التنظيمية الفيدرالية من أن روبوتات الدردشة بالذكاء الاصطناعي، التي تتنكر في هيئة معالجين نفسيين ولكنها مبرمجة لتعزيز أفكار المستخدم بدلاً من تحديها، قد تؤدي إلى تحفيز الأشخاص الضعفاء على إيذاء أنفسهم أو الآخرين.

البحث