في دراسة رائدة أجراها باحثون من جامعتي جنيف وبرن في سويسرا، تم اختبار ستة أنظمة للذكاء الاصطناعي، بما في ذلك “شات جي بي تي”، باستخدام تقييمات الذكاء العاطفي المصممة عادة للبشر. كان الهدف من الاختبار الإجابة عن سؤال محوري: هل يستطيع الذكاء الاصطناعي اقتراح سلوك مناسب في المواقف العاطفية؟
النتائج كانت مدهشة: تفوقّت أنظمة الذكاء الاصطناعي على متوسط الأداء البشري، بل واستطاعت توليد اختبارات جديدة في وقت قياسي. وفقًا لـ”ساينس دايلي”، تفتح هذه النتائج آفاقًا جديدة لاستخدام الذكاء الاصطناعي في مجالات مثل التعليم، التدريب، وإدارة النزاعات.
نماذج اللغة الكبيرة (LLMs)، التي يعتمد عليها الذكاء الاصطناعي التوليدي مثل “شات جي بي تي”، قادرة على معالجة اللغة البشرية وتفسيرها وتوليدها، مما يمكنها من الإجابة عن أسئلة وحل مشكلات معقدة. لكن السؤال الذي طرحه الباحثون هو: هل يمكنها أيضًا اقتراح سلوكيات تتسم بالذكاء العاطفي؟
لاختبار ذلك، اختار فريق البحث خمسة اختبارات شائعة الاستخدام في البيئات البحثية والشركات. أوضحت كاتيا شليغل، الباحثة الرئيسية، أن هذه الاختبارات “شملت سيناريوهات مشحونة عاطفيًا مصممة لتقييم القدرة على فهم العواطف وتنظيمها وإدارتها”. على سبيل المثال، طرح الاختبار سيناريو: “سرق أحد زملاء مايكل فكرته، وتلقى تهنئة غير عادلة. ما هو رد فعل مايكل الأكثر فاعلية؟” وكانت الخيارات تتراوح بين الجدال، التحدث إلى الرئيس، الاستياء بصمت، أو استعادة الفكرة، والإجابة الأنسب كانت التحدث إلى الرئيس.
بالتوازي، أُجريت الاختبارات الخمسة نفسها على مشاركين بشريين. في النهاية، حققت برامج الذكاء الاصطناعي درجات أعلى بكثير، بنسبة 82% من الإجابات الصحيحة مقارنة بـ 56% للبشر. يشير هذا إلى أن أنظمة الذكاء الاصطناعي لا تفهم المشاعر فحسب، بل تدرك أيضًا معنى التصرف بذكاء عاطفي، كما يوضح مارسيلو مورتيلارو، الباحث المشارك من جامعة جنيف.
في مرحلة ثانية، طلب العلماء من “شات جي بي تي 4” إنشاء اختبارات جديدة للذكاء العاطفي بسيناريوهات جديدة. ثم أجرى أكثر من 400 مشارك هذه الاختبارات المولدة تلقائيًا. أكدت الباحثة كاتيا شليغل أن “هذه الاختبارات أثبتت موثوقيتها ووضوحها وواقعيتها، تمامًا مثل الاختبارات الأصلية التي استغرق تطويرها سنوات”. يثبت هذا أن برامج الذكاء الاصطناعي قادرة على توليد سيناريوهات جديدة تتكيف مع السياق المطلوب.
تمهد هذه النتائج الطريق لاستخدام الذكاء الاصطناعي في سياقات كان يُعتقد أنها مخصصة للبشر، مثل التعليم أو التدريب أو إدارة الصراعات، شريطة أن يتم استخدامه والإشراف عليه من قبل خبراء.