كشفت دراسة علمية حديثة أن الذكاء الاصطناعي قد يتفوق على الإنسان في قدرته على الإقناع أثناء المناظرات، مما يثير تساؤلات ملحة حول تداعيات ذلك على الحياة السياسية والانتخابات في العالم.
الدراسة، التي نُشرت في مجلة “Nature Human Behaviour”، أشرف عليها فريق بحثي من المعهد الفيدرالي السويسري للتكنولوجيا في لوزان. وخلصت إلى أن النماذج اللغوية المتقدمة، وعلى رأسها “تشات جي بي تي – 4″، باتت قادرة على بناء حجج مقنعة تتفوق في أحيان كثيرة على نظيرتها البشرية، لا سيما عند توفر معلومات شخصية عن الطرف الآخر.
روبوتات تقنع وتصوت؟
أعرب فرانشيسكو سالفي، الباحث الرئيسي في الدراسة، عن قلقه من الاستخدامات المحتملة لهذه التكنولوجيا في المجال السياسي، قائلًا: “يمكن تخيل جيوش من الروبوتات تستهدف الناخبين المترددين برسائل مصممة بعناية، تبدو واقعية تمامًا”. وأضاف: “هذه التأثيرات قد تكون خفية، ومن شبه المستحيل تتبعها أو دحضها في الوقت الفعلي”.
شملت الدراسة 900 مشارك وُزعوا على ثلاث مجموعات، حيث ناظر بعضهم فريقًا من المشاركين، فيما واجه آخرون الذكاء الاصطناعي، بينما خُصصت مجموعة ثالثة للمقارنة. وغطت المواضيع المطروحة في المناظرات قضايا متنوعة، من ارتداء الزي المدرسي، إلى قضايا أكثر حساسية مثل تقنين الإجهاض.
وفقًا للنتائج، فإن الذكاء الاصطناعي حقق أداءً مماثلًا للبشر في حالات غابت فيها المعلومات الشخصية. غير أن تفوقه بدا جليًا عندما أُتيح له استخدام بيانات عن الطرف الآخر، مثل العمر أو التوجه السياسي، حيث فاز في 64% من الحالات.
القدرة على التخصيص: سلاح ذو حدين
يعزو الباحثون تفوق الذكاء الاصطناعي إلى قدرته على تخصيص الحجج بما يتلاءم مع خلفية المتلقي. وهو ما أكده سالفي بقوله: “كأنك تتحاور مع شخص لا يجيد طرح الحجج فحسب، بل يعرف أي نوع منها يناسبك بالضبط”.
لم تخلُ الدراسة من الإشارة إلى بعض الجوانب الإيجابية المحتملة لاستخدام الذكاء الاصطناعي الإقناعي، مثل المساهمة في تقليل انتشار نظريات المؤامرة، والتخفيف من حدة الاستقطاب السياسي، أو حتى تشجيع الأفراد على اتباع نمط حياة صحي.
لكن القلق الأبرز ظل يدور حول مخاطر التوظيف غير الأخلاقي لهذه القدرات. وحذر البروفيسور مايكل وولدريدج، الباحث في الذكاء الاصطناعي بجامعة أكسفورد، من أن استقطاب المراهقين من قبل جماعات متطرفة لم يعد سيناريو خياليًا، بل واقعًا بات ممكنًا مع تطور هذه النماذج. وأضاف: “كلما ازداد تطور الذكاء الاصطناعي، اتسع نطاق إساءة استخدامه”، مشددًا على ضرورة تحرك الجهات التشريعية والتنظيمية بشكل استباقي، لا أن تكتفي بردود الأفعال المتأخرة.
عودة شبح التلاعب الجماهيري؟
من جانبه، رأى البروفيسور ساندر فان دير ليندن، أستاذ علم النفس الاجتماعي في جامعة كامبريدج، أن الدراسة تعيد إلى الواجهة التساؤلات حول إمكانية التلاعب بالرأي العام من خلال محادثات شخصية مصممة اعتمادًا على نماذج لغوية قوية. وأكد أن نتائج دراسات سابقة، بينها أبحاثه، تشير إلى أن قوة الإقناع في هذه النماذج ترتكز بشكل أساسي على المنطق والتحليل، لا بالضرورة على المعلومات الشخصية، في وقت لم تُجمع فيه الأوساط العلمية بعد على طبيعة العلاقة الدقيقة بين تخصيص الرسائل وزيادة فعاليتها.
يفتح الذكاء الاصطناعي أبوابًا واسعة للجدل حول مستقبل الخطاب العام، وحدود ما يمكن أن تفعله الآلة في تشكيل القناعات والقرارات… ومعها مستقبل الديمقراطية.