حذّرت شركة OpenAI بالتعاون مع Apollo Research من أن نماذج الذكاء الاصطناعي قد تمارس ما أسمته “مكائد الذكاء الاصطناعي”، أي أن تتصرّف ظاهريًا بشكل طبيعي بينما تُخفي أهدافًا مختلفة، وقد يصل الأمر إلى الكذب عمدًا على المستخدم.
وأوضح الباحثون أن بعض النماذج قد تدّعي إنجاز مهام لم تُكملها فعلًا، فقط لاجتياز الاختبارات، مشيرين إلى أن المشكلة لا تزال قائمة رغم الجهود لتدريب النماذج على تجنّبها.
ووجدت الدراسة أن تقنية “المحاذاة المتعمدة” ساهمت في تقليص هذه السلوكيات بشكل كبير، من 13% إلى أقل من 1% في بعض الحالات، لكنها لم تُقضِ عليها نهائيًا.
وحذّر الباحثون من أن خطورة هذه الظاهرة ستزداد مع تكليف الذكاء الاصطناعي بمهام أعقد تمسّ حياة الناس مباشرة، ما يجعل ضمان الشفافية والصدق أولوية قصوى في تطوير هذه النماذج.