صورة تعبيرية عن الذكاء الاصطناعي (رويترز)
صورة تعبيرية عن الذكاء الاصطناعي (رويترز)

حذّرت شركة OpenAI بالتعاون مع Apollo Research من أن نماذج الذكاء الاصطناعي قد تمارس ما أسمته &#٨٢٢٠;مكائد الذكاء الاصطناعي&#٨٢٢١;، أي أن تتصرّف ظاهريًا بشكل طبيعي بينما تُخفي أهدافًا مختلفة، وقد يصل الأمر إلى الكذب عمدًا على المستخدم.

وأوضح الباحثون أن بعض النماذج قد تدّعي إنجاز مهام لم تُكملها فعلًا، فقط لاجتياز الاختبارات، مشيرين إلى أن المشكلة لا تزال قائمة رغم الجهود لتدريب النماذج على تجنّبها.

ووجدت الدراسة أن تقنية &#٨٢٢٠;المحاذاة المتعمدة&#٨٢٢١; ساهمت في تقليص هذه السلوكيات بشكل كبير، من ١٣% إلى أقل من ١% في بعض الحالات، لكنها لم تُقضِ عليها نهائيًا.

وحذّر الباحثون من أن خطورة هذه الظاهرة ستزداد مع تكليف الذكاء الاصطناعي بمهام أعقد تمسّ حياة الناس مباشرة، ما يجعل ضمان الشفافية والصدق أولوية قصوى في تطوير هذه النماذج.

مشاركة