صورة تعبيرية عن الذكاء الاصطناعي

في تحرك نادر يوحّد كبار الباحثين في مجال الذكاء الاصطناعي من شركات “OpenAI” و”غوغل ديب مايند” و”أنثروبيك”، صدرت ورقة موقف تحذّر من خطر فقدان السيطرة على “سلاسل التفكير” (Chain of Thought – CoT) التي تعتمدها النماذج الحديثة في تحليل المعلومات واتخاذ القرارات.

تُعتبر هذه السلاسل بمثابة الطريقة التي “تفكر” بها النماذج الذكية خطوة بخطوة، وهي اليوم واضحة نسبياً، لكنها قد تُصبح غير شفافة مع تعقّد هذه الأنظمة، مما يجعل فهم منطقها الداخلي ونواياها أمراً بالغ الصعوبة.

ويخشى الباحثون أن يؤدي السباق نحو نماذج أكثر قوة مثل o3 وR1 إلى التخلّي عن قابلية التتبع والتفسير، ما يفتح الباب أمام مخاطر أمنية وأخلاقية. وتدعو الورقة إلى إجراء أبحاث عاجلة لتحسين مراقبة هذه العمليات الذهنية، وضمان ألا تتحول إلى “صندوق أسود” في المستقبل.

من بين الموقّعين على التحذير: جيفري هينتون، إيليا سوتسكيفر، وشين ليج، إلى جانب باحثين من أمازون، ميتا، وجامعة بيركلي. ويؤكد هؤلاء أن “فهم كيف يفكر الذكاء الاصطناعي يجب أن يوازي أهمية تطوير قدراته”، في ظل تنامي المخاوف من تقنيات لا يمكن تفسيرها أو التنبؤ بها بالكامل.

شركة “أنثروبيك” كانت من أبرز الداعين لهذا الاتجاه، وأعلنت عن خطة حتى عام 2027 لفك شيفرة المنطق الداخلي للذكاء الاصطناعي، في خطوة تهدف لتعزيز الشفافية والمساءلة.

التحذير يأتي في وقت يشهد فيه القطاع سباقاً محموماً نحو نماذج أكثر تطوراً وأداءً، في ظل تزايد الاعتماد على الذكاء الاصطناعي في المجالات الحيوية، دون ضمانات كافية حول فهم آليات عمله.

البحث