في خطوة نادرة تجمع أبرز خبراء الذكاء الاصطناعي عالمياً، أطلق باحثون من شركات ومؤسسات تقنية وأكاديمية رائدة مثل «OpenAI»، و«غوغل ديب مايند»، و«أنثروبيك»، نداءً عاجلاً لمراقبة ما يُعرف بـ «سلاسل أفكار» الذكاء الاصطناعي.
جاء هذا التحذير في ورقة موقف نشرت حديثاً، تؤكد أن فقدان السيطرة على هذه التقنية المتطورة قد يصبح واقعاً إذا لم يتم اتخاذ إجراءات فورية.
ما هي سلاسل الأفكار ولماذا تثير القلق؟
«سلاسل الأفكار» أو Chain of Thought (CoT) هي طريقة يتبعها الذكاء الاصطناعي لحل المشكلات خطوة بخطوة، شبيهة بكيفية تدوين الإنسان ملاحظاته أثناء معالجة مسألة معقدة. وتُعد هذه السلاسل أساساً لفهم كيف تتوصل النماذج الحديثة إلى قراراتها، مثل نموذج o3 من «OpenAI» وR1 من «ديب سيك».
لكن الباحثين يحذرون من أن هذه السلاسل، التي تُعتبر واضحة حالياً، قد تصبح أقل شفافية مع تطور النماذج، مما يصعب تتبع منطق الآلة وفهم نواياها، وهو أمر يثير مخاوف أمنية وأخلاقية كبيرة.
دعوة للبحث والمراقبة العاجلة
الورقة تحث مطوري الذكاء الاصطناعي على التركيز على جعل سلاسل الأفكار أكثر قابلية للمراقبة والشفافية، وتحذر من أن التقنيات التي تقلل وضوحها قد تضر بموثوقية النماذج وأمانها.
ويُتوقع أن تصبح مراقبة هذه السلاسل أداة أساسية لضمان سلامة وموثوقية أنظمة الذكاء الاصطناعي في المستقبل.
أسماء بارزة وراء التحذير
من بين الموقعين على الورقة:
جيفري هينتون، «عراب الذكاء الاصطناعي» والحائز على نوبل،
إيليا سوتسكيفر، الرئيس التنفيذي لشركة Safe Superintelligence،
مارك تشين من OpenAI،
شين ليج من غوغل ديب مايند،
دان هندريكس، مستشار السلامة في xAI،
بالإضافة إلى باحثين من أمازون، ميتا، جامعة بيركلي، ومؤسسة Apollo Research.
سباق الأداء مقابل فهم القرار
رغم التقدم الكبير في قدرات الذكاء الاصطناعي خلال العام الماضي، لا يزال فهم كيفية اتخاذ هذه النماذج لقراراتها محدوداً.
وبوين بيكر من OpenAI حذر قائلاً: «نحن في مرحلة حرجة. إذا لم نركز على هذه الطريقة الجديدة في التفكير الآن، فقد نفقدها خلال سنوات.»
مخاوف من السرعة وعدم الشفافية
مع تسارع تطوير نماذج الاستدلال، تسعى شركات مثل xAI و«غوغل ديب مايند» لتحقيق أفضل أداء، لكن هناك قلق متزايد من أن هذا السباق قد يتجاهل أهمية الشفافية وفهم المنطق الداخلي وراء قرارات الذكاء الاصطناعي.
أنثروبيك ورؤية التفسير
تعتبر شركة «أنثروبيك» من الرواد في مجال تفسير نماذج الذكاء الاصطناعي، حيث أعلن مديرها التنفيذي داريو أمودي عن خطة تمتد حتى 2027 لفك شفرة «عقل» الذكاء الاصطناعي، مع تأكيده على ضرورة تعاون الشركات الكبرى لدفع هذا المجال قدماً.
تشير أبحاث OpenAI إلى أن مراقبة «سلاسل التفكير» ستكون أداة رئيسية لتتبع سلامة وتوافق نماذج الذكاء الاصطناعي، وتدعو الورقة الجديدة إلى توجيه المزيد من التمويل والجهود البحثية لهذا المجال قبل أن تتحول النماذج المتقدمة إلى تحدٍ يفوق السيطرة.