افتتحت شركة ديب سيك الصينية عام 2026 بورقة بحثية جديدة، أعدها مؤسس الشركة ليانغ وينفنغ، تكشف عن توجه الشركة لإعادة التفكير في بنية تدريب نماذج الذكاء الاصطناعي الضخمة بهدف تقليل التكاليف مع الحفاظ على التنافسية.
الورقة، المنشورة على منصة “arXiv”، قدمت منهجية Manifold-Constrained Hyper-Connections (mHC)، والتي تهدف إلى تدريب النماذج الأساسية بكفاءة أعلى وبعبء حوسبي أقل. الاختبارات على نماذج تضم 3 مليارات و9 مليارات و27 مليار معامل أظهرت توسعًا سلسًا دون زيادة كبيرة في متطلبات الحوسبة.
تعتمد mHC على تحسينات ذكية للبنية التحتية وتوسعة قابلة للتطبيق على نطاق واسع، مقدمة تطويرًا على مفاهيم Hyper-Connections التي طرحتها بايت دانس في 2024، والتي تحسّن على بنية ResNet الأساسية للعديد من نماذج الذكاء الاصطناعي الحديثة مثل GPT وAlphaFold.
ويرى مراقبون أن منشورات ديب سيك البحثية غالبًا ما تمهّد الطريق لإعلاناتها عن نماذج جديدة، مع توقع إطلاق نموذج جديد قبل عيد الربيع الصيني منتصف فبراير. كما تعكس الورقة استمرار مشاركة ليانغ وينفنغ المباشرة في الأبحاث الجوهرية للشركة، مما يعزز التوجه نحو نماذج أذكى وأكثر كفاءة بتكلفة أقل.