غوغل

أثار تقرير السلامة الذي أصدرته “غوغل” مؤخراً بشأن نموذج الذكاء الاصطناعي الجديد “Gemini 2.5 Pro” انتقادات في أوساط الباحثين، بسبب افتقاره إلى الشفافية والتفاصيل الجوهرية، ما جعل التحقق من التزامات الشركة تجاه السلامة أمراً بالغ الصعوبة.

ورغم أن نشر التقرير يُفترض أن يعزز الثقة بالنموذج، إلا أن خبراء اعتبروا أن محتواه “ضئيل للغاية”، مشيرين إلى غياب معلومات حول “القدرات الخطيرة” التي قد يشكلها النموذج، وعدم الإشارة إلى إطار “Frontier Safety Framework” الذي كانت “غوغل” قد قدمته العام الماضي لضبط المخاطر المستقبلية للذكاء الاصطناعي.

تقرير تأخر كثيراً… ولم يجب على الأسئلة الأساسية

بحسب توماس وودسايد، الشريك المؤسس لمشروع “Secure AI”، فإن توقيت نشر التقرير بعد أسابيع من الإطلاق العلني يعكس تأخراً غير مبرر، في حين أشار بيتر وايلدفورد، من “معهد سياسات الذكاء الاصطناعي”، إلى أن المعلومات الواردة فيه لا تسمح بأي تقييم مستقل أو محاسبة حقيقية.

السباق نحو السوق على حساب السلامة؟

هذه الانتقادات لا تقتصر على “غوغل” وحدها؛ فشركات أخرى مثل “ميتا” و”OpenAI” تتعرض لضغوط مماثلة، بسبب نقص المعلومات حول سلامة نماذجها الأخيرة، وغياب التقارير الفنية أو إصدارها بصيغة عامة وغامضة.

ويرى كيفن بانكستون، من مركز الديمقراطية والتكنولوجيا، أن القطاع يشهد حالياً “سباقاً نحو القاع”، حيث تتسابق الشركات العملاقة لطرح النماذج الجديدة في السوق، حتى لو جاء ذلك على حساب التوثيق والتقييمات الدقيقة لمخاطر الذكاء الاصطناعي.

وعود في مهب الريح؟

الجدير بالذكر أن “غوغل” كانت من أوائل الشركات التي تعهّدت بنشر تقارير علنية لطمأنة الجهات التنظيمية، لكنها اليوم تجد نفسها تحت ضغط متزايد لتوضيح مدى التزامها بهذه الوعود، خاصة في ظل غياب أي تقارير حتى الآن عن نموذج “Gemini 2.5 Flash” الذي تم الإعلان عنه الأسبوع الماضي.

البحث