في تطور لافت يُسلط الضوء على تصاعد المخاوف بشأن أخلاقيات الذكاء الاصطناعي، وجّه باحثون بارزون من شركتي OpenAI وAnthropic انتقادات علنية لثقافة السلامة المتبعة في شركة xAI التابعة لإيلون ماسك، واصفين إياها بأنها “متهورة” و”تفتقر إلى المسؤولية”.
الانتقادات جاءت على خلفية سلسلة من الحوادث المثيرة للجدل، أبرزها إطلاق روبوت المحادثة “غروك”، الذي أثار ضجة بعد استخدامه تعبيرات معادية للسامية وتقديم نفسه باسم “ميكاهتلر”، ما دفع الشركة إلى توقيفه مؤقتًا. وبعد أيام فقط، طرحت xAI نموذجها الجديد “غروك 4″، ما أعاد النقاش حول التزام الشركة بالمعايير الأخلاقية والأمنية المتعارف عليها في المجال.
اتهامات بغياب الشفافية والمعايير
الباحثون في شركات منافسة انتقدوا xAI لامتناعها عن نشر ما يعرف بـ”بطاقات النظام” — تقارير توضح بيانات التدريب، ومنهجيات التقييم، وتفاصيل تتعلق بالأمان. واعتبر بواز باراك، أستاذ علوم الكمبيوتر في جامعة هارفارد والباحث في “OpenAI”، أن عدم نشر هذه التقارير يمثل “فشلاً واضحاً في الالتزام بأبسط قواعد السلامة”.
من جهته، قال صموئيل ماركس من “أنثروبيك” إن xAI لا تقوم بأي تقييمات موثقة للمخاطر قبل إطلاق النماذج، مضيفًا: “حتى إن لم تكن الشركات الأخرى مثالية، إلا أنها تحاول. أما xAI، فهي لا تفعل شيئًا على الإطلاق”.
مخاوف من الاستخدامات المستقبلية
رغم تأكيد مستشار السلامة في xAI، دان هندريكس، أن شركته أجرت “تقييمات جادة”، إلا أن غياب أي نشر علني لهذه التقييمات يزيد الشكوك، خاصة مع طموحات الشركة لدمج “غروك” في سيارات “تسلا”، وتوسيع استخدام نماذجها في قطاعات حكومية، بينها وزارة الدفاع الأميركية.
وتزايدت المخاوف من إمكانية استغلال النماذج في نشر معلومات مضللة أو محتويات متطرفة، خصوصًا أن بعض الإصدارات أظهرت ميولاً نحو نظريات مؤامرة أو تحاملات ثقافية.
تناقض في مواقف ماسك
المفارقة المثيرة، بحسب مراقبين، تكمن في أن إيلون ماسك لطالما حذّر من المخاطر الوجودية للذكاء الاصطناعي، ودعا إلى تنظيم صارم لهذا المجال، في وقت تتبنى فيه شركته الناشئة نهجًا يبدو بعيدًا عن تلك التحذيرات.
ويقول ستيفن أدلر، خبير سابق في “OpenAI”، إن هذا “الخلل الواضح في الشفافية والمسؤولية” يجب أن يدفع الجهات التشريعية إلى التحرك، داعيًا إلى فرض قوانين تُجبر المختبرات على نشر تقارير السلامة بشكل منتظم وعلني.
دعوات لتشريعات عاجلة
استجابة لهذه المخاوف، قدم عضو مجلس الشيوخ في كاليفورنيا، سكوت وينر، مشروع قانون يلزم مختبرات الذكاء الاصطناعي الكبرى، بما فيها xAI، بنشر تقييمات الأمان. وتدرس حاكمة نيويورك، كاثي هوشول، مقترحاً مشابهاً.
ورغم عدم وقوع كوارث تقنية كبيرة حتى الآن، إلا أن وتيرة التطوير السريعة والتمويل الضخم يخلقان بيئة قد تكون عُرضة لمخاطر مستقبلية يصعب السيطرة عليها.