مع تزايد استخدام الذكاء الاصطناعي في مختلف المجالات، سواء لأغراض مفيدة أو ضارة، أظهرت الدراسات الحديثة أن العديد من نماذج الذكاء الاصطناعي تظهر ردود فعل قد تكون ضارة، مثل خطاب الكراهية وانتهاك حقوق النشر. يضاف إلى ذلك غياب اللوائح التنظيمية الكافية وقلة الاختبارات التي تخضع لها هذه النماذج.
أشار الباحث خافيير راندو إلى أن جعل نماذج التعلم الآلي تعمل كما هو مطلوب هو أمر صعب، مشيرًا إلى أن الممارسات الحالية لم تقدم حلولًا فعالة بعد، على الرغم من مرور أكثر من 15 عامًا من البحث في هذا المجال.
أحد الحلول المطروحة لتقييم مخاطر الذكاء الاصطناعي هو “تكوين فرق حمراء” (Red Teaming)، وهو أسلوب يستخدم لاختبار الأنظمة واكتشاف أي ضرر محتمل، ولكن هناك نقص في عدد العاملين ضمن هذه الفرق. وأضاف الباحث شاين لونغبري أنه من الضروري أن يتم تمكين الأطراف الثالثة، مثل الصحفيين أو الباحثين أو المخترقين الأخلاقيين، من اختبار النماذج لتقييمها بشكل دقيق.
من بين التوصيات التي تم طرحها، ضرورة تطوير تقارير موحدة حول “عيوب الذكاء الاصطناعي” وتقديم حوافز للكشف عن هذه العيوب.
كما تم الإشارة إلى مشروع “Moonshot” الذي يهدف إلى تحسين آليات تقييم نماذج اللغة والتأكد من موثوقيتها. وقد أشار أنوب كومار، من شركة “IBM”، إلى أن هذه الأدوات تساعد في ضمان موثوقية النماذج ولكن تحتاج إلى المزيد من التخصيص والابتكار.
في ختام الدراسة، دعا الباحثون إلى وضع معايير صارمة لابتكار وتطوير نماذج الذكاء الاصطناعي، تمامًا كما يحدث في الصناعات الأخرى مثل الأدوية والطيران، لضمان الأمان وعدم الإضرار بالمستخدمين.