الذكاء الاصطناعي

كشف بحث جديد أجراه اتحاد الإذاعات الأوروبية بالتعاون مع هيئة الإذاعة البريطانية “بي بي سي”، أن تطبيقات الذكاء الاصطناعي الرائدة تُصدر معلومات غير دقيقة أو مضللة في نحو 45% من ردودها المتعلقة بالأخبار.

واعتمدت الدراسة على تحليل 3 آلاف ردّ قدمها عدد من مساعدي الذكاء الاصطناعي، مثل:
🔹 ChatGPT
🔹 Copilot
🔹 Gemini (من غوغل)
🔹 Perplexity

وشملت التقييمات إجابات الذكاء الاصطناعي بـ 14 لغة مختلفة، تم قياسها من حيث الدقة، والمصادر، والتمييز بين الرأي والحقيقة.

نتائج مقلقة

81% من الردود احتوت على شكل من أشكال المشكلات.

ثلث الردود تضمنت أخطاء كبيرة في المصادر (مثل الإسناد المضلل أو المفقود).

20% من الردود احتوت على أخطاء في المعلومات، منها ما يتعلق بوقائع قديمة أو بيانات غير صحيحة.

ومن أبرز الأمثلة التي ذكرتها الدراسة:

“جيميناي” قدّم معلومات غير دقيقة حول قانون السجائر الإلكترونية.

“تشات جي بي تي” أشار خطأً إلى أن البابا فرنسيس لا يزال على قيد الحياة رغم إعلان وفاته في الواقع (وفق الدراسة).

وأظهرت النتائج أن مساعد “Gemini” كان الأسوأ من حيث مشاكل الإسناد، حيث تبيّن أن 72% من ردوده تعاني من خلل في المصادر، مقارنة بأقل من 25% لباقي المساعدين.

الذكاء الاصطناعي وتقويض ثقة الجمهور

أشار اتحاد الإذاعات الأوروبية إلى أن اعتماد الجمهور المتزايد على مساعدي الذكاء الاصطناعي للحصول على الأخبار، بدلاً من محركات البحث التقليدية، قد يؤدي إلى تراجع الثقة في المعلومات.

وقال جان فيليب دي تيندر، مدير الإعلام في الاتحاد:

“عندما لا يعرف الناس ما الذي يمكنهم الوثوق به، ينتهي الأمر بعدم الثقة في أي شيء، مما يهدد المشاركة الديمقراطية”.

مستخدمو الأخبار الأصغر سنًا في دائرة الخطر

أشار تقرير “رويترز” للأخبار الرقمية لعام 2025 إلى أن:

7% من مستخدمي الإنترنت يعتمدون على مساعدي الذكاء الاصطناعي للحصول على الأخبار.

ترتفع النسبة إلى 15% بين المستخدمين دون سن 25 عامًا.

توصيات الدراسة

دعت المؤسسات الإعلامية المشاركة وعددها 22 من 18 دولة (بينها فرنسا، ألمانيا، إسبانيا، الولايات المتحدة…) إلى:

مساءلة شركات الذكاء الاصطناعي عن دقة المحتوى الإخباري.

تحسين استجابات المساعدات الذكية فيما يخص الأخبار، خاصة في ظل استخدامها المتزايد.

البحث