على الرغم من التقدم السريع في تطوير تقنيات الذكاء الاصطناعي، فإن مشكلة “الهلوسة” في الأنظمة الحديثة تزداد تعقيدًا، مما يطرح تحديات كبيرة أمام المطورين والمستخدمين على حد سواء. “هلوسات الذكاء الاصطناعي” تشير إلى إنتاج النماذج التوليدية لمعلومات غير صحيحة أو مختلقة، وهو ما يظل عقبة رئيسية أمام تحقيق دقة وموثوقية في استخدام هذه الأنظمة المتقدمة مثل “تشات جي بي تي” و”كلود”.
التقارير الأخيرة تكشف أن هذه المشكلة قد تزايدت في الإصدارات الأحدث من الأنظمة، رغم الوعود المستمرة بتحسين الدقة. على سبيل المثال، في اختبارات شركة “أوبن إيه آي” لنماذجها الجديدة مثل النظام o3، تبين أن معدلات الهلوسة وصلت إلى 33% عند اختبار المعلومات المتعلقة بالشخصيات العامة، وهو ما يفوق ضعف نسبة الهلوسة في النموذج الأسبق o1. بينما في النموذج المصغر o4 mini، بلغت النسبة 48%. أما في الأسئلة العامة، فقد بلغت النسبة في النظامين o3 وo4 mini ما يصل إلى 51% و79% على التوالي، مقارنة بـ 44% في النظام السابق o1.
الغريب أن هذه الهلوسات لم تُحل بعد مع اعتماد “أنظمة التفكير المنطقي”، التي طُورت لتعزيز قدرات الاستدلال والتحليل في النماذج اللغوية. ورغم أن هذه الأنظمة أظهرت تحسنًا في المهارات الرياضية، إلا أن معدلات الخطأ قد تزايدت.
المشكلة لا تقتصر على الجوانب التقنية فحسب، بل تحمل تداعيات خطيرة قد تؤثر على الطلاب والباحثين والموظفين الذين يعتمدون على الذكاء الاصطناعي للحصول على معلومات دقيقة. الأخطاء الناتجة قد تؤدي إلى اتخاذ قرارات غير صائبة، مما يترتب عليه خسائر مالية أو مشكلات قانونية.
دانييلا أمودي، رئيسة شركة “أنثروبيك” التي طوّرت نظام “كلود 2″، أكدت أن “لا نموذج اليوم يخلو من بعض الهلوسات”. وقد تتخذ هذه الهلوسات عدة أشكال، مثل: استشهادات غير دقيقة، تناقضات منطقية، استنتاجات مغلوطة، إلى جانب هلوسات بصرية وأخرى مرتبطة بالتحيز السياقي أو البنيوي.
من جانبها، أشارت “أوبن إيه آي” في ورقة بحثية حديثة إلى ضرورة إجراء مزيد من الأبحاث لفهم سبب استمرار هذه الظاهرة، خاصة وأن الآليات التي تعلم بها هذه النماذج معقدة وتستوعب كمًّا هائلًا من البيانات يفوق قدرة البشر على التحليل.
في محاولة للحد من هذه المشكلة، أعلن معهد ماساتشوستس للتكنولوجيا (MIT) عن تقنية جديدة تُسمى “SimGen”، التي تهدف إلى مساعدة المدققين البشريين في اكتشاف هلوسات الذكاء الاصطناعي. هذه التقنية تقدم مقتطفات محددة من البيانات المرتبطة بالمصادر الأصلية، مما يقلل من وقت التحقق بنسبة 20%.
رغم الجهود المستمرة لتطوير هذه التقنيات، تظل مشكلة الهلوسة واحدة من العقبات الجوهرية التي تحد من دمج الذكاء الاصطناعي بشكل آمن وموثوق في التطبيقات اليومية.