تُعدّ الهلوسة واحدة من أكبر المشكلات التي تواجه أنظمة الذكاء الاصطناعي الحديثة، مما يدفع الشركات والباحثين إلى البحث عن حلول جديدة ومبتكرة للتعامل معها. فبالرغم من قدرة روبوتات الدردشة على حلّ مسائل رياضية معقّدة، ومحاكاة العلاقات البشرية بشكل مقنع، فإنها ترتكب أخطاءً فادحة في الحقائق البسيطة، حيث يمكن أن تخترع قضايا قانونية غير موجودة أو تخلط بين أحداث أفلام وروايات شهيرة.
تشير هذه الأخطاء إلى ظاهرة تُعرف باسم “الهلوسة”، حيث تقوم روبوتات الدردشة مثل “شات جي بي تي” و “جيمناي” بتقديم معلومات غير صحيحة بثقة تامة. ومع تزايد دمج الذكاء الاصطناعي في أماكن العمل والمؤسسات التعليمية والحياة الشخصية، تتزايد المخاطر المرتبطة بهذه الأخطاء، مما دفع الباحثين إلى إعادة النظر في المشكلة بجدية أكبر.
كيف تنشأ هذه الهلوسات؟
يُبنى الذكاء الاصطناعي على مبدأ التنبّؤ بأكثر الكلمات احتمالًا للظهور في إجابة معينة، ممّا يجعل العملية بأكملها أقرب إلى التخمين المدروس. يوضح البروفيسور خوسيه هيرنانديز-أورالو من معهد فالنسيا للذكاء الاصطناعي في إسبانيا بأن السبب الأساسي وراء هذه الظاهرة هو أن الذكاء الاصطناعي مبرمج لتقديم إجابة مهما كانت الظروف، لأن عدم التخمين يعني عدم إمكانية النجاح.
البحث عن حلول مبتكرة
يعمل الباحثون على عدة حلول للحدّ من مشكلة الهلوسات. من بين هذه الحلول، تقنية “التوليد المعزّز بالاسترجاع” (Retrieval Augmented Generation) التي تعتمد على البحث في شبكة الإنترنت أو مكتبات من المستندات لاستكمال معرفة النموذج بمعلومات حديثة ودقيقة، مما يعزز موثوقية الإجابات.
في مؤتمر NeurIPs الأخير في فانكوفر، قدم الباحثان روي كوهين وكونستانتين دوبلر من معهد هاسو بلاتنر الألماني فكرة جديدة: تعليم نماذج الذكاء الاصطناعي الاعتراف بعدم المعرفة. فبدلاً من تقديم إجابات خاطئة بثقة، يتم تدريب الذكاء الاصطناعي على قول “لا أعرف” عند مواجهة أسئلة تتجاوز نطاق معرفته.
التحدّي في تحقيق التوازن
تدريب الذكاء الاصطناعي على إدراك عدم المعرفة قد حسّن دقّة الإجابات إلى حدّ كبير. لكن تحدّياً لا يزال قائماً لتحقيق التوازن المثالي؛ ففي بعض الأحيان، قد يمتنع النموذج عن الإجابة بالرغم من أن المعلومات الصحيحة متاحة في بيانات تدريبه.
من ناحية أخرى، تتبنّى شركة “أنثروبيك” نهجاً مختلفاً، حيث تعتمد على “التوجيهات النظامية” (System Prompt) التي تحدّد كيفية تصرّف الذكاء الاصطناعي عند تقديم إجابة. فمثلًا، عند مواجهة أسئلة تتعلّق بمعلومات غير شائعة، يقوم النموذج بتحذير المستخدم من أن إجابته قد تكون غير دقيقة.
استعادة الثقة في الذكاء الاصطناعي
بالرغم من تطور الذكاء الاصطناعي، فإن ثقة الجمهور به تتراجع. وفقاً لاستطلاع أجراه مركز بيو للأبحاث، فإنّ نسبة الأشخاص الذين يشعرون بالقلق تجاه الذكاء الاصطناعي ارتفعت من 37% في عام 2021 إلى 52% في عام 2023.
يرى الباحثون أن جعل الذكاء الاصطناعي أكثر تواضعاً في إجاباته قد يساعد على استعادة الثقة به. فكما يقول البروفيسور هيرنانديز-أورالو: “عندما تسأل شخصًا سؤالاً صعباً ويرد قائلاً ‘لا يمكنني الإجابة’، فإن ذلك يبني الثقة. ولكننا لا نتبع هذا المبدأ عند تصميم الذكاء الاصطناعي”.