أعلنت شركة أبل أن نماذج الذكاء الاصطناعي المتطورة تواجه “انهيارًا كاملًا في الدقة” عندما تواجه مشكلات شديدة التعقيد.
وفقًا لصحيفة “الغارديان” البريطانية، ذكرت أبل في ورقة بحثية نُشرت نهاية الأسبوع الماضي أن أداء نماذج الاستدلال الكبيرة (LRMs)، وهي شكل متقدم من الذكاء الاصطناعي، يكون جيدًا فقط في المهام المتوسطة، لكنه يفشل تمامًا في المهام المعقدة. من بين هذه النماذج التي تم دراستها، o3 من “أوبن إيه آي”، و”جيميناي ثينكينغ” من “غوغل”، وClaude 3.7 Sonnet – Thinking من “أنثروبيك”، و”ديب سيك آر 1”.
وجدت الدراسة أن نماذج الاستدلال تهدر قوتها في إيجاد الحل الصحيح للمشكلات البسيطة في مرحلة مبكرة من “التفكير”. ومع ازدياد تعقيد المشكلات، تقدم هذه النماذج حلولًا خاطئة أولًا، ثم تتوصل إلى الحلول الصحيحة لاحقًا. أما بالنسبة للمشكلات الأكثر تعقيدًا، فإن النماذج تدخل في حالة “انهيار”، وتفشل في توليد أي حلول صحيحة.
جاء في الورقة البحثية: “على عكس المتوقع، فمع تزايد تعقيد المشكلة، تقوم هذه النماذج بتقليل جهدها الاستدلالي. وهذا يشير إلى أننا سنواجه قيودًا جوهرية في توسيع قدرات التفكير في نماذج الاستدلال الحالية”. وخلصت الورقة إلى أن النهج الحالي للذكاء الاصطناعي ربما وصل إلى حدوده ولا يمكن توسيعه أو تطويره بشكل أكبر.