في تجربة فريدة أجرتها جامعة كامبريدج، أظهر نموذج الذكاء الاصطناعي ChatGPT-4 سلوكًا أشبه بالبشر في التفكير وحل المسائل الرياضية، حيث واجه تحديًا يعود تاريخه إلى أكثر من 2400 عام، عُرف بـ”مسألة مضاعفة مساحة المربع” التي وردت في محاورة “مينون” لأفلاطون.
قاد التجربة الدكتور نداف ماركو، الباحث الزائر في كامبريدج، والبروفيسور أندرياس ستيليانيادس، المتخصص في تعليم الرياضيات، بهدف اختبار قدرة ChatGPT على التعامل مع مشكلة لطالما أثارت جدلاً فلسفياً حول طبيعة المعرفة: هل هي فطرية أم مكتسبة بالتجربة؟
المشكلة القديمة – والتحدي الحديث:
في حوار أفلاطون الشهير، ساعد سقراط فتى غير متعلم على التوصل إلى الحل الصحيح لمسألة هندسية عبر التساؤل والتوجيه، بعد أن أخطأ الفتى في البداية باعتقاده أن مضاعفة طول الأضلاع يضاعف المساحة. وكانت الفكرة أن أضلاع المربع الجديد يجب أن تساوي قطر المربع الأصلي.
كرر الباحثون هذا التسلسل من خلال سلسلة أسئلة موجهة لـChatGPT، وبدلاً من تقديم الإجابة المعروفة مباشرة، اتبع النموذج أسلوبًا يشبه تفكير الطالب البشري: حيث لجأ في البداية إلى الحلول الجبرية، وأظهر أخطاء منطقية واستنتاجات جزئية، قبل أن يصل أخيرًا إلى الحل الهندسي الصحيح بعد تلقي إشارات بعدم رضا المحاورين عن إجاباته.
استدلال شبيه بالبشر.. لا استرجاع آلي
علق ماركو:
“بدا أن ChatGPT يفكر كما نفكر نحن حين نواجه مسألة جديدة – استخدم خبرته السابقة، وطرح فرضياته الخاصة بدلًا من استدعاء حل جاهز.”
من جهته، قال ستيليانيادس:
“لو كان يعتمد فقط على قاعدة بياناته، لقدم الحل الكلاسيكي فورًا، لكنه حاول أن يحل المسألة بطريقته.”
اختبارات إضافية
وسع الباحثان التجربة لتشمل مسائل مشابهة باستخدام أشكال أخرى مثل المستطيل والمثلث، ولاحظا النمط نفسه: اللجوء للجبر أولًا، قبل التحول للحل الهندسي بدعم المحاورة والتوجيه.
مغزى تعليمي عميق
رغم أن ChatGPT لا “يفكر” كإنسان بالمعنى البيولوجي أو النفسي، فإن الطريقة التي يتفاعل بها مع المشكلات تفتح الباب أمام فرص تعليمية جديدة.
وأكد الباحثان أن الطلاب يمكنهم تنمية مهارات التفكير النقدي عبر الحوار مع النماذج اللغوية، من خلال تقييم منطقها وأدلتها، لا مجرد قبول الأجوبة كحقيقة مطلقة.
النشر العلمي
نُشرت الدراسة الكاملة تحت عنوان:
“استكشاف طبيعة المعرفة الرياضية لدى ChatGPT”
في المجلة الدولية لتعليم الرياضيات في العلوم والتكنولوجيا.