تكنولوجيا

الوهم الكبير في “التفكير”: هل تفكر نماذج الذكاء الاصطناعي فعلًا؟ شركه أبل تجيب

الوهم الكبير في “التفكير”: هل تفكر نماذج الذكاء الاصطناعي فعلًا؟ شركه أبل تجيب

 

بقلم: ا. د. وائل بدوي

مقدمة

في خضم سباق شركات التكنولوجيا لتطوير نماذج ذكاء اصطناعي أكثر قدرة على “التفكير”، تكشف دراسة جديدة أعدّها باحثون في شركة “آبل” عن مفارقة مقلقة: رغم أن نماذج الذكاء الاصطناعي الحديثة تولّد “سلاسل تفكير” مطوّلة، فإنها قد تكون أقل قدرة على حل المشكلات المعقدة مقارنة بنماذج أبسط لا تتظاهر بالتفكير.

اختبار النماذج في بيئة محكمة

في ورقتهم البحثية بعنوان “وهم التفكير: فهم حدود قدرات النماذج الاستدلالية من منظور تعقيد المشكلات”، ابتكر الباحثون بيئة تجريبية تتحكم بدرجة تعقيد المشكلات باستخدام ألغاز منطقية مثل “برج هانوي” و”القفز بالرقع” و”عبور النهر” و”عالم المكعبات”.

بدلاً من الاعتماد على اختبارات الرياضيات التقليدية الملوثة بالبيانات التدريبية، مكّنت هذه الألغاز الباحثين من تتبع كل خطوة تفكير على حدة وتحليل ما إذا كانت النماذج فعلاً “تفكر” أو تكرر أنماطًا محفوظة

ثلاث مراحل من الأداء… ثم الانهيار

أظهرت نتائج الدراسة ثلاث مراحل أداء رئيسية:

  1. في المهام البسيطة، تفوّقت النماذج غير المفكّرة (standard LLMs) من حيث الدقة والكفاءة.

  2. في التعقيدات المتوسطة، ظهرت مزايا التفكير المنظم، حيث تفوقت نماذج التفكير (LRMs) في الأداء.

  3. أما في المشكلات المعقدة، فانهارت قدرة جميع النماذج على الحل، بغضّ النظر عن مدى “تفكيرها”.

وتبيّن أن نماذج التفكير، رغم توفر موارد حوسبية كافية، بدأت تُقلِّص من مجهودها التفكيري عندما تجاوز تعقيد المشكلة حدًا معينًا، في ظاهرة وصفها الباحثون بـ”حدود التفكير التوسعية”

التفكير الزائف والعودة إلى الوراء

المفارقة الأشد كشفًا كانت في تحليل “سلاسل التفكير” (Chain-of-Thought). إذ أظهرت النماذج المفكّرة سلوكًا يُشبه ما يُعرف بـ”الإفراط في التفكير” (Overthinking): في المهام البسيطة، تصل إلى الحل مبكرًا لكنها تستمر في توليد حلول خاطئة لاحقًا.

أما في المهام المعقدة، فقد عجزت النماذج تمامًا عن الوصول إلى أي حل صحيح، بل وأنتجت تسلسلات استدلالية غير منطقية، رغم إعطائها الخوارزمية الصحيحة منسق

نقطة الانهيار… وفشل “التفكير” كآلية

كشفت الدراسة أن بعض النماذج، مثل Claude 3.7 Sonnet وDeepSeek-R1، حققت أداءً جيدًا حتى نقطة معيّنة، ثم تدهورت فجأة. فعلى سبيل المثال، في لغز برج هانوي، كانت النماذج قادرة على تنفيذ أكثر من 100 خطوة صحيحة، ثم تنهار عند خطوة 101. أما في لغز عبور النهر، ففشلت بعض النماذج بعد 4 خطوات فقط، ما يشير إلى قصور في قدرة النماذج على التعميم أو التفكير الرمزي المجرد

تحليل وسياق: هل الذكاء الاصطناعي يفكر أم يتظاهر فقط؟

تشير هذه النتائج إلى ضرورة إعادة النظر في الاعتقاد السائد بأن نماذج التفكير المتقدم تقرّبنا من الذكاء العام الاصطناعي (AGI). فالتجربة برمتها تكشف عن وهم فكري؛ حيث يبدو أن النماذج لا تفكر بقدر ما تعيد إنتاج أنماط محفوظة بتناسق لفظي، دون فهم حقيقي للتسلسل المنطقي أو القواعد.

ويقول الباحث بارشين شجاعي، أحد المشاركين في الدراسة:

“لا يكفي أن تنتج النماذج سلسلة تفكير؛ ما يهم هو مدى منطقيتها وتناسقها، وهذا ما تفتقر إليه النماذج الحالية.”

في الوقت الذي يتسارع فيه الحديث عن إمكانيات الذكاء الاصطناعي في التعليم، القانون، والطب، تضع هذه الدراسة حجر عثرة أمام الاندفاع غير النقدي نحو “أتمتة التفكير”. فهي تدعو إلى نهج أكثر حذرًا، يؤكد أن “التفكير الحقيقي” يتطلب ما هو أكثر من مجرد كلمات منسقة أو رموز محسوبة.

وإذا كانت هذه النماذج تعجز عن تنفيذ خوارزميات بسيطة بدقة رغم إعطائها إياها بشكل مباشر، فما الذي يمكن أن تتوقعه منها في قضايا أكثر تعقيدًا؟

تم نسخ الرابط بنجاح!

مقالات ذات صلة

زر الذهاب إلى الأعلى