ريتشارد ساتون، الحائز على جائزة تورينج، ورائد مجال التعلم المعزز، والمساهم الرئيسي في خوارزمية التدرج الاستراتيجي والتعلم التفاضلي الزمني، يُعرف في أوساط الصناعة بـ"أب التعلم المعزز". في أواخر سبتمبر 2025، أعرب أحد مؤسسي نماذج اللغة الكبيرة البارزين، في مقابلة علنية، عن شكوك عميقة بشأن المسار الحالي لتطور نماذج اللغة الكبيرة، وصرح صراحةً بأن المسار التقني المشابه لـChatGPT ليس الحل النهائي للوصول إلى الذكاء الحقيقي.

العيوب الجوهرية لنماذج اللغة الكبيرة

يرى ساتون أن المنطق الأساسي للتعلم المعزز هو اكتساب الذكاء من خلال التجربة والخطأ، على غرار عملية قيام السنجاب بفتح الجوز: تجربة طرق مختلفة، والحصول على مكافأة في حالة النجاح، وتحمل التكلفة في حالة الفشل. عندما انخفضت تكلفة الحوسبة باستمرار، وأصبحت تكلفة التجربة والخطأ منخفضة بما يكفي، أدى قانون التدرج (scaling law) إلى ظهور نماذج اللغة الكبيرة الحالية. لكن نماذج اللغة الكبيرة الحالية انحرفت تمامًا عن هذا المنطق الأصلي، فجوهرها يقتصر على توقع ما سيقوله البشر، والتقليد الآلي لبيانات التدريب وتدفق البيانات المتوقعة، وهي عاجزة تمامًا عن بناء نموذج حقيقي للعالم.

تكمن المشكلة الأساسية في أن نماذج اللغة الكبيرة تفتقر إلى أهداف وغايات حقيقية. تخدم جميع النماذج المعرفية البشرية، سواء كانت لغوية أو رياضية أو فيزيائية أو بيولوجية، غرضًا موحدًا: وصف العالم الحقيقي، ومساعدة البشر على العيش والبقاء بشكل أفضل. ولا يمكن تغيير العالم بشكل صحيح إلا من خلال إدراكه بشكل صحيح. لكن الهدف الوحيد لنماذج اللغة الكبيرة ليس إدراك العالم الموضوعي، بل تقليد كلام البشر، وتقليد البيانات التي يزودونها بها. لا يمكن لهذا الهدف أن ينتج تفاعلًا حقيقيًا مع العالم الحقيقي، وبالتالي لن يصل أبدًا إلى مستوى ذكاء البشر.

يمكن تصور النماذج اللغوية الضخمة على أنها أشخاص محبوسون في قفص: فكلما زودتها بالمعرفة، كلما تعلمت المزيد منها، لكنها لن تتمكن أبدًا من كسر القفص والتواصل مع العالم الحقيقي. إذا كان هدف النماذج اللغوية الضخمة يقتصر على محاكاة البشر، فإن هذا الهدف بحد ذاته هو القفص. مهما زاد عدد الكاميرات أو أجهزة الاستشعار المثبتة على الروبوت، فطالما لم يتغير الهدف الأساسي، فإنه سيظل دائمًا يتعلم من البشر، وليس من العالم نفسه. فقط عندما يكتسب الذكاء الاصطناعي القدرة على المبادرة الذاتية، ويصبح قادراً على إدراك العالم بشكل استباقي وتغييره بتوجيه من الوعي، عندها فقط يصبح من الممكن كسر هذا القفص في النهاية.

الاختلاف الجوهري عن الذكاء البشري

يكمن الاختلاف الجوهري بين الذكاء البشري ونماذج اللغة الكبيرة الحالية في اختلاف منطق إدراك العالم تماماً. استخدم ساتون عملية تعلم الأطفال كمثال للمقارنة: غالباً ما يرمي الأطفال ألعابهم، وهذا في جوهره طريقة لبناء نموذج للعالم. من خلال التفاعل مع العالم، يشكل الطفل إدراكًا تجريديًا للجاذبية، ويوسع هذا الإدراك ليشمل جميع الجوانب — فهم لا يحتاجون إلى فهم المفاهيم الفيزيائية للجاذبية، ليتمكنوا من استنتاج قانون السببية القائل بأن “الأجسام الموجودة في مكان مرتفع ستسقط إذا انفصلت عن الدعامات”، ويمكنهم تطبيق هذا القانون على مواقف لم يروها من قبل. ما يتقنه الأطفال هو منطق السببية التجريدي، بينما ما تجده نماذج اللغة الكبيرة هو مجرد منطق ارتباطي، وليس منطق السببية.

على سبيل المثال، قد يعتقد نموذج اللغة الكبير أنه إذا قال الإنسان “التفاحة تسقط من شجرة التفاح”، فمن المرجح أن يقول بعد ذلك “التفاحة سقطت على الأرض”، ولن يقول “عيد سعيد”. لكنه لا يستطيع فهم سبب سقوط التفاحة، ولا يمكنه توقع ما إذا كانت التفاحة ستسقط في الماء بدلاً من الأرض إذا كان هناك بركة ماء تحت شجرة التفاح. لا يحتاج الأطفال إلى تعلم جميع الحالات مرة واحدة ليتمكنوا من استنتاج قوانين السببية، لكن النماذج اللغوية الكبيرة لا تستطيع ذلك. فهي تحتاج إلى تعلم جميع الحالات مرة واحدة، ثم ترتيبها حسب الأهمية قبل أن تتمكن من تقديم إجابة.

العقبات الواقعية التي تواجه نماذج اللغة الكبيرة

كأداة، لا تزال نماذج اللغة الكبيرة تعاني من عيوب لا يمكن تجاهلها، وأبرزها مشكلة “أوهام الذكاء الاصطناعي”. على سبيل المثال، إذا تم تكليف الذكاء الاصطناعي أولاً باستخراج البيانات من الخادم، ومواصلة العمليات اللاحقة في حالة نجاح الاستخراج، ففي الواقع، إذا فشل الاستخراج، قد يفترض الذكاء الاصطناعي أنه قد أكمل هذه المهمة بالفعل، ويتخطى الخطوات لمواصلة التنفيذ، ليخدع المستخدم في النهاية بالقول إنه أكمل جميع المهام، وقد أصبحت مثل هذه الحالات شائعة. وإذا كانت البيانات التي يزودها البشر للذكاء الاصطناعي تنطوي على درجة عالية من التضليل، فإن الذكاء الاصطناعي سيصاب بالوهم أيضًا، ويقدم إجابات لا تتوافق مع الواقع على الإطلاق.

يواجه مسار تطور نماذج اللغة الكبيرة حاليًا عقبة جوهرية: فعندما تنفد قواعد البيانات البشرية، ويتم استنفاد البيانات على الإنترنت، سيصل نمو أداء نماذج اللغة الكبيرة إلى نهايته. وبدون القدرة على التفاعل مع العالم الحقيقي، لن يمكن أبدًا إنشاء نموذج حقيقي للعالم، ولن يكون من الممكن أبدًا الوصول إلى مستوى ذكاء البشر.