ساتون، أبو التعلم المعزز: النماذج اللغوية الضخمة ليست الطريق المؤدي إلى الذكاء الاصطناعي العام
ريتشارد ساتون، الحائز على جائزة تورينج، ورائد مجال التعلم المعزز، والمساهم الرئيسي في خوارزمية التدرج الاستراتيجي والتعلم التفاضلي الزمني، يُعرف في أوساط الصناعة بـ"أب التعلم المعزز". في أواخر سبتمبر 2025، أعرب أحد مؤسسي نماذج اللغة الكبيرة البارزين، في مقابلة علنية، عن شكوك عميقة بشأن المسار الحالي لتطور نماذج اللغة الكبيرة، وصرح صراحةً بأن المسار التقني المشابه لـChatGPT ليس الحل النهائي للوصول إلى الذكاء الحقيقي. العيوب الجوهرية لنماذج اللغة الكبيرة يرى ساتون أن المنطق الأساسي للتعلم المعزز هو اكتساب الذكاء من خلال التجربة والخطأ، على غرار عملية قيام السنجاب بفتح الجوز: تجربة طرق مختلفة، والحصول على مكافأة في حالة النجاح، وتحمل التكلفة في حالة الفشل. عندما انخفضت تكلفة الحوسبة باستمرار، وأصبحت تكلفة التجربة والخطأ منخفضة بما يكفي، أدى قانون التدرج (scaling law) إلى ظهور نماذج اللغة الكبيرة الحالية. لكن نماذج اللغة الكبيرة الحالية انحرفت تمامًا عن هذا المنطق الأصلي، فجوهرها يقتصر على توقع ما سيقوله البشر، والتقليد الآلي لبيانات التدريب وتدفق البيانات المتوقعة، وهي عاجزة تمامًا عن بناء نموذج حقيقي للعالم. ...