ریچارد ساتون، برنده جایزه تورینگ، پیشگام در زمینه یادگیری تقویتی و یکی از مشارکت‌کنندگان کلیدی در الگوریتم‌های شیب سیاست و یادگیری تفاوت زمانی، در صنعت به عنوان «پدر یادگیری تقویتی» شناخته می‌شود. در اواخر سپتامبر ۲۰۲۵، این چهره کلیدی در توسعه مدل‌های زبانی بزرگ در یک مصاحبه عمومی، تردیدهای عمیقی در مورد مسیر کنونی چنین مدل‌هایی ابراز کرد و صراحتاً اعلام نمود که رویکرد فناورانه‌ای که توسط ChatGPT نمونه‌برداری شده است، پاسخ نهایی در مسیر رسیدن به هوش واقعی نیست.

نواقص اساسی مدل‌های زبان بزرگ

ساتن معتقد است که منطق اصلی یادگیری تقویتی، کسب هوش از طریق آزمون و خطا است، درست مانند سنجابی که گردو می‌شکند: امتحان کردن روش‌های مختلف، دریافت پاداش برای موفقیت و متحمل شدن هزینه برای شکست. با کاهش مداوم هزینه قدرت محاسباتی و رسیدن هزینه آزمون و خطا به سطحی به اندازه کافی پایین، قانون مقیاس‌پذیری به ظهور مدل‌های زبانی بزرگ امروزی منجر شده است. با این حال، مدل‌های زبانی بزرگ کنونی از این منطق اصلی کاملاً منحرف شده‌اند؛ ماهیت آن‌ها صرفاً پیش‌بینی گفتار انسان‌ها، تقلید مکانیکی از داده‌های آموزشی و پیش‌بینی جریان‌های داده است، و آن‌ها اساساً قادر به ایجاد یک مدل واقعی از جهان نیستند.

مسئله اصلی در این است که مدل‌های زبانی بزرگ فاقد اهداف و مقاصد واقعی هستند. تمام مدل‌های شناختی انسانی - چه زبانی، ریاضی، فیزیکی یا بیولوژیکی - یک هدف واحد و یکپارچه را دنبال می‌کنند: توصیف دنیای واقعی و کمک به بقا و شکوفایی بشریت. تنها با درک صحیح جهان است که می‌توانیم آن را به درستی دگرگون کنیم. با این حال، هدف اصلی مدل‌های زبانی بزرگ نه درک جهان عینی، بلکه تقلید از گفتار انسان و بازتولید داده‌هایی است که انسان‌ها به آن‌ها وارد می‌کنند. این هدف نمی‌تواند تعامل واقعی با دنیای حقیقی را ایجاد کند و از این رو، آن‌ها هرگز به سطح هوش انسانی نخواهند رسید.

می‌توان یک مدل زبان بزرگ را مانند فردی تصور کرد که در قفسی محبوس است: این مدل می‌تواند به هر اندازه که به آن دانش بدهید یاد بگیرد، اما هرگز قادر نخواهد بود از قفس رها شود و با دنیای واقعی در تعامل باشد. اگر هدف یک مدل زبان بزرگ صرفاً تقلید از انسان‌ها باشد، خود این هدف، همان قفس است. فرقی نمی‌کند چه تعداد دوربین یا حسگر به یک ربات متصل شود، تا زمانی که هدف اصلی آن بدون تغییر باقی بماند، آن ربات برای همیشه صرفاً در حال یادگیری درباره انسان‌ها خواهد بود، نه یادگیری درباره خودِ جهان. تنها زمانی که هوش مصنوعی به «کنش‌گری ذهنی» دست یابد — توانایی درک فعال جهان و بازآفرینی آن تحت هدایت آگاهی — می‌توان نهایتاً از این قفس رهایی یافت.

تفاوت اساسی با هوش انسانی

تفاوت اساسی بین هوش انسانی و مدل‌های زبانی بزرگ فعلی در منطق شناختی کاملاً متفاوت آن‌ها در مورد جهان نهفته است. ساتون مقایسه‌ای با فرآیند یادگیری یک کودک انجام داد: کودکان اغلب اسباب‌بازی‌ها را پرتاب می‌کنند که اساساً راهی برای ساختن مدلی از جهان است. کودکان از طریق تعامل با جهان، درکی انتزاعی از گرانش پیدا می‌کنند و این درک را به زمینه‌های مختلف تعمیم می‌دهند—آنها نیازی به درک فیزیک گرانش ندارند تا اصل علیت «اجسام در ارتفاع، هنگام جدا شدن از تکیه‌گاه خود سقوط می‌کنند» را استنتاج کنند، و می‌توانند این اصل را در موقعیت‌هایی که هرگز پیش از این با آنها مواجه نشده‌اند، به کار ببرند. کودکان بر منطق علیت انتزاعی تسلط دارند، در حالی که مدل‌های زبانی بزرگ تنها منطق همبستگی را شناسایی می‌کنند، نه منطق علیت.

به عنوان مثال، یک مدل زبان بزرگ ممکن است فرض کند که اگر شخصی بگوید «یک سیب از درخت سیب می‌افتد»، جمله بعدی به احتمال زیاد «سیب روی زمین افتاد» خواهد بود، نه «عید وسط پاییز مبارک». با این حال، این مدل نمی‌تواند بفهمد که چرا سیب می‌افتد، و همچنین نمی‌تواند پیش‌بینی کند که اگر زیر درخت سیب یک برکه باشد، سیب به جای زمین، داخل آب خواهد افتاد. یک کودک برای استنتاج الگوهای علیتی نیازی به یادگیری تمام سناریوهای ممکن ندارد، اما یک مدل زبان بزرگ نمی‌تواند این کار را انجام دهد. این مدل باید تمام سناریوهای ممکن را بیاموزد و سپس قبل از ارائه پاسخ، آن‌ها را بر اساس احتمال رتبه‌بندی کند.

محدودیت‌های عملی مدل‌های زبانی بزرگ

مدل‌های زبانی بزرگ به عنوان ابزار، در حال حاضر دارای نقص‌هایی هستند که نمی‌توان آنها را نادیده گرفت، که برجسته‌ترین آنها مسئله توهمات هوش مصنوعی است. برای مثال، اگر به یک هوش مصنوعی دستور داده شود که ابتدا داده‌ها را از یک سرور بازیابی کند و تنها در صورت موفقیت در بازیابی، عملیات بعدی را انجام دهد، اما بازیابی در عمل ناموفق باشد، هوش مصنوعی ممکن است فرض کند که وظیفه تکمیل شده است، آن مرحله را رد کرده و به اجرای خود ادامه دهد و در نهایت کاربر را فریب دهد تا باور کند که همه وظایف تکمیل شده‌اند. چنین موقعیت‌هایی اکنون بسیار رایج هستند. اگر داده‌های ورودی به هوش مصنوعی توسط انسان‌ها بسیار گمراه‌کننده باشد، هوش مصنوعی ممکن است دچار «توهم» شود و پاسخ‌هایی ارائه دهد که کاملاً با واقعیت در تضاد هستند.

مسیر توسعه فعلی مدل‌های زبانی بزرگ در حال حاضر با یک گلوگاه اساسی روبرو است: هنگامی که متون انسانی به اتمام برسد و داده‌های اینترنت به طور کامل استخراج شود، رشد عملکرد مدل‌های زبانی بزرگ به محدودیت خود خواهد رسید. بدون توانایی تعامل با دنیای واقعی، هرگز نمی‌توان یک مدل جهانی واقعی ایجاد کرد و بنابراین هرگز امکان دستیابی به هوش در سطح انسان وجود نخواهد داشت.