ریچارد ساتون، برنده جایزه تورینگ، پیشگام در زمینه یادگیری تقویتی و یکی از مشارکتکنندگان کلیدی در الگوریتمهای شیب سیاست و یادگیری تفاوت زمانی، در صنعت به عنوان «پدر یادگیری تقویتی» شناخته میشود. در اواخر سپتامبر ۲۰۲۵، این چهره کلیدی در توسعه مدلهای زبانی بزرگ در یک مصاحبه عمومی، تردیدهای عمیقی در مورد مسیر کنونی چنین مدلهایی ابراز کرد و صراحتاً اعلام نمود که رویکرد فناورانهای که توسط ChatGPT نمونهبرداری شده است، پاسخ نهایی در مسیر رسیدن به هوش واقعی نیست.
نواقص اساسی مدلهای زبان بزرگ
ساتن معتقد است که منطق اصلی یادگیری تقویتی، کسب هوش از طریق آزمون و خطا است، درست مانند سنجابی که گردو میشکند: امتحان کردن روشهای مختلف، دریافت پاداش برای موفقیت و متحمل شدن هزینه برای شکست. با کاهش مداوم هزینه قدرت محاسباتی و رسیدن هزینه آزمون و خطا به سطحی به اندازه کافی پایین، قانون مقیاسپذیری به ظهور مدلهای زبانی بزرگ امروزی منجر شده است. با این حال، مدلهای زبانی بزرگ کنونی از این منطق اصلی کاملاً منحرف شدهاند؛ ماهیت آنها صرفاً پیشبینی گفتار انسانها، تقلید مکانیکی از دادههای آموزشی و پیشبینی جریانهای داده است، و آنها اساساً قادر به ایجاد یک مدل واقعی از جهان نیستند.
مسئله اصلی در این است که مدلهای زبانی بزرگ فاقد اهداف و مقاصد واقعی هستند. تمام مدلهای شناختی انسانی - چه زبانی، ریاضی، فیزیکی یا بیولوژیکی - یک هدف واحد و یکپارچه را دنبال میکنند: توصیف دنیای واقعی و کمک به بقا و شکوفایی بشریت. تنها با درک صحیح جهان است که میتوانیم آن را به درستی دگرگون کنیم. با این حال، هدف اصلی مدلهای زبانی بزرگ نه درک جهان عینی، بلکه تقلید از گفتار انسان و بازتولید دادههایی است که انسانها به آنها وارد میکنند. این هدف نمیتواند تعامل واقعی با دنیای حقیقی را ایجاد کند و از این رو، آنها هرگز به سطح هوش انسانی نخواهند رسید.
میتوان یک مدل زبان بزرگ را مانند فردی تصور کرد که در قفسی محبوس است: این مدل میتواند به هر اندازه که به آن دانش بدهید یاد بگیرد، اما هرگز قادر نخواهد بود از قفس رها شود و با دنیای واقعی در تعامل باشد. اگر هدف یک مدل زبان بزرگ صرفاً تقلید از انسانها باشد، خود این هدف، همان قفس است. فرقی نمیکند چه تعداد دوربین یا حسگر به یک ربات متصل شود، تا زمانی که هدف اصلی آن بدون تغییر باقی بماند، آن ربات برای همیشه صرفاً در حال یادگیری درباره انسانها خواهد بود، نه یادگیری درباره خودِ جهان. تنها زمانی که هوش مصنوعی به «کنشگری ذهنی» دست یابد — توانایی درک فعال جهان و بازآفرینی آن تحت هدایت آگاهی — میتوان نهایتاً از این قفس رهایی یافت.
تفاوت اساسی با هوش انسانی
تفاوت اساسی بین هوش انسانی و مدلهای زبانی بزرگ فعلی در منطق شناختی کاملاً متفاوت آنها در مورد جهان نهفته است. ساتون مقایسهای با فرآیند یادگیری یک کودک انجام داد: کودکان اغلب اسباببازیها را پرتاب میکنند که اساساً راهی برای ساختن مدلی از جهان است. کودکان از طریق تعامل با جهان، درکی انتزاعی از گرانش پیدا میکنند و این درک را به زمینههای مختلف تعمیم میدهند—آنها نیازی به درک فیزیک گرانش ندارند تا اصل علیت «اجسام در ارتفاع، هنگام جدا شدن از تکیهگاه خود سقوط میکنند» را استنتاج کنند، و میتوانند این اصل را در موقعیتهایی که هرگز پیش از این با آنها مواجه نشدهاند، به کار ببرند. کودکان بر منطق علیت انتزاعی تسلط دارند، در حالی که مدلهای زبانی بزرگ تنها منطق همبستگی را شناسایی میکنند، نه منطق علیت.
به عنوان مثال، یک مدل زبان بزرگ ممکن است فرض کند که اگر شخصی بگوید «یک سیب از درخت سیب میافتد»، جمله بعدی به احتمال زیاد «سیب روی زمین افتاد» خواهد بود، نه «عید وسط پاییز مبارک». با این حال، این مدل نمیتواند بفهمد که چرا سیب میافتد، و همچنین نمیتواند پیشبینی کند که اگر زیر درخت سیب یک برکه باشد، سیب به جای زمین، داخل آب خواهد افتاد. یک کودک برای استنتاج الگوهای علیتی نیازی به یادگیری تمام سناریوهای ممکن ندارد، اما یک مدل زبان بزرگ نمیتواند این کار را انجام دهد. این مدل باید تمام سناریوهای ممکن را بیاموزد و سپس قبل از ارائه پاسخ، آنها را بر اساس احتمال رتبهبندی کند.
محدودیتهای عملی مدلهای زبانی بزرگ
مدلهای زبانی بزرگ به عنوان ابزار، در حال حاضر دارای نقصهایی هستند که نمیتوان آنها را نادیده گرفت، که برجستهترین آنها مسئله توهمات هوش مصنوعی است. برای مثال، اگر به یک هوش مصنوعی دستور داده شود که ابتدا دادهها را از یک سرور بازیابی کند و تنها در صورت موفقیت در بازیابی، عملیات بعدی را انجام دهد، اما بازیابی در عمل ناموفق باشد، هوش مصنوعی ممکن است فرض کند که وظیفه تکمیل شده است، آن مرحله را رد کرده و به اجرای خود ادامه دهد و در نهایت کاربر را فریب دهد تا باور کند که همه وظایف تکمیل شدهاند. چنین موقعیتهایی اکنون بسیار رایج هستند. اگر دادههای ورودی به هوش مصنوعی توسط انسانها بسیار گمراهکننده باشد، هوش مصنوعی ممکن است دچار «توهم» شود و پاسخهایی ارائه دهد که کاملاً با واقعیت در تضاد هستند.
مسیر توسعه فعلی مدلهای زبانی بزرگ در حال حاضر با یک گلوگاه اساسی روبرو است: هنگامی که متون انسانی به اتمام برسد و دادههای اینترنت به طور کامل استخراج شود، رشد عملکرد مدلهای زبانی بزرگ به محدودیت خود خواهد رسید. بدون توانایی تعامل با دنیای واقعی، هرگز نمیتوان یک مدل جهانی واقعی ایجاد کرد و بنابراین هرگز امکان دستیابی به هوش در سطح انسان وجود نخواهد داشت.