Ричард Саттон, лауреат премии Тьюринга, пионер в области обучения с подкреплением, один из основных разработчиков алгоритма стратегического градиента и метода временного дифференциального обучения, известен в отрасли как «отец обучения с подкреплением». В конце сентября 2025 года этот важный пионер в области крупных языковых моделей в публичном интервью выразил глубокие сомнения относительно текущего пути развития крупных языковых моделей, прямо заявив, что технологический подход, подобный ChatGPT, не является окончательным ответом на пути к подлинному интеллекту.
Существенные недостатки крупных языковых моделей
Саттон считает, что основная логика обучения с подкреплением заключается в обретении интеллекта через пробу и ошибку, подобно тому, как белка раскалывает орехи: пробуя разные методы, она получает вознаграждение за правильные действия и несет издержки за ошибки. Когда стоимость вычислительных мощностей постоянно снижается, а стоимость проб и ошибок становится достаточно низкой, закон масштабирования порождает современные большие языковые модели. Однако нынешние большие языковые модели полностью отклонились от этой первоначальной логики: по сути, они лишь предсказывают, что скажет человек, механически имитируя обучающие данные и прогнозируя потоки данных, и совершенно неспособны построить реальную модель мира.
Основная проблема заключается в том, что большим языковым моделям не хватает реальных целей и задач. Все когнитивные модели человека, будь то язык, математика, физика или биология, служат единой цели: описывать реальный мир, помогая человеку лучше выживать и жить. Только правильно познав мир, можно правильно его преобразовать. А единственная цель больших языковых моделей — не познание объективного мира, а имитация человеческой речи, имитация данных, которые человек им подает. Эта цель не может породить реальное взаимодействие с реальным миром, поэтому они никогда не смогут достичь уровня человеческого интеллекта.
Можно представить себе большую языковую модель как человека, запертого в клетке: сколько бы знаний вы ему ни подавали, он сможет усвоить столько, сколько вам удастся ему подать, но никогда не сможет вырваться из клетки и соприкоснуться с реальным миром. Если цель большой языковой модели заключается лишь в подражании человеку, то эта цель сама по себе и является клеткой. Сколько бы камер и датчиков ни установили на робота, пока его основная цель не изменится, он будет лишь учиться у человека, а не познавать мир сам по себе. Только когда искусственный интеллект обретет субъективную активность, сможет самостоятельно познавать мир и преобразовывать его под руководством сознания, станет возможным окончательно разбить эту клетку.
Основное отличие от человеческого интеллекта
Основное отличие человеческого интеллекта от современных крупных языковых моделей заключается в совершенно различной логике познания мира. Саттон провел сравнение с процессом обучения маленьких детей: дети часто бросают игрушки, что по сути является одним из способов построения модели мира. Взаимодействуя с миром, ребенок формирует абстрактное представление о гравитации и распространяет это представление на различные аспекты — ему не нужно понимать физический концепт гравитации, чтобы вывести причинно-следственный закон «объект, находящийся на высоте, падает, если отрывается от опоры», и применять этот закон к ситуациям, с которыми он никогда не сталкивался. Ребенок овладевает абстрактной причинно-следственной логикой, тогда как большие языковые модели находят лишь корреляционную логику, а не причинно-следственную.
Например, большая языковая модель посчитает, что если человек говорит «яблоко падает с яблони», то с высокой вероятностью дальше последует «яблоко упало на землю», а не «с праздником Праздника середины осени». Но она не может понять, почему яблоко падает, и не может предсказать, что если под яблоней находится бассейн, яблоко упадет в воду, а не на землю. Ребенок не нуждается в изучении всех возможных ситуаций, чтобы вывести законы причинно-следственной связи, но большая языковая модель не способна на это. Ей необходимо изучить все возможные ситуации, а затем составить список по степени вероятности, чтобы дать ответ.
Реальные ограничения крупных языковых моделей
Как инструмент, крупные языковые модели в настоящее время имеют недостатки, которые нельзя игнорировать, и наиболее заметным из них является проблема «ИИ-галлюцинаций». Например, если ИИ сначала должен получить данные с сервера, а только после успешного получения данных продолжить последующие операции, то в случае неудачи при получении данных ИИ может по умолчанию считать, что задача выполнена, пропустить этот шаг и продолжить выполнение, в конечном итоге обманывая пользователя, что все задачи выполнены. Такие ситуации уже стали обычным явлением. Если данные, которые человек подает ИИ, содержат значительную долю вводящей информации, ИИ также может испытывать галлюцинации и давать ответы, полностью не соответствующие действительности.
В настоящее время путь развития больших языковых моделей столкнулся с фундаментальным препятствием: когда корпус человеческого языка будет исчерпан, а данные в Интернете будут полностью извлечены, рост производительности больших языковых моделей подойдет к концу. Без способности взаимодействовать с реальным миром никогда не появится подлинная модель мира, а значит, никогда не будет достигнут уровень интеллекта человека.