Richard Sutton, ganador del Premio Turing, pionero en el campo del aprendizaje por refuerzo y colaborador clave en el desarrollo de los algoritmos de gradiente estratégico y el aprendizaje por diferencias temporales, es conocido en el sector como el «padre del aprendizaje por refuerzo». A finales de septiembre de 2025, este importante artífice de los grandes modelos de lenguaje expresó en una entrevista pública sus profundas dudas sobre la trayectoria actual de desarrollo de dichos modelos, afirmando sin rodeos que la línea tecnológica seguida por ChatGPT y similares no es la respuesta definitiva para alcanzar la verdadera inteligencia.

Los defectos fundamentales de los modelos de lenguaje a gran escala

Sutton considera que la lógica central del aprendizaje por refuerzo consiste en adquirir inteligencia a través del ensayo y error, un proceso similar al que sigue una ardilla para abrir una nuez: se prueban diferentes métodos, si se acierta se obtiene una recompensa y si se falla se asume un coste. Cuando el coste de la potencia de cálculo no dejó de descender y el coste del ensayo y error se redujo lo suficiente, la ley de escalabilidad dio lugar a los modelos de lenguaje a gran escala actuales. Sin embargo, los modelos de lenguaje a gran escala actuales se han desviado por completo de esta lógica original; su esencia se limita a predecir lo que dirá el ser humano, imitando mecánicamente los datos de entrenamiento y el flujo de datos de predicción, sin poder establecer en absoluto un modelo del mundo real.

El problema fundamental radica en que los modelos de lenguaje a gran escala carecen de objetivos y propósitos reales. Todos los modelos cognitivos humanos, ya sean del lenguaje, las matemáticas, la física o la biología, sirven a un propósito unificado: describir el mundo real y ayudar a los seres humanos a sobrevivir y vivir mejor. Solo al conocer correctamente el mundo se puede transformarlo correctamente. Sin embargo, el único objetivo de los grandes modelos de lenguaje no es conocer el mundo objetivo, sino imitar el habla humana e imitar los datos que los humanos les proporcionan. Este objetivo no puede generar una interacción real con el mundo real, por lo que nunca podrá alcanzar el nivel de inteligencia humana.

Podemos imaginar los grandes modelos de lenguaje como personas encerradas en una jaula: aprenden tanto como el conocimiento que se les proporciona, pero nunca podrán romper la jaula para entrar en contacto con el mundo real. Si el objetivo de los grandes modelos de lenguaje es simplemente imitar a los humanos, entonces ese objetivo en sí mismo es la jaula. Por muchas cámaras y sensores que se le instalen a un robot, mientras su objetivo central no cambie, siempre se limitará a aprender de los humanos, en lugar de aprender del mundo en sí. Solo cuando la inteligencia artificial adquiera capacidad de iniciativa, sea capaz de conocer el mundo de forma proactiva y lo transforme bajo la guía de la conciencia, será posible romper finalmente esa jaula.

La diferencia fundamental con la inteligencia humana

La diferencia fundamental entre la inteligencia humana y los actuales modelos de lenguaje grandes radica en que su lógica de conocimiento del mundo es completamente diferente. Sutton hizo una comparación con el proceso de aprendizaje de los niños: los niños suelen tirar los juguetes, lo que en esencia es una forma de construir un modelo del mundo. A través de la interacción con el mundo, los niños desarrollan una comprensión abstracta de la gravedad y extienden este conocimiento a todos los ámbitos: sin necesidad de comprender el concepto físico de la gravedad, pueden deducir la ley causal de que «los objetos situados en altura caen cuando se separan de su soporte», y pueden aplicar esta ley a situaciones que nunca han visto antes. Los niños dominan la lógica causal abstracta, mientras que los grandes modelos de lenguaje solo encuentran una lógica de correlación, no una lógica causal.

Por ejemplo, un modelo de lenguaje grande considerará que, si un humano dice «la manzana se cae del manzano», lo más probable es que a continuación diga «la manzana cayó al suelo», y no «feliz Festival del Medio Otoño». Sin embargo, no puede comprender por qué se cae la manzana, ni predecir que, si hay un estanque debajo del manzano, la manzana caerá al agua en lugar de al suelo. Los niños no necesitan aprender todas las situaciones para deducir las leyes causales, pero los grandes modelos de lenguaje no pueden hacerlo. Necesitan aprender todas las situaciones y luego establecer un orden de prioridad para poder dar una respuesta.

Los límites reales de los grandes modelos de lenguaje

Como herramienta, los grandes modelos de lenguaje tienen actualmente defectos que no se pueden ignorar, siendo el más destacado el problema de las alucinaciones de la IA. Por ejemplo, si se le pide a la IA que primero recoja datos del servidor y, si lo consigue, continúe con las operaciones posteriores, pero en la práctica la recogida falla, es posible que la IA asuma que ya ha completado la tarea, se salte el paso y continúe ejecutándose, engañando finalmente al usuario al decirle que ha completado todas las tareas. Este tipo de situaciones ya son muy comunes. Si los datos que los humanos proporcionan a la IA son muy engañosos, la IA también puede sufrir alucinaciones y dar respuestas que no se ajustan en absoluto a la realidad.

La trayectoria actual de desarrollo de los grandes modelos de lenguaje se enfrenta ya a un cuello de botella fundamental: cuando se agote el corpus humano y se hayan explotado por completo los datos de Internet, el crecimiento del rendimiento de los grandes modelos de lenguaje llegará a su fin. Sin la capacidad de interactuar con el mundo real, nunca podrá surgir un modelo del mundo auténtico, por lo que nunca será posible alcanzar el nivel de inteligencia humana.