IA y deuda cognitiva: ¿ChatGPT nos vuelve más lentos? (Estudio del MIT)

El uso excesivo de LLMs como ChatGPT nos vuelve menos capaces y más vulnerables. Tu cerebro cambia y tus redes neuronales se debilitan mediblemente.

¿Qué es la deuda cognitiva en la era de la IA?

Un reciente estudio (2025) del MIT (Instituto de Tecnología de Massachusetts), concluye empíricamente algo que más o menos ya podíamos intuir: que el uso de grandes modelos de lenguaje (IA tipo ChatGPT) para realizar el trabajo en nuestro lugar, como por ejemplo escribir ensayos como era el caso del estudio, provocará que tus redes neuronales tiendan a debilitarse. Cual músculo que tiende a la atrofia por desuso. Se genera por tanto un impacto negativo en la actividad cerebral y en nuestra capacidad de pensar de manera independiente.

El concepto de deuda cognitiva aparece a raíz de esta investigación y nos pone en alerta al respecto de qué sucede en nuestra «circuitería neuronal» cuando delegamos de forma sistemática tareas que podríamos realizar nosotros mismos. De ahí la abstracción sobre que ChatGPT nos puede potencialmente volver más lentos.

La deuda cognitiva es el coste mental o coste cerebral que pagamos por evitar el esfuerzo de pensar, realizar tareas etc. por nosotros mismos, delegando lo anterior en herramientas externas como los modelos grandes de lenguaje, como por ejemplo y por alusión al estudio del MIT, ChatGPT.

El estudio del MIT: escribiendo ensayos con ChatGPT

El estudio dividió a sus participantes en 3 grupos diferentes realizando el mismo tipo de tareas. Cada grupo disponía de unas herramientas diferentes. El primer grupo usaba ChatGPT. El segundo utilizaba buscadores de Internet y el tercero, solo podía valerse de su propio conocimiento. Se pretendía observar cómo cada grupo desarrollaba las mismas tareas con diferentes herramientas.

Para poder medir y extraer conclusiones sobre el rendimiento cognitivo de cada grupo, se utilizaron gorros de electroencefalograma (EEG) que leían la actividad cortical de los diferentes participantes para evaluar la carga cognitiva y el compromiso cognitivo. El estudio se extendió durante 4 meses para poder medir así, con los gorros EEG, cómo iba evolucionando la actividad cortical en los diferentes grupos.

Resultados del estudio del MIT

Cada grupo mostró diferencias significativas en sus patrones de conectividad neuronal y, a la vez, congruentes entre los miembros del mismo grupo. Es decir, patrones similares en miembros del mismo grupo pero significativamente diferentes entre grupos.

A medida que el cerebro recibía mayor soporte externo, su patrón de conectividad se volvía más débil. El cerebro mostraba, por tanto, una menor profundidad de pensamiento. Las redes neuronales más fuertes durante la tarea de escribir los ensayos eran las de quienes no usaban ayuda externa. Las diferencias se observaban especialmente en las bandas alfa y beta, relacionadas con la atención sostenida y la memoria de trabajo. El «grupo solo cerebro» mostró la mayor conectividad neural, mientras que el «grupo LLM» tuvo la menor.

El uso de LLMs redujo la carga cognitiva un 32% en comparación con otros métodos. Además, los participantes que usaron ChatGPT, también perdían la conexión con su propio trabajo. Se sentían desapegados de sus propios textos y presentaban una baja capacidad de citar frases de su ensayo incluso pocos minutos después de haberlo terminado. 

Conclusiones: el futuro del trabajo intelectual y la IA

Algunas conclusiones del estudio son que la dependencia de los LLMs puede disminuir la motivación para la investigación independiente y tiene implicaciones significativas para el aprendizaje y el desarrollo cognitivo. Además, los estudiantes con baja autoeficacia tienden a depender más de los LLMs, lo que afecta su rendimiento cognitivo. Y, la interacción con LLMs puede limitar las oportunidades de aprendizaje social y colaboración.

Por otra parte, el uso de los LLMs puede mejorar la eficiencia, la estructura y el rendimiento en tareas a corto plazo. Pero tiene un impacto negativo en la transferencia del conocimiento, la retención de la información y puede provocar «pereza cognitiva» al depender de los LLMs para la escritura. 

Por último hay que mencionar que los ensayos escritos por el «grupo LLM» tenían menor variabilidad y existía en ellos un patrón más marcado, un sesgo. Por tanto, existía en ellos una exposición selectiva a información sesgada en comparación a usar motores de búsqueda convencionales o el propio criterio. Además, la dependencia de estos sistemas que filtran la información, puede llevarnos a conclusiones basadas en una evidencia incompleta justamente por ese sesgo y falta de autocrítica. Al final, aún y ser muy sofisticada, no deja de ser una entidad software con criterio propio (aprendido) pero no inteligente.

Revisado por:

Manuel Rey

Socio fundador de Tecyss

Estudio completo publicado en ResearchGate