Un experimento revelador: escribir con y sin IA
El estudio del MIT, publicado como paper en junio de 2024, aborda de forma empírica el impacto cognitivo del uso de ChatGPT como asistente para escribir ensayos. Los investigadores organizaron a más de 180 participantes en tres grupos iniciales:
- Grupo IA: redactaron sus ensayos con la ayuda directa de ChatGPT.
- Grupo búsqueda online: podían consultar Internet, pero sin usar IA generativa.
- Grupo sin apoyo: escribieron sin ninguna ayuda tecnológica.
En una segunda fase, se invirtieron las condiciones: quienes usaron IA lo harían sin ella, y viceversa. Finalmente, se realizó una última ronda de escritura individual para analizar los efectos acumulados de cada tipo de asistencia.
Los resultados fueron contundentes: “Los escritores asistidos por IA produjeron ensayos más rápidamente y con menos esfuerzo cognitivo”. Sin embargo, esos textos presentaban también menor diversidad léxica, estructuras más repetitivas y mayor similitud entre trabajos. Además, los estudiantes que comenzaron con ChatGPT manifestaron menor recuerdo del contenido y una más débil sensación de autoría.
En la última ronda, cuando estos estudiantes tuvieron que escribir sin ayuda, mostraron un descenso significativo en la calidad y profundidad de sus ensayos. “Una exposición previa a la asistencia con IA redujo el esfuerzo cognitivo posterior cuando la IA ya no estaba disponible”. En palabras de los autores: “Los participantes desarrollaron una dependencia de la herramienta de IA, lo que perjudicó su rendimiento independiente posteriormente”.
El uso de asistentes de IA en tareas de escritura puede conducir a la acumulación de deuda cognitiva
¿Qué es la deuda cognitiva?
El concepto central del estudio es la “deuda cognitiva”, un término que los autores adaptan desde la economía y la informática. Igual que la deuda técnica se acumula cuando se posponen tareas clave de desarrollo en un sistema, la deuda cognitiva surge cuando el esfuerzo mental necesario para realizar una tarea es evitado o externalizado de forma sistemática.
Desde la psicología del aprendizaje, esta idea conecta con las teorías de la carga cognitiva y el aprendizaje profundo. Si el estudiante no participa activamente en los procesos de comprensión, síntesis y formulación, su desarrollo intelectual queda debilitado, aunque el resultado formal sea correcto o incluso brillante.
El estudio del MIT no critica el uso de ChatGPT en sí mismo, sino su utilización sin orientación pedagógica. Los investigadores advierten que “las instituciones educativas deben considerar cómo integrar las herramientas de IA sin socavar los resultados de aprendizaje”. En otras palabras, no se trata de prohibir la tecnología, sino de asumir que el cómo se usa es lo que marcará la diferencia.
Pujol: “No es la IA el problema, sino la ausencia de integración pedagógica”
Frente a una interpretación apresurada de que este estudio demuestra los peligros de usar IA en educación, Francesc Pujol —co director de EurekAI, el Centro para la integración de la IA en la docencia de la Universidad de Navarra — ofrece una lectura diferente. “Lo que muestra este artículo son, al contrario, los riesgos y problemas de la ausencia de la integración de la IA en la docencia”, afirma. Y subraya: “Cuando faltan condiciones pedagógicas adecuadas, los estudiantes tienden a usar ChatGPT desde el inicio, lo que acelera el trabajo pero genera deuda cognitiva y limita su desarrollo”.
Según su análisis, lo que el MIT ha radiografiado con precisión es el escenario que predomina actualmente en muchas universidades: prohibiciones poco efectivas, falta de orientación, y una ausencia total de reflexión pedagógica sobre cómo y cuándo usar la IA. “Prohibir la IA no evita este uso, ya que persisten los incentivos”, advierte.
La clave, sostiene Pujol, está en diseñar un itinerario de aprendizaje en el que el uso de la IA llegue después de que el estudiante haya trabajado, explorado y generado sus propias ideas. “Usar la IA no para lo que no saben, sino para lo que ya han aprendido y trabajado. Usar la IA para pensar más y trabajar más”.
EurekAI: integrar la IA desde el diseño instruccional
La Guía EurekAI, publicada en junio pasado, se presenta como una respuesta institucional a este desafío. Frente al riesgo de convertir la IA en un atajo que empobrece el aprendizaje, propone un modelo competencial para integrar esta tecnología de forma crítica, ética y pedagógicamente significativa en la docencia universitaria.
“El centro de gravedad del recorrido formativo se mueve del resultado hacia el proceso”, plantea el documento. Esta idea es esencial: si la evaluación sigue centrada en los productos finales y esos productos pueden ser generados por IA, entonces el vínculo entre aprendizaje y reconocimiento académico se rompe. Es necesario, por tanto, rediseñar las actividades y mecanismos evaluativos para que capten las evidencias del proceso cognitivo.
El documento se inspira en el marco europeo DigCompEdu, pero lo adapta específicamente al contexto de la IA. “No se trata simplemente de añadir un módulo de IA a un marco existente, sino de repensar cómo la IA redefine cada dimensión de la competencia docente”, explican sus autores.
La verdadera innovación reside en la capacidad docente para discernir y aplicar estas herramientas con un propósito claro
Un diálogo implícito: del experimento a la política educativa
La complementariedad entre el artículo del MIT y la guía de la Universidad de Navarra es evidente. El primero pone el foco en el síntoma: el uso directo e irreflexivo de ChatGPT produce textos aceptables, pero limita el desarrollo intelectual. La segunda apunta a la causa y a la solución: ese uso es consecuencia de una falta de diseño pedagógico, y puede corregirse mediante un modelo claro de integración.
Ambos coinciden en que la IA no debe sustituir el esfuerzo cognitivo, sino amplificarlo. La deuda cognitiva no es el destino inevitable de la IA en la Educación, sino el resultado de su ausencia de integración.
“La verdadera innovación reside en la capacidad docente para discernir, adaptar y aplicar estas herramientas con un propósito claro”, concluye la Guía EurekAI. Ese discernimiento, convertido en política pedagógica, es lo que puede evitar que la deuda cognitiva se convierta en una deuda estructural del sistema educativo.
Contexto global: un debate abierto en la educación superior
Este diálogo entre experimentación y pedagogía se enmarca en un contexto global donde colegios, universidades, gobiernos y organismos internacionales están intentando responder a una pregunta urgente: ¿cómo incorporar la IA en los sistemas educativos sin perder lo esencial del aprendizaje humano?
En 2023, la UNESCO publicó su primera guía mundial sobre IA generativa en educación, subrayando la importancia de un enfoque “centrado en el ser humano” y con control docente. Ese mismo año, la Unión Europea acordó el texto final del AI Act, el primer marco legal integral para regular la inteligencia artificial, incluyendo disposiciones específicas sobre modelos generativos.
Ahora, estas nuevas aportaciones procedentes del aula ofrecen una advertencia y una posibilidad. La advertencia: si no se interviene, la IA será usada por los estudiantes como un atajo que debilita el aprendizaje. La posibilidad: si se diseña adecuadamente, puede ser una aliada para pensar más, para aprender mejor.