
Hace unos días, Walter Montes resumía en este mismo medio un estudio del Massachusetts Institute of Technology (MIT) que ha generado debate mundial: Your Brain on ChatGPT.
El estudio muestra, mediante mediciones de actividad cerebral (EEG), que cuando las personas escriben con ayuda de herramientas como ChatGPT, la conectividad neuronal asociada con la memoria, la atención y el control ejecutivo disminuye. Además, quienes usaron esta tecnología recordaban menos lo que habían escrito y sentían menor apropiación de sus ideas.
A primera vista, esto puede parecer una advertencia sobre los riesgos de “pensar menos” al usar inteligencia artificial (IA) generativa. Pero si uno revisa con más detalle el estudio, lo que encuentra es algo más complejo: una exploración útil, aunque limitada, sobre cómo interactuamos con estas nuevas herramientas. Y ahí está el verdadero valor de esta investigación.
Los resultados se basan en un experimento realizado con tan solo 54 estudiantes universitarios en Boston, quienes debían escribir ensayos breves (en 20 minutos) en tres condiciones distintas: usando ChatGPT, usando Google (sin IA) o sin ninguna herramienta. Se midió su actividad cerebral, la calidad de los textos, y su percepción del proceso.
Aunque el diseño parece equilibrado, al analizarlo con ojo crítico aparecen algunas diferencias importantes que deben ser consideradas antes de generalizar los resultados. Por ejemplo, aunque cada grupo debía “escribir un ensayo”, en realidad se les asignaron tareas cognitivas distintas: al grupo que no podía utilizar herramientas tecnológicas se le pidió pensar y redactar desde cero. En cambio, al grupo que usó ChatGPT se le indicó que debía utilizar obligatoriamente la herramienta como única fuente, sin guía sobre cómo reflexionar, editar o cuestionar lo que la IA producía.
Así, lo que se midió no fue el impacto del uso crítico de la IA, sino más bien la reacción de estudiantes sin experiencia previa que usaron por primera vez un sistema nuevo durante 20 minutos. Esto afecta directamente la validez interna del estudio. ¿Se activaron menos las áreas del cerebro vinculadas con el razonamiento porque el modelo “nos hace vagos”, o porque la consigna no invitaba a pensar ni a cuestionar? ¿Estamos comparando herramientas o comparando demandas cognitivas distintas?
Además, la validez externa del estudio también es muy limitada: los participantes eran estudiantes universitarios de élite, el contexto era artificial y el uso de la IA no refleja cómo estudiantes reales interactúan con estas herramientas durante semanas o meses. Por lo tanto, los resultados no son extrapolables a otros contextos, países, edades ni tipos de usuarios, y deben leerse como una señal temprana, no como una conclusión definitiva.
Más aún, es importante recordar que este estudio todavía no ha pasado por un proceso de revisión por pares, donde usualmente se detectan las debilidades metodológicas y se corrigen interpretaciones sobregeneralizadas. Su publicación temprana, como borrador, responde a la urgencia de abrir el debate, pero no debe interpretarse como conocimiento consolidado.
Dicho esto, el estudio sí aporta una advertencia útil: si convertimos a la inteligencia artificial en sustituto –y no en complemento– de nuestro pensamiento, podemos sacrificar habilidades como la memoria, la autorregulación o el sentido de propiedad sobre nuestras ideas. Pero esa es una elección pedagógica y de diseño institucional, no un destino inevitable.
Lo cierto es que hay otros estudios más rigurosos y con mayor duración que muestran resultados distintos. Uno de ellos, documentado por el J-PAL en Brasil, evaluó el uso de una herramienta de IA que ofrece retroalimentación automatizada a estudiantes de secundaria en escuelas públicas del estado de Espírito Santo.
La intervención alcanzó a más de 100.000 jóvenes y fue diseñada para integrarse con el trabajo docente, no para reemplazarlo. A diferencia del estudio del MIT, aquí sí se midió el impacto a lo largo del tiempo, y los resultados fueron alentadores: mejoras significativas en las habilidades de escritura, especialmente en estudiantes con mayores rezagos. La herramienta no escribía por ellos, sino que les ayudaba a mejorar lo que escribían.
Este diseño posee mayor validez externa y confiabilidad para extraer lecciones que sí pueden generalizarse a otros contextos educativos. Entonces, ¿cuál es la lección? Que el impacto de la IA en el aprendizaje depende de cómo se use. Si se presenta como un atajo automático, que no requiere reflexión ni esfuerzo, puede debilitar ciertas habilidades. Pero si se integra como una herramienta de acompañamiento, diseñada para fomentar la mejora, la revisión y el pensamiento propio, puede ser una aliada poderosa.
Estamos apenas en los inicios de esta transición. Sería un error ignorar los riesgos, pero también lo sería renunciar al potencial transformador que ofrecen estas tecnologías. Para eso, necesitamos marcos éticos, diseño pedagógico inteligente y una alfabetización digital que forme ciudadanos críticos, no solo consumidores pasivos de texto.
Pensar mejor con la IA es posible. Pero requiere, precisamente, no dejar de pensar.
Andrés Fernández Arauz es economista.