Enrique Dans
Ahora empezamos a externalizar algo mucho más relevante: no la memoria, no la orientación, no la agenda, sino el propio pensamiento. O, más exactamente, el trabajo de formarse un juicio antes de expresarlo.
La era de la externalización cognitiva
El problema no es externalizar per se. El problema es qué estamos externalizando.
Cuando externalizamos el almacenamiento, ahorramos esfuerzo. Cuando externalizamos la navegación, reducimos incertidumbre. Pero cuando externalizamos el juicio, corremos el riesgo de debilitar la facultad que nos permite decidir si la máquina es útil, engañosa, sesgada, superficial, manipuladora o simplemente incorrecta.
Ese riesgo importa más de lo que muchas organizaciones parecen dispuestas a admitir. Porque la inteligencia artificial generativa no solo responde preguntas: crea una ilusión de competencia tan convincente que puede borrar la diferencia entre «entiendo esto» y «puedo producir algo que haga que parezca que lo entiendo». La revista Nature revisó recientemente la evidencia sobre memoria y herramientas digitales y subrayó un punto importante:
las afirmaciones más alarmistas sobre el deterioro cognitivo suelen ser exageradas. Pero también señalaba que ciertas capacidades pueden alterarse de forma significativa, incluyendo una confianza inflada y cambios en los patrones de recuerdo. Precisamente por eso este momento merece más seriedad de la que suelen aportarle tanto los optimistas ingenuos como los catastrofistas.
La fluidez no es cognición
Lo que hace culturalmente desestabilizadora a la inteligencia artificial generativa no es solo que sea útil. Es que es fluida.
Una calculadora nunca fingió entender la aritmética. Tu GPS nunca afirmó saber cómo se siente una ciudad. Los motores de búsqueda no hablaban en primera persona ni ofrecían resúmenes seguros en prosa perfecta. La inteligencia artificial generativa sí lo hace. Produce lenguaje con una pulidez y una cercanía al rendimiento retórico humano que hace fácil confundir coherencia lingüística con razonamiento.
Aquí es donde empieza a aparecer la verdadera división. No entre quienes usan inteligencia artificial y quienes no. Esa distinción ya empieza a ser trivial. La diferencia relevante es entre quienes usan la inteligencia artificial como compañera de pensamiento y quienes la utilizan como sustituto del pensamiento.
Los primeros se ven amplificados por ella. Los segundos se van vaciando poco a poco.
La educación es donde esto se vuelve imposible de ignorar
Si quieres ver claramente lo que está en juego, mira la educación. La ansiedad en torno a la inteligencia artificial en escuelas y universidades suele plantearse en términos de trampas, plagio o integridad en la evaluación. Son problemas reales, pero no el más profundo.
El problema de fondo es que la inteligencia artificial generativa puede mejorar el rendimiento sin generar aprendizaje.
El
Digital Education Outlook 2026 de la OCDE, que ya he citado en artículos anteriores (es seriamente bueno), es especialmente claro en este punto: cuando los estudiantes externalizan tareas a la inteligencia artificial generativa sin una guía pedagógica adecuada, el rendimiento puede mejorar incluso cuando el aprendizaje real no lo hace. La UNESCO ha planteado un argumento similar en sus
directrices sobre inteligencia artificial generativa en educación e investigación, advirtiendo de que estos sistemas deben utilizarse dentro de un marco centrado en lo humano y no como atajos que eviten el proceso cognitivo. Y la OCDE lleva años insistiendo en que la
creatividad y el
pensamiento crítico no son habilidades accesorias, sino objetivos centrales en una sociedad digital.
Por eso gran parte del pánico institucional en torno a la inteligencia artificial pierde el foco. La cuestión no es si los estudiantes usarán inteligencia artificial: por supuesto que lo harán. La cuestión es si seguirán obligados a ejercer juicio mientras la utilizan.
La paradoja de la era de la inteligencia artificial
Aquí está la paradoja que mucha gente aún no ha entendido: las personas que más se beneficiarán de la inteligencia artificial no serán las que la usen para todo.
Serán las que sepan cuándo no usarla.
No es una defensa romántica del pensamiento artesanal. Es un argumento práctico sobre el apalancamiento. Las personas con buen juicio, conocimiento sólido de su dominio y escepticismo disciplinado pueden usar la inteligencia artificial para avanzar más rápido sin renunciar a la autoría. Pueden cuestionar resultados, contrastar supuestos, comparar alternativas y detectar cuándo la máquina está simplificando en exceso o inventando certezas. Quienes no tienen esos hábitos son mucho más propensos a aceptar la primera respuesta plausible y seguir adelante.
Por eso este es un problema cultural, no solo tecnológico. No estamos simplemente incorporando una herramienta nueva a hábitos existentes. Estamos renegociando la relación entre esfuerzo y autoría, entre comodidad y competencia, entre expresión y comprensión.
De qué deberíamos preocuparnos realmente
El error más común en el debate público sobre la inteligencia artificial es oscilar entre dos caricaturas. Una dice que la inteligencia artificial nos volverá estúpidos. La otra que simplemente nos liberará para tareas de mayor nivel. La realidad es más compleja, y más interesante.
Bien utilizada, la inteligencia artificial puede reducir tareas tediosas y abrir espacio para pensar mejor. Mal utilizada, puede erosionar los hábitos que hacen posible pensar mejor.
Por eso la respuesta correcta no es ni la prohibición ni la rendición. Es el diseño. Necesitamos sistemas educativos, normas laborales y decisiones de producto que preserven el juicio humano en lugar de rodearlo. Necesitamos interfaces que fomenten la verificación, la reflexión y la comparación en lugar de empujar a la aceptación pasiva. Necesitamos dejar de considerar cualquier reducción del esfuerzo mental como progreso.
Porque no toda fricción es desperdicio. Parte de esa fricción es precisamente donde nace la comprensión.
Y ese es el error central detrás de gran parte del entusiasmo actual por la inteligencia artificial. Estamos midiendo velocidad, comodidad y volumen mientras ignoramos una pregunta mucho más difícil: ¿qué tipo de mente nos están ayudando a construir estos sistemas?
Esa es la pregunta que debería definir esta fase de la era de la inteligencia artificial: no si las máquinas pueden pensar como nosotros, sino si, al apoyarnos en ellas sin cuidado, podemos acabar dejando de pensar como nosotros mismos.
El futuro no pertenecerá a quienes más usen la inteligencia artificial. Pertenecerá a quienes sepan cuándo no usarla.
* profesor de Innovación en IE Business School, investiga y divulga sobre el impacto de la tecnología en empresas, sociedad y transformación digital.