Por: Otto Regalado. Profesor Principal de ESAN Graduate School of Business
En los últimos años, tanto en universidades como en equipos de trabajo, se ha vuelto habitual encontrar informes y presentaciones impecables en su forma: bien redactados, estructurados y persuasivos. Sin embargo, cuando se invita a quienes los elaboraron a explicar su razonamiento, surgen vacilaciones, respuestas generales y más dudas que claridad. Esta brecha entre lo producido y lo comprendido no solo plantea un desafío cognitivo, sino también un dilema ético: ¿hasta qué punto estamos delegando el pensamiento y renunciando, sin darnos cuenta, a la responsabilidad de entender?
Al mismo tiempo, hay un fenómeno que se extiende en la sociedad, especialmente entre las nuevas generaciones de estudiantes: individuos que leen menos textos extensos, se apoyan en resúmenes y tienen dificultades para analizar argumentos complejos, incluso si el resultado que producen es técnicamente correcto.
Es así como nos encontramos con un cambio en la forma en que accedemos al conocimiento y lo plasmamos. Y también es un cambio en la relación con el esfuerzo.
En un contexto donde la Inteligencia Artificial (IA) es protagonista, las discusiones sobre su masificación se han centrado en la automatización del trabajo y en su impacto sobre el empleo (reducción de planillas, nuevos estándares de productividad, entre otros). Sin embargo, esta mirada pasa por alto algo más profundo: la IA no únicamente automatiza tareas, sino que también comienza a automatizar el esfuerzo cognitivo que requerían. Y cuando ya no es necesario el esfuerzo, tampoco lo es el desarrollo. Hemos evitado este punto porque es incómodo.
Nos agrada pensar que la IA nos vuelve más productivos, eficientes e incluso más inteligentes. Y en cierta medida, lo es. Sin embargo, también permite generar sin entender, implementar sin reflexionar y responder sin plantear adecuadamente una pregunta. Nunca había sido tan sencillo aparentar ser competente sin serlo.
La IA ha quebrado la conexión histórica entre el proceso y el resultado. Escribir antes significaba organizar pensamientos, examinar y establecer relaciones, resolver y soportar la incomodidad de no entender. Hoy en día, una buena parte de esas fases se pueden externalizar. Y eso lo transforma todo. El proceso —no el resultado— era donde se producía el aprendizaje, porque implicaba tiempo, esfuerzo y prueba y error. Pero ahora no solo se pierde la práctica, sino también la estructura mental cuando este procedimiento se delega de manera sistemática.
Cada vez que se delega la generación y organización de una idea, la construcción de un texto, la resolución de un problema o la argumentación de un cuestionamiento, corremos el riesgo de debilitar nuestra capacidad para hacerlo por nosotros mismos, deteriorando nuestras respuestas cognitivas.
Este fenómeno no solo plantea un desafío cognitivo, sino también un dilema ético. Pensar no es únicamente una habilidad intelectual: es una responsabilidad. Cuando delegamos sistemáticamente el análisis, la reflexión o la comprensión, no solo perdemos destrezas, sino que renunciamos a una parte esencial de nuestra autonomía. La ética del pensamiento exige hacerse cargo del propio juicio, cuestionar lo que producimos y asumir el esfuerzo que implica entender. Si dejamos que la tecnología piense por nosotros, no es la IA la que cruza un límite: somos nosotros quienes cedemos voluntariamente un espacio que define nuestra humanidad.
Y esto no es una exageración. Solo basta con recordar cuándo fue la última vez que hicimos una labor sin utilizar IA, incluso si solo fue para una revisión. No se trata de condenar esta tecnología, sino de cuestionar hacia dónde vamos y cómo interactuamos con ella. ¿Cuestionamos sus resultados aunque parezcan correctos? No basta con leer lo que producen ChatGPT, Gemini o Claude. Es necesario saber dudar.
Cuando la producción deja de exigir pensar, pensar deja de ser obligatorio. Y cuando deja de ser obligatorio, comienza a desvanecerse como costumbre, generando una peligrosa complacencia con el mínimo esfuerzo en nombre de la productividad.
Actualmente se celebra la democratización del saber, el acceso a más información y más herramientas para ser productivos. Todo eso es cierto. Pero también lo es que esta democratización puede venir acompañada de una superficialización masiva. El acceso a más información no equivale a una mejor comprensión. Producir más no implica pensar más. Y quizá la cuestión no sea si la IA nos vuelve más competentes, sino en qué áreas nos está volviendo prescindibles para nosotros mismos.
Porque ese es el verdadero riesgo. No que la IA reemplace nuestro trabajo, sino que nos acostumbremos a no ser indispensables en nuestro propio proceso de pensamiento. Aunque no todos caerán en esta trampa, muchos optarán —sin notarlo— por el camino de menor resistencia cognitiva, porque está disponible, es eficiente y no se ve mal.
Ese es el aspecto más incómodo. No es un problema tecnológico. Es un problema de decisiones. La habilidad de pensar sigue existiendo, pero ya no es indispensable. Y cuando algo deja de ser indispensable, la mayoría deja de cultivarlo.
La pregunta que deberíamos hacernos no es si la IA piensa por nosotros, sino cuánto estamos dispuestos a dejar de pensar por nosotros mismos. La tecnología puede ampliar nuestras capacidades, pero también puede adormecerlas si renunciamos al esfuerzo que las sostiene. En un mundo donde producir es cada vez más fácil y comprender es cada vez más opcional, el desafío ético consiste en no abandonar la responsabilidad de pensar.
Porque pensar no es solo un acto intelectual: es un acto moral. Es elegir no delegar la parte más humana de nuestro trabajo. Es decidir que la autonomía vale más que la comodidad. Y frente a esa elección, conviene detenerse un momento y preguntarnos, con honestidad: ¿estamos realmente pensando o solo estamos dejando que otros —humanos o máquinas— lo hagan por nosotros?


























