La amenaza aparente
La inteligencia artificial generativa parece amenazar algo fundamental. Si las calculadoras “secuestraron” nuestra capacidad de cálculo mental, la IA amenaza con ser carcelero de algo más valioso: la capacidad de razonar. Un estudio con 666 participantes encontró correlación negativa entre uso frecuente de IA y pensamiento crítico (r = -0.68) [1]. Un ensayo controlado con ~1,000 estudiantes demostró que GPT-4 sin restricciones mejoraba el rendimiento en prácticas 48%, pero producía 17% peor desempeño en exámenes posteriores [2].
El precedente de la calculadora
Sin embargo, la historia revela algo contraintuitivo. El meta-análisis de Hembree y Dessart (1986), integrando 79 estudios, encontró que el uso de calculadoras junto con instrucción tradicional mejoraba las habilidades básicas con lápiz y papel [3]. No hubo simplemente dependencia, sino redistribución cognitiva: la calculadora liberó cómputo mental para pensar a niveles más complejos.
Douglas Engelbart articuló esta visión en 1962: no simplemente aumentar la inteligencia nativa, sino organizar capacidades intelectuales en “niveles superiores de estructuración sinérgica” [4].
La hipótesis: la IA como escalón hacia capas de abstracción superiores
Este artículo plantea una hipótesis: la IA puede funcionar como escalón que facilita el acceso a capas de abstracción cognitiva más complejas.
Así como la calculadora permitió que “hacer matemáticas más complejas” evolucionara de manipular números a manipular conceptos, la IA podría permitir que “razonar” evolucione de construir argumentos individuales a orquestar sistemas de pensamiento, evaluar marcos epistémicos y navegar complejidades que exceden la capacidad de procesamiento individual usual.
Andy Clark aplicó este marco a la IA en 2025: la IA como tecnología que “extiende la mente” en lugar de reemplazarla [5]. Sidorkin (2025) formaliza esto como la “hipótesis del efecto trampolín”: la IA expande la zona de desarrollo próximo de Vygotsky, permitiendo acceso a actividades cognitivas de orden superior antes de dominar completamente las habilidades base [6].
Evidencia emergente
El experimento de Noy y Zhang (Science, 2023) con 453 profesionales encontró que los trabajadores de menor habilidad se beneficiaron más de ChatGPT (43% vs 17% para los mejores), sugiriendo que la IA funcionó como andamiaje hacia niveles previamente inaccesibles [7].
Un RCT en Harvard con 194 estudiantes de física encontró que un tutor de IA bien diseñado superó el aprendizaje activo en clase [8]. La diferencia: prompts pedagógicos que mantenían al estudiante cognitivamente activo.
El estudio de Bastani et al. (PNAS, 2025) ilumina la paradoja: cuando GPT-4 se rediseñó con guardarraíles pedagógicos (pistas en lugar de respuestas), la mejora en práctica aumentó a 127% sin efectos negativos en aprendizaje [2]. La diferencia no era la tecnología sino la arquitectura de interacción.
Conclusión: la posibilidad del escalón
La evidencia sugiere que esta posibilidad existe. La calculadora demostró que ceder una capacidad cognitiva a una herramienta puede, paradójicamente, fortalecer esa capacidad mientras libera recursos para operar en niveles superiores. Los estudios recientes muestran que la IA, bajo condiciones de diseño apropiadas, replica este patrón: mejora el rendimiento inmediato sin degradar —y a veces fortaleciendo— las habilidades subyacentes.
Si el razonamiento humano tiene capas de abstracción por encima de lo que hoy consideramos “razonar” —de la misma manera que el álgebra opera sobre la aritmética—, entonces la IA bien diseñada podría ser el escalón que facilite el acceso a esas capas. La posibilidad está ahí. Este artículo es quizás una “metaprueba” de ello.
Referencias
-
Gerlich, M. (2025). AI Tools in Society: Impacts on Cognitive Offloading and the Future of Critical Thinking. Societies, 15(1), 6. https://www.mdpi.com/2075-4698/15/1/6
-
Bastani, H. et al. (2025). Generative AI without guardrails can harm learning: Evidence from high school mathematics. PNAS. https://www.pnas.org/doi/10.1073/pnas.2422633122
-
Hembree, R. & Dessart, D. (1986). Effects of Hand-Held Calculators in Precollege Mathematics Education: A Meta-Analysis. Journal for Research in Mathematics Education, 17(2), 83-99. https://pubs.nctm.org/view/journals/jrme/17/2/article-p83.xml
-
Engelbart, D. (1962). Augmenting Human Intellect: A Conceptual Framework. Stanford Research Institute. https://www.dougengelbart.org/content/view/138/
-
Clark, A. (2025). Extending Minds with Generative AI. Nature Communications. https://www.nature.com/articles/s41467-025-59906-9
-
Sidorkin, A. (2025). Leapfrogging Effect Hypothesis: Generative AI as a Permanent Scaffold in Higher Education. SSRN. https://papers.ssrn.com/sol3/papers.cfm?abstract_id=5230565
-
Noy, S. & Zhang, W. (2023). Experimental evidence on the productivity effects of generative artificial intelligence. Science, 381, 187-192. https://www.science.org/doi/10.1126/science.adh2586
-
Kestin, G. et al. (2025). AI tutoring outperforms in-class active learning: an RCT introducing a novel research-based design in an authentic educational setting. Scientific Reports. https://www.nature.com/articles/s41598-025-97652-6