Si la máquina repite mejor que nosotros, es hora de aprender a pensar mejor

5 min de lectura

Bienvenidos a la columna Navegando en la Educación Digital. Hoy no partimos de una promesa tecnológica, sino de una pregunta incómoda que atraviesa aulas, oficinas y hogares: ¿qué ocurre cuando aquello que sabíamos hacer mejor —repetir con precisión, ejecutar procedimientos, aplicar reglas— comienza a ser realizado con mayor eficiencia por sistemas inteligentes?

Durante décadas, gran parte del trabajo humano, tanto intelectual como físico, se estructuró en torno a la repetición eficiente. Aprender significaba dominar un protocolo, memorizar un procedimiento, perfeccionar una técnica hasta volverla casi automática. Ese modelo funcionó porque la técnica dependía del operador humano; la industria, la escuela y numerosas profesiones se organizaron bajo esa lógica de ejecución constante. Sin embargo, hoy vivimos una transición profunda: los sistemas de inteligencia artificial, la robótica avanzada y la automatización ya no solo repiten, sino que optimizan, predicen, correlacionan datos y aprenden de patrones. En palabras sencillas, aprenden observando millones de ejemplos y detectando regularidades, algo parecido a como un niño aprende a reconocer un rostro después de verlo muchas veces. La programación basada en reglas —decirle a la máquina exactamente qué hacer paso a paso— ha cedido terreno frente a modelos de aprendizaje profundo que ajustan sus respuestas a partir de datos. No estamos ante una simple mejora técnica, sino ante un desplazamiento estructural en la manera de resolver problemas.

Thomas Kuhn explicaba que los científicos no observan el mundo “tal cual es”, sino a través de paradigmas. Un paradigma es como un par de lentes invisibles: un conjunto de ideas compartidas que nos dicen qué preguntas hacer y qué respuestas considerar válidas. Cuando esos lentes dejan de servir porque la realidad cambia y aparecen problemas que no pueden explicarse, surgen lo que él llamaba “anomalías”. Si esas anomalías se acumulan, ocurre una transformación profunda: cambia la forma de mirar el mundo. Lo que presenciamos hoy con la inteligencia artificial puede leerse desde esa clave: el modelo educativo centrado en la repetición comienza a mostrar sus límites frente a tecnologías que ejecutan mejor esa tarea. No se trata de una moda pasajera, sino de un momento de transición que redefine nuestras “gafas” para comprender el aprendizaje y el trabajo.

Pero este cambio no puede reducirse a una transformación técnica o metodológica. Paul Feyerabend recordaba que los grandes avances científicos no surgieron de la obediencia rígida a un único método, sino precisamente de la capacidad de romper reglas, de integrar saberes diversos y de desafiar la ortodoxia dominante. Cuando él hablaba de pluralismo epistemológico, se refería a algo muy concreto: no existe una sola forma correcta de producir conocimiento. A veces la creatividad, la intuición o el diálogo entre disciplinas abren caminos que un método rígido no permitiría ver. Su idea cobra hoy una vigencia especial: la ciencia del siglo XXI es transdisciplinaria por necesidad. Transdisciplinaria significa que no basta con que cada especialista trabaje por separado; es necesario que matemáticos, filósofos, psicólogos, ingenieros y sociólogos conversen y construyan juntos soluciones. Comprender fenómenos como la inteligencia artificial o el cambio climático exige articular datos, ética, filosofía, matemáticas, sociología y psicología. La investigación transversal no es una moda académica, sino una condición histórica para enfrentar la complejidad contemporánea.

En este escenario, el riesgo no es que las máquinas aprendan, sino que nosotros reduzcamos nuestra formación a aquello que puede ser reemplazado; por ello necesitamos instituciones educativas que impulsen todos los tipos de razonamiento —deductivo, inductivo, abductivo, sistémico y moral—, es decir, distintas maneras de pensar: desde sacar conclusiones lógicas hasta imaginar explicaciones nuevas o analizar problemas como un todo interconectado. También requerimos una investigación científica capaz de dialogar entre disciplinas y preparar a la sociedad para comprender los cambios sin fragmentarse en visiones inconmensurables —perspectivas tan distintas que pareciera que no nos entendemos—. Navegar la educación digital no significa adaptarse pasivamente a la tecnología, sino comprender el paradigma que la sostiene y decidir cómo queremos habitarlo, porque si las máquinas ya repiten mejor que nosotros, la cuestión no es competir con ellas en eficiencia, sino transformar nuestra manera de pensar.

Si estamos ante un cambio profundo en la forma de producir y entender el conocimiento, la pregunta que debemos hacernos es clara: ¿formaremos generaciones capaces de cuestionar los “lentes” con los que miran el mundo y dialogar entre saberes distintos, o seguiremos entrenándolas para repetir aquello que las máquinas ya hacen mejor?

Gobernar lo que aprende y actúa: inteligencia artificial, mundos inmersivos y política educativa en 2026