En este artículo
Bienvenidos a Navegando en la Educación Digital. Durante la década pasada, cuando la inteligencia artificial comenzó a instalarse con más fuerza en la conversación pública, para muchas personas seguía pareciendo un asunto lejano, propio de laboratorios o de grandes empresas tecnológicas. En educación y en ciencias sociales se le observaba más como promesa o advertencia futura que como una realidad inmediata. Pero en esta década el panorama cambió con rapidez: la IA dejó de ser una capa silenciosa para convertirse en conversación, voz, imagen, video, asistencia, automatización, navegación, inmersión y, en algunos casos, mediación entre lo real y lo virtual.
Ese desplazamiento no es menor. En pocos años pasamos de hablar principalmente de algoritmos de recomendación y reconocimiento de patrones, a convivir con modelos capaces de generar texto, sintetizar voz, producir imágenes, crear video, ayudar a programar, integrarse a videojuegos, operar como agentes, navegar en la web, ejecutar acciones en el ordenador e incluso vincularse con sistemas inmersivos y robóticos. Sin embargo, justo cuando el fenómeno se volvió más amplio, también se volvió más frecuente un error conceptual: empezamos a hablar de “la IA” como si todo funcionara igual.
Allí aparece uno de los riesgos más delicados para la educación: confundir las plataformas más visibles con la totalidad del campo. Un chatbot conversacional, un generador de imágenes, un modelo de video, un browser agent o un sistema local especializado no son lo mismo, aunque desde fuera parezcan parte de una sola familia. Hoy conviven sistemas conectados a grandes infraestructuras en red con modelos abiertos, descargables y ajustables para ejecutarse localmente en tareas acotadas. Esa diferencia modifica la relación con los datos, la privacidad, la dependencia tecnológica, la supervisión y la gobernanza del sistema.
Por eso resulta insuficiente que desde psicología, pedagogía, didáctica, antropología, historia, neurociencias o ciencias sociales en general se hable del deep learning como si nombrarlo bastara para comprender todo el fenómeno contemporáneo. No se trata de restar valor a esas áreas; al contrario, son fundamentales para interpretar la dimensión humana, cultural, cognitiva y ética de la inteligencia artificial. El problema surge cuando una parte se toma por el todo, cuando las críticas dirigidas a la IA en línea se trasladan automáticamente a cualquier otra variante tecnológica, o cuando se piensa que toda IA depende de internet o de una plataforma corporativa.
Aquí la propuesta del Dr. Ruiz-Velasco resulta especialmente iluminadora. Antes de la codificación, él plantea un trayecto que pasa por la narrativa natural, la algoritmización y la estructuración. Primero se nombra el problema en lenguaje humano; después se organiza en pasos lógicos; luego se reconocen secuencias, condiciones y repeticiones; y solo después se traduce a una forma operable. Esta idea no solo sirve para enseñar tecnología: también sirve para pensarla. Antes de emitir juicios generales sobre la IA, convendría preguntar qué tipo de sistema estamos observando, qué problema resuelve, de qué datos depende, si opera en nube o de manera local, qué control tiene el usuario y qué límites fueron definidos por quien lo diseñó o lo implementa.
La distinción entre IA conectada e IA local modifica también el debate ético. La IA conectada coloca en primer plano asuntos como centralización, extracción de datos, actualización remota, dependencia de plataforma y directrices corporativas. La IA local desplaza parte del problema hacia otros terrenos: la calidad del corpus con que fue afinada, la intención del usuario que la adapta, la seguridad del dispositivo y la responsabilidad humana sobre lo que ese sistema hace o deja de hacer. Ninguna de las dos es éticamente neutra, pero tampoco son equivalentes. No se trata de idealizar la IA local ni de condenar automáticamente la IA en red; se trata de comprender que cada variante exige categorías más precisas de análisis.
Tampoco sería suficiente caer en el extremo opuesto y reducir todo a una mirada tecnocrática donde solo importan métricas y rendimiento computacional. La educación no puede limitarse a repetir vocabularios técnicos ni a pensar que comprender una arquitectura equivale a comprender su sentido humano. Comprender la teoría sin despreciar la técnica, y comprender la técnica sin reducir lo humano a una lógica instrumental, quizá sea una de las tareas más urgentes del presente. Porque cuando la educación trabaja con conceptos incompletos, no solo interpreta mal la tecnología: también forma mal las preguntas con las que intentamos comprenderla. La pregunta de fondo es inevitable: ¿estamos enseñando a pensar críticamente la inteligencia artificial desde todas sus variantes y mediaciones, o apenas repetimos una versión parcial de aquello que todavía no terminamos de comprender?