La Suprema Corte de Justicia de la Nación resolvió en el asunto AD 6/2025 que las obras creadas únicamente por inteligencia artificial no pueden registrarse como derechos de autor en México. Es un hito jurídico, sí, pero no el final de la conversación. Si aceptamos el fallo como “verdad cerrada” o lo rechazamos por “miedo a las máquinas”, caemos en la trampa de la histeria digital: esa oscilación entre pánico moral y entusiasmo ingenuo que describe Daniel Innerarity cuando nos invita a mirar la IA como fenómeno de complejidad, no como héroe o villano.
La ciencia cognitiva nos recuerda algo incómodo: el cerebro no está diseñado para buscar la verdad, sino para garantizar la supervivencia. Preferimos atajos, certezas rápidas y relatos que nos den seguridad. Por eso cuesta tanto pensar críticamente sobre IA y autoría. Richard Paul y Linda Elder proponen estándares para escapar de esos reflejos: claridad (¿qué decimos exactamente?), exactitud (¿con qué evidencia?), pertinencia (¿a qué problema responde?) y profundidad (¿considera la complejidad?). Aplicarlos aquí nos abre una pregunta incómoda y necesaria: más que discutir si “la IA crea arte”, ¿cómo identificamos y acreditamos la aportación humana en una obra asistida por IA?
No se trata de dar o quitar la razón a la Corte sin más. La resolución es coherente con un marco legal que reconoce a la persona como sujeto de derechos morales. Pero la vida creativa ya ocurre en un ecosistema híbrido: artistas que diseñan conceptos y curan resultados generados por modelos; arquitectos que exploran variantes estructurales con algoritmos; docentes que coescriben materiales didácticos con sistemas generativos. La pregunta crucial es dónde está la agencia humana y cómo la documentamos. Sin esa distinción, corremos el riesgo de expulsar del derecho a creaciones legítimamente humanas por el mero hecho de haber usado una herramienta poderosa.
Aquí conviene abandonar la comodidad de la burocracia —categorías rígidas, casillas simples— y avanzar hacia lo que Innerarity llama gobernanza algorítmica: reglas y prácticas que reconozcan la complejidad y repartan responsabilidades. En términos prácticos, esto implica trazabilidad de procesos (bitácoras de creación, versiones y criterios curatoriales), explicabilidad suficiente (qué decisiones no triviales tomó la persona), y responsabilidad distribuida (quién responde por datos, modelos y resultados). No es entregar la autoría a la máquina; es extender nuestras capacidades para describir, justificar y atribuir la parte humana en la co-creación.
Del plano teórico al técnico y al aplicativo, necesitamos un vocabulario común. “Obra generada por IA” no equivale a “obra sin humanos”: puede haber dirección creativa, selección estética y edición significativa que imprimen originalidad. Tampoco “uso de IA” garantiza mérito autoral: si la intervención humana es mecánica y trivial, la originalidad se diluye. El reto ciudadano es aprender a hacer preguntas de calidad: ¿qué problema pretendía resolver el autor?, ¿qué criterios orientaron su exploración?, ¿qué alternativas consideró y descartó?, ¿qué rasgos hacen singular el resultado? Estas no son preguntas para especialistas únicamente; son herramientas cívicas para no delegar la discusión pública a titulares simplistas.
Pensemos profundamente: si nuestro cerebro busca antes la supervivencia que la verdad, entonces debemos entrenar el pensamiento crítico como contrapeso. En educación, en prensa, en instituciones culturales y en industrias creativas, urge alfabetización en IA orientada a la autonomía intelectual: comprender modelos, datos, límites y posibilidades; distinguir entre asistencia y sustitución; reconocer sesgos y evitar fetichismos tecnológicos. Sin esa musculatura crítica, cualquier fallo judicial —a favor o en contra— será leído como dogma o amenaza, en lugar de punto de partida para una gobernanza más inteligente.
La resolución de la SCJN marca un límite jurídico actual. La sociedad, sin embargo, debe señalar lo que está ocurriendo en los talleres, aulas y estudios: la co-creación existe y requiere reglas comprensivas, no miedos ni slogans. No esperemos a que la norma lo diga todo; exijamos procedimientos de atribución claros, transparencia razonable y espacios de deliberación informada.
Cierro con una pregunta guía, al estilo de Paul y Elder: ¿Qué evidencias y descripciones bastan para reconocer la impronta personal en una obra asistida por IA, y cómo las haremos exigibles sin asfixiar la creatividad? Piénsalo con calma, conversa en tu comunidad, y no compres certezas fáciles: ser críticos hoy es un deber cívico.
Gracias por leer esta entrega de Navegando en la Educación Digital. Esperen el siguiente mes diálogos críticos de la comuna.
Referencias
Suprema Corte de Justicia de la Nación. (2025). Amparo en revisión 6/2025. México: SCJN. Recuperado de https://www.scjn.gob.mx/sites/default/files/listas/documento_dos/2025-06/AD%206-2025.pdf
Innerarity, D. (2025). Una teoría crítica de la inteligencia artificial. Galaxia Gutenberg.
Paul, R., & Elder, L. (2014). Critical thinking: Tools for taking charge of your professional and personal life (2.ª ed.). Pearson Education.
Tecnología Educativa: Mitos y Realidades
Comparte esta nota: