Con el semestre 2025 cerrándose y las evaluaciones finales sobre la mesa, la conversación en muchas universidades dejó de ser "¿usan IA generativa?" y pasó a ser una pregunta más incómoda: "¿Qué estamos midiendo cuando evaluamos?". En el Reino Unido, el Higher Education Policy Institute (HEPI, 2025) reportó que casi todo el estudiantado (92%) ya usa herramientas de IA y que 88% las ha usado en evaluaciones. Ese dato empujó un giro de sentido común: menos obsesión por "prohibir o detectar" y más voluntad de poner a prueba cada evaluación para verificar si realmente existe aprendizaje.
Este giro es clave, porque desnuda una verdad incómoda: la IA no es solo una herramienta nueva; es un espejo. Y el espejo muestra lo frágil que puede ser una parte de nuestra evaluación tradicional: tareas repetibles, ensayos genéricos, reportes "de manual" o preguntas donde el valor está en redactar "correcto" más que en razonar. En ese terreno, un modelo de lenguaje grande (LLM), puede producir productos aceptables sin que exista comprensión profunda. La reacción automática -más control, más software, más amenazas- puede tranquilizar por un rato, pero no responde el problema de fondo: ¿estamos evaluando lo que decimos que evaluamos?
Chile no está fuera de esta ola. MetaRed TIC Chile instaló la inteligencia artificial y la gobernanza de datos en su agenda 2025, y en el ámbito del CRUCh se observan iniciativas para avanzar hacia una adopción responsable, centrada en las personas, con formación y reglas claras. La discusión, por tanto, no es solo tecnológica: es pedagógica, ética e institucional.
Entonces, ¿qué se debería cambiar?, propongo tres ideas fuerzas para reordenar el debate que se está desarrollando en la actualidad.
1) De "detectar" a "diseñar": la evaluación como arquitectura de aprendizaje
La obsesión por detectar IA suele terminar en una carrera armamentista que la universidad tiene pocas probabilidades de ganar. Lo razonable es lo contrario: rediseñar evaluaciones para que la IA no reemplace el aprendizaje y, cuando se permita, lo potencie y lo deje visible. Unesco (2023) ha insistido en un enfoque centrado en las personas, con capacidad institucional, reglas y formación para docentes y estudiantes. En la práctica, "diseñar" implica evaluar mejor a través de:
Esto no "castiga" el uso de IA: sube el estándar.
2) Transparencia radical: reglas claras, usos permitidos y responsabilidades
La ambigüedad alimenta el conflicto. Si una asignatura no explicita qué se permite, qué no y cómo se declara el uso de IA, aparece una cultura de sospecha: docentes que asumen fraude y estudiantes que oscilan entre el miedo y el "da lo mismo". Una medida concreta es exigir una declaración de uso de IA: qué herramienta se usó, para qué, en qué parte del trabajo, qué se verificó y qué se reescribió con juicio propio. Los lineamientos institucionales son necesarios, pero deben aterrizar en rúbricas y prácticas evaluativas; no pueden quedarse en documentos.
La objeción que aparecerá es que "esto aumenta la carga docente". Es cierto si se hace artesanalmente, por eso la clave es estandarizar: formatos breves de declaración, rúbricas claras, bancos de preguntas para defensas orales y apoyos institucionales que reduzcan el costo de la implementación.
3) Equidad y brechas: la IA puede ampliar desigualdades si no se gobierna
Existe una brecha: estudiantes con más recursos o mayor capital digital tienden a usar IA con más sofisticación. Sin acceso, alfabetización y acompañamiento, la IA puede transformarse en un nuevo mecanismo de segregación: no por talento, sino por herramientas y entrenamiento. Por eso el cambio debe ser institucional, no un esfuerzo individual del profesor. Eso implica, al menos:
La IA generativa llegó para quedarse. Resistirse con nostalgia no protege la calidad: la debilita. Si hacemos el giro correcto -de control a diseño, de ambigüedad a transparencia, de desigualdad a equidad- esta disrupción puede empujarnos a evaluar mejor, enseñar mejor y formar profesionales capaces de trabajar con herramientas potentes sin renunciar a la responsabilidad intelectual. La pregunta, entonces, no es "¿cómo evitamos que usen IA?", sino una mucho más académica -y más exigente-: ¿Cómo hacemos que, incluso usándola, aprendan de verdad?
Fuentes:
HEPI / Kortext. Student Generative AI Survey 2025 (Policy Note 61, febrero 2025)
Unesco. Guidance for generative AI in education and research (2023; actualización 2025)
MetaRed TIC Chile: agenda y encuentros 2025 sobre IA y gobernanza de datos
Convenio Minciencia-CRUCh (2025) para integrar formación en IA en carreras de pedagogía (noticia oficial)
Desde Facebook:
Guía de uso: Este es un espacio de libertad y por ello te pedimos aprovecharlo, para que tu opinión forme parte del debate público que día a día se da en la red. Esperamos que tus comentarios se den en un ánimo de sana convivencia y respeto, y nos reservamos el derecho de eliminar el contenido que consideremos no apropiado