En algún rincón de una escuela rural del siglo XIX, un niño desliza su dedo húmedo sobre la superficie oscura de un pizarrín. La pizarra portátil, enmarcada en madera gastada por el uso, recibe los trazos vacilantes de sus primeras letras. La profesora observa desde su escritorio, corrige con la mirada, asiente con el gesto. En ese intercambio silencioso habita todo un universo pedagógico: la paciencia del error, el tiempo del aprendizaje, la humanidad del vínculo. Dos siglos después, en un aula contemporánea, otro estudiante desliza su dedo sobre una pantalla táctil. Un algoritmo de inteligencia artificial analiza en milisegundos sus patrones de respuesta, calibra la dificultad de los ejercicios, genera retroalimentación instantánea. El profesor, desplazado hacia los márgenes del proceso, contempla un tablero de métricas que cuantifican el "progreso" de cada estudiante. Entre el pizarrín y el algoritmo no solo media una revolución tecnológica; media una transformación radical de nuestra comprensión del aprendizaje humano.
La historicidad de la práctica educativa revela que cada tecnología ha configurado modos específicos de relación entre quien enseña y quien aprende. El pizarrín decimonónico democratizó el acceso a la escritura al tiempo que mantuvo la centralidad del vínculo pedagógico; el cuaderno impuso la secuencialidad y la permanencia del registro; la pizarra común construyó el espacio de lo colectivo. Cada innovación reconfiguraba los roles sin eliminar al docente del centro gravitacional del proceso. Mario Carretero, en su libro "Constructivismo y educación", nos enseñó que el conocimiento no se transmite sino que se construye activamente, y que esa construcción requiere de andamiajes sociales y cognitivos que solo la interacción humana puede proveer en su plena complejidad. El principio vigotskiano que Carretero recupera -el conocimiento como proceso social- adquiere hoy una urgencia renovada: si el aprendizaje genuino emerge del encuentro entre subjetividades, ¿qué ocurre cuando una de esas subjetividades es simulada por un algoritmo?
Esta irrupción algorítmica introduce una discontinuidad sin precedentes. Por primera vez, una tecnología no solo media el proceso educativo, sino que pretende dirigirlo. Cathy O'Neil ha documentado con rigor, en su libro llamado "Armas de destrucción matemática", cómo los modelos matemáticos que gobiernan cada vez más áreas de la vida social funcionan como sistemas opacos, inescrutables y autorreferenciales. En educación, estos sistemas evalúan docentes mediante fórmulas que nadie puede explicar, clasifican estudiantes según predicciones que nadie puede apelar, personalizan trayectorias de aprendizaje según criterios que nadie puede cuestionar. O'Neil demuestra que lo que se presenta como objetividad científica es, en realidad, prejuicio automatizado a escala industrial: "Los veredictos de las ADM son como los dictados de los dioses de los algoritmos. El modelo en sí es una caja negra, su contenido, un secreto corporativo fieramente guardado".
Cuando un algoritmo puede determinar el destino académico de un estudiante, y cuando ese veredicto se emite desde una caja negra impenetrable, hemos transferido a la máquina una autoridad que ni siquiera sabemos cómo ejerce.
Por otro lado, el filósofo Baruj Spinoza, en su obra "Ética demostrada según el orden geométrico", llamaba servidumbre a "la impotencia humana para moderar y coercer los afectos, pues el hombre sometido a los afectos no está bajo jurisdicción propia, sino bajo la de la fortuna, en cuya potestad está de tal manera que a menudo, aun cuando vea lo que es mejor para él, es coaccionado a seguir lo peor".
La metáfora ilumina nuestra condición contemporánea. Sabemos que las evaluaciones algorítmicas son falibles, que los sistemas de detección de plagio reproducen sesgos contra minorías, que la personalización adaptativa puede estrechar en lugar de expandir horizontes cognitivos. Y sin embargo, seguimos lo peor: invertimos millones en software de vigilancia mientras recortamos presupuestos para formación docente; celebramos métricas de engagement mientras ignoramos indicadores de comprensión profunda; delegamos juicios pedagógicos complejos a sistemas que solo pueden procesar lo cuantificable.
José Ignacio Latorre, en su libro "Ética para máquinas", plantea una pregunta que resuena con particular intensidad en el ámbito educativo: "¿Tiene una máquina la opción de decidir qué es el bien y qué es el mal? ¿Puede un algoritmo apreciar las ideas de Hannah Arendt sobre la banalidad del mal?". El físico cuántico distingue entre agentes normativos, ajenos a toda ética; agentes de impacto ético; agentes implícitamente éticos, cuyos programadores han seguido principios definidos; y agentes explícitamente éticos, capaces de tomar decisiones morales complejas. Los sistemas de inteligencia artificial en educación operan, en el mejor de los casos, como agentes implícitamente éticos: heredan los valores -y los sesgos- de quienes los programaron, sin capacidad genuina de deliberación moral. Latorre advierte que "los humanos nos cuesta muchísimo cohabitar con máquinas más y más inteligentes" porque "lo que está en juego es la esencia de nuestra naturaleza". En educación, esa esencia incluye la capacidad de reconocer al otro como sujeto irreductible a datos.
En el campo específico de la enseñanza y el aprendizaje, estas tensiones adquieren contornos dramáticos. El proceso educativo auténtico requiere lo que ningún algoritmo puede proveer: la capacidad de reconocer la singularidad irreductible de cada estudiante, de intuir qué palabra o qué silencio necesita en un momento preciso, de acompañar no solo el desarrollo cognitivo sino la formación del carácter. Carretero señala que el cambio conceptual genuino no ocurre por exposición repetida a información correcta sino por desequilibrio cognitivo y reconstrucción activa del sentido. ¿Puede un algoritmo provocar ese desequilibrio fecundo? ¿Puede acompañar la angustia del no-saber que precede a toda comprensión verdadera? La colaboración humano-máquina en educación ha devenido, con demasiada frecuencia, subordinación de lo humano a lo maquínico.
Emerge además una dimensión política ineludible. La brecha algorítmica amenaza con profundizar las desigualdades existentes: mientras algunos estudiantes aprenderán a usar la inteligencia artificial como amplificador de su capacidad de pensamiento, otros la emplearán como muleta cognitiva que atrofia las competencias que no ejercitan. O'Neil documenta cómo las ADM "suelen castigar a los pobres" porque "han sido diseñadas para evaluar grandes cantidades de personas" y porque "los privilegiados son analizados por personas; las masas, por máquinas". El riesgo no es que las máquinas reemplacen a los docentes; es que una educación degradada, mediada por algoritmos opacos, se reserve para las mayorías mientras las élites preservan para sí el privilegio de la formación genuinamente humana.
Del pizarrín al algoritmo, el arco histórico nos confronta con preguntas que no admiten respuestas técnicas. ¿Qué tipo de seres humanos queremos formar? ¿Qué papel reservamos al error, a la lentitud, a la duda en un mundo obsesionado con la optimización? Spinoza señalaba en la parte quinta de su Ética que la potencia del intelecto reside en comprender las causas que nos determinan, y que solo ese conocimiento abre el camino hacia la libertad genuina. Latorre propone que nuestra responsabilidad es "dejarles un buen legado" a las máquinas inteligentes: "lo humano". Quizás la tarea urgente de nuestra generación sea precisamente esa: comprender los algoritmos que nos gobiernan, develar sus sesgos, limitar su alcance, subordinarlos a fines genuinamente humanos. No se trata de rechazar la tecnología sino de negarse a la servidumbre. La educación, ese acto de fe en las posibilidades de otro ser humano, merece algo más que ser reducida a una función de optimización. Entre el pizarrín y el algoritmo, debemos encontrar un camino que preserve lo que ambos no pueden contener: la dignidad de aprender juntos.
Desde Facebook:
Guía de uso: Este es un espacio de libertad y por ello te pedimos aprovecharlo, para que tu opinión forme parte del debate público que día a día se da en la red. Esperamos que tus comentarios se den en un ánimo de sana convivencia y respeto, y nos reservamos el derecho de eliminar el contenido que consideremos no apropiado