La desigualdad que aprende: IA en un país que recorta su futuro

La inteligencia artificial no llegó del futuro. Llegó del presente. Y quizás por eso inquieta tanto. No porque piense como nosotros, sino porque aprende demasiado bien de lo que ya somos: una sociedad desigual, acelerada, extractivista, injusta y cada vez más incapaz de gobernar sus propias invenciones.

La discusión pública suele moverse entre dos caricaturas. De un lado, la IA como promesa casi mágica: productividad, eficiencia, diagnósticos más precisos, educación personalizada, gestión pública inteligente. Del otro, la IA como amenaza apocalíptica: máquinas autónomas, reemplazo humano, pérdida total de control y autodestrucción. Ambas imágenes esconden lo principal. El riesgo más inmediato no es que la inteligencia artificial se rebele contra la humanidad. Es que funcione demasiado bien al servicio de los patrones sociales que ya producen exclusión social.

Por eso resulta tan preocupante la señal presupuestaria conocida esta semana. Según los antecedentes publicados, Hacienda habría propuesto descontinuar programas del Ministerio de Ciencia por más de $170 mil millones, incluyendo becas de postgrado en Chile y el extranjero, el Programa de Investigación Asociativa, la Iniciativa Científica Milenio, Centros de Excelencia, Nodos Territoriales y cooperación internacional científica. Es decir: no se apunta a un borde decorativo del sistema, sino al corazón de la formación de capacidades.

Algo similar ocurre en educación. También se informó que, para la formulación presupuestaria 2027, Hacienda recomendó cerrar programas como PACE, Beca Vocación de Profesor, reinserción escolar y otras iniciativas vinculadas al acceso, la formación docente y el apoyo educativo. A la vez, otros programas quedarían expuestos a ajustes relevantes.

Es cierto: Hacienda ha aclarado que se trata de oficios iniciales, no de decisiones finales ni decretos de reducción. El propio ministro ha señalado que el proceso busca revisar ejecución y eficiencia, y que las definiciones finales aún deben pasar por la discusión presupuestaria correspondiente. Pero en política pública las señales importan. Y esta señal llega justo cuando el país necesita exactamente lo contrario: más ciencia, más educación, más formación crítica y más capacidades públicas para enfrentar transformaciones tecnológicas que no esperan a que nuestras instituciones se pongan al día.

La IA aprende de datos, pero también de jerarquías. Aprende de lenguajes, pero también de silencios. Aprende de instituciones, pero también de sus omisiones. Por eso, hablar solo de "sesgo algorítmico" queda corto. La IA no entra en una sociedad igualitaria que accidentalmente comete errores. Entra en mercados laborales precarizados y con importantes brechas de género; en sistemas de salud que por décadas tomaron el cuerpo masculino como norma; en aparatos financieros que castigan trayectorias laborales interrumpidas por cuidados; en instituciones que clasifican, vigilan y excluyen por apariencia.

La clave interseccional es indispensable. No enfrentan los mismos riesgos una profesional urbana altamente conectada, una trabajadora migrante, una mujer indígena, una joven expuesta a violencia digital o una adulta mayor sin alfabetización tecnológica. Algunas serán invisibles por falta de datos. Otras, sobreexpuestas por exceso de vigilancia. La automatización puede transformar diferencias sociales en destinos probabilísticos.

Aquí aparece la contradicción mayor. Decimos que queremos prepararnos para la inteligencia artificial, pero debilitamos los programas que forman investigadores, docentes, profesionales y estudiantes capaces de comprenderla críticamente. Decimos que queremos soberanía tecnológica, pero reducimos las condiciones para producir conocimiento propio. Decimos que la educación debe cerrar brechas, pero ponemos en riesgo mecanismos que permiten acceder, permanecer y enseñar en contextos desiguales.

La IA no vive en la nube. Vive en territorios. Requiere energía, agua, minerales, servidores, chips, refrigeración y residuos electrónicos. Su supuesta inmaterialidad es una ficción conveniente: permite hablar de innovación sin hablar de extractivismo; de eficiencia sin hablar de emisiones; de futuro sin hablar de zonas de sacrificio.

Para América Latina, el riesgo es conocido. Podemos volver a quedar en el lado subordinado de una transformación global: proveedores de minerales, energía, biodiversidad, datos y consumo, mientras las patentes, plataformas, modelos y rentas se concentran en otros centros. En este contexto ya no estaremos hablando solo de extractivismo de recursos naturales, también nos tendremos que referir a un extractivismo cognitivo y cultural, que refuerza un neocolonialismo económico y político.

Por eso, la pregunta final no es tecnológica. Es civilizatoria: ¿Qué sociedad estamos entrenando cuando entrenamos inteligencia artificial? Si los modelos aprenden de un mundo patriarcal, racista, desigual y ecológicamente desbordado, no deberíamos sorprendernos de sus respuestas. Pero si además debilitamos ciencia y educación, el problema se agrava: no solo automatizamos desigualdades; renunciamos a formar las capacidades para comprenderlas, discutirlas y transformarlas.

La IA puede convertirse en la infraestructura más sofisticada de una desigualdad automatizada. No porque sea malvada, sino porque es funcional. Funcional a la economía que busca eficiencia. A la política que busca control. A las burocracias que buscan clasificar. A instituciones que prefieren decidir rápido antes que decidir justamente.

Ahí las universidades tenemos una tarea urgente: formar profesionales capaces de navegar la complejidad, no solo de usar herramientas; no solo soluciones rápidas; sino que capacidades de producir conocimiento crítico y de defender espacios donde todavía podamos preguntarnos para qué innovamos. Porque la IA no es solo una tecnología. Es un espejo acelerado. Y si al mirarlo decidimos recortar ciencia y educación, lo que devuelve no es el futuro: es la advertencia de un país que podría estar entrenando su propia dependencia.