La inteligencia artificial (IA) dejó de ser solo una promesa tecnológica para transformarse en un factor estructural de la economía global. Así lo reconoce el último Informe de Política Monetaria del Banco Central, que por primera vez analiza de manera sistemática los efectos de la IA sobre el crecimiento, las condiciones financieras y los precios de materias primas estratégicas como el cobre. Esta constatación obliga a ampliar la mirada regulatoria, la discusión sobre IA no es solo digital o ética, sino también productiva y macroeconómica.
En ese contexto, el proyecto de ley que busca regular la inteligencia artificial en Chile ha seguido un camino complejo. Tras más de un año de tramitación, acumula más de 95 indicaciones de origen transversal, reflejando la dificultad de legislar en un entorno de acelerada evolución tecnológica. Las definiciones importan, pero también la flexibilidad del marco institucional que las contenga.
Chile está discutiendo una de las leyes más relevantes para su institucionalidad digital futura. Sin embargo, como en otras jurisdicciones, la tentación ha sido replicar el modelo europeo y estructurar la regulación en torno a categorías de riesgos. Anclar todo el diseño normativo en esa lógica es problemático. Un enfoque rígido puede terminar inhibiendo la adopción tecnológica, tensionando la inversión y afectando la productividad, precisamente cuando el Banco Central advierte que la IA puede generar tanto impulsos virtuosos como riesgos de volatilidad financiera si su adopción es concentrada o ineficiente.
Lo primero que debe quedar claramente establecido es que lo que corresponde regular no es la tecnología en sí, sino sus usos concretos y contextuales. La IA es una herramienta transversal, puede mejorar la salud, la educación, la seguridad o la eficiencia productiva, pero también puede vulnerar derechos si se aplica sin resguardos adecuados. El desafío regulatorio no es prohibir la herramienta, sino gobernar sus aplicaciones.
La experiencia europea ofrece lecciones valiosas en materia de protección de derechos, pero también evidencia estancamiento por su doctrina hiper regulatoria temprana. Hoy existen aplicaciones de IA disponibles en otros mercados que no operan en la Unión Europea, lo que muestra cómo un enfoque excesivamente rígido puede terminar limitando innovaciones útiles. Para un país como Chile, que enfrenta una demanda estructural por cobre, energía e infraestructura digital asociada al despliegue de la IA, ese riesgo no es menor.
El problema de fondo del enfoque basado en riesgos es que el riesgo no es una categoría estática o fija. Depende del contexto de usos. Una misma tecnología puede ser de bajo riesgo en un entorno y de alto riesgo en otro. Pretender clasificar ex ante esa diversidad genera incertidumbre jurídica y deja la regulación obsoleta frente a la velocidad de la innovación.
Lo que Chile necesita no es un listado cerrado de riesgos, sino un marco basado en principios transversales: proporcionalidad, transparencia, gobernanza de datos, explicabilidad, no discriminación y responsabilidad. A ello debe sumarse una institucionalidad liviana, con supervisión adaptativa y espacios controlados de experimentación.
Chile tiene la oportunidad de construir una regulación propia y ejemplar, que proteja derechos fundamentales sin hipotecar la innovación y como ethos de la estrategia de desarrollo nacional. La clave está en pasar de clasificar riesgos a gestionar usos, porque lo relevante no es la tecnología en abstracto, sino cómo, para qué y en beneficio de quién se utiliza.
Desde Facebook:
Guía de uso: Este es un espacio de libertad y por ello te pedimos aprovecharlo, para que tu opinión forme parte del debate público que día a día se da en la red. Esperamos que tus comentarios se den en un ánimo de sana convivencia y respeto, y nos reservamos el derecho de eliminar el contenido que consideremos no apropiado