Un ChatGPT para el Estado

Hace unos días un amigo me compartía por Whatsapp un contacto conectado a Inteligencia Artificial (IA) que permite transcribir de manera casi instantánea los audios que uno les manda. Es más, te hace un resumen del audio, lo que es un alivio no sólo para quienes deben pasar en texto grabaciones eternas, sino que para aquellos fanáticos que prefieren bombardearte con largos soliloquios en vez de textear en la aplicación.

A este paso ya no habrá función en la vida cotidiana que no esté involucrada la IA, que ha crecido en un ritmo tan acelerado que ya se pierde la cuenta de cuántas apps la usan y de qué forma está impactando (positiva o negativamente) en el desarrollo de la cultura, la educación y la entretención.

No obstante, como ocurre casi siempre con la tecnología, el Estado no está dos o tres pasos atrás, a veces está a distancias mucho más siderales, o por lo menos esa es la impresión que da frente a casi nula indiferencia frente a estos temas. Sí, la IA se ha estado discutiendo en diversos espacios -sin ir más lejos en la última versión del Congreso Futuro-, pero no se vislumbra una política pública que se haga cargo de ponerle reglas al tema.

Por eso, recibimos con entusiasmo que el Ministerio de Ciencia, Tecnología, Conocimiento e Innovación retome la Política Nacional de IA, que comenzó el 2021, y convoque a expertos de diversas áreas para ir actualizando esa herramienta de planificación y regulación. La misma ministra Aisén Etcheverry reconocía el 19 de abril -en una nota de prensa publicada en su página oficial- la importancia de ir reevaluando dicha estrategia, ante la ingente aparición de aplicaciones, como el popular ChatGPT.

A nuestro juicio, urge tomar las riendas en el diseño de una política pública que dé directrices hacia dónde debe ir el desarrollo de esta tecnología, desde lo más básico, como la aplicación en la docencia y la vulneración que puede generar en procesos de aprendizaje, hasta contextos más complejos, como por ejemplo que se garantice el acceso de mujeres al trabajo investigativo y de programación, ya que es de público conocimiento los sesgos que aún existen en esta área de la investigación.

Y aquí surge un tema que ha sido nudo central de nuestro trabajo como Fundación Multitudes desde el año pasado: cómo hacemos frente a la propagación de fake news y que ha contaminado debates tan importantes como los procesos constituyentes. Con la IA hay un campo fértil donde la desinformación puede crecer sin ningún tope.

En ese sentido, entendemos vital una especie de co-regulación, en tanto mecanismo mediante el cual el Estado y las distintas plataformas de redes sociales e informativas fomentan y fortalecen la colaboración entre ellos con la sociedad civil (este último elemento también ha estado ausente en el debate), a fin de establecer medidas contra la desinformación.

Regular no es censurar ni prohibir, como hemos dicho en reiteradas oportunidades, sino es darle certezas a quien son los usuarios finales de esta tecnología, que es la ciudadanía. Un punto de partida puede ser nuestra propuesta de Pacto Ético Digital, que delinea compromisos en regular las fake news, en un contexto político y social, pero que puede ser fácilmente aplicable a otros ámbitos.

Lo que no puede pasar es que sigamos mirando esto con desdén o despreocupación. El Estado no requiere un ChatGPT para que le diga qué hacer, pero si se sigue sólo en el diagnóstico, quizá sea la única posibilidad de avance.

Desde Facebook:

Guía de uso: Este es un espacio de libertad y por ello te pedimos aprovecharlo, para que tu opinión forme parte del debate público que día a día se da en la red. Esperamos que tus comentarios se den en un ánimo de sana convivencia y respeto, y nos reservamos el derecho de eliminar el contenido que consideremos no apropiado