ChatGPT, ¿ministro en la sombra?

En el Reino Unido, Peter Kyle, secretario de Tecnología, publicó -a raíz de una solicitud de acceso a la información- sus interacciones con ChatGPT. En España, en tanto, un juez fue sancionado por el Consejo General del Poder Judicial tras subir un expediente a la misma herramienta, pedirle un análisis y utilizar parte de ese contenido en la redacción de una sentencia, sin informar de ello.

El uso de la inteligencia artificial no es nuevo. Tampoco lo son los debates sobre la confidencialidad de la información. Sin embargo, estos casos abren una pregunta esencial en tiempos de altas exigencias de transparencia y baja tolerancia a los conflictos de interés: ¿Qué tan transparente u opaco tiene que ser el uso de la IA en los procesos de deliberación política?

El ejercicio de la deliberación política requiere de ciertos espacios de opacidad -así lo reconoce la propia legislación de transparencia al eximir de publicidad antecedentes o deliberaciones previas a la adopción de una resolución, medida o política-. Sin embargo, ese mismo ejercicio hoy no tolera conflictos de interés. Las reuniones de lobby deben ser publicadas; las agendas de ministros y otras autoridades son de conocimiento público; y el nombre, función e incluso la remuneración de asesores y funcionarios se difunden mensualmente, quedando sujetos a un control social y mediático permanente. A esto se suma que un número creciente de funcionarios públicos debe declarar periódicamente su patrimonio e intereses, incluyendo, en algunos casos, información detallada sobre los bienes de sus familiares cercanos.

En este contexto, si una inteligencia artificial es utilizada -como en los casos descritos- como una suerte de asesor, ¿es relevante conocer el equivalente a su "nombre", "función" o "remuneración"? ¿Es exigible transparentar el tipo de IA, su versión, el contenido del contrato que permite su uso, o incluso la estructura corporativa de la empresa que provee el servicio? ¿Es una conversación con una IA un equivalente a al trabajo de un asesor o se parece más a un informe financiado con recursos públicos que, por tanto, debiera ser público?

En estas discusiones y otras el gobierno de Chile, bajo el liderazgo del presidente Gabriel Boric, tuvo avances importantes promoviendo y regulando el uso de la inteligencia artificial en el Estado. Existen múltiples ejemplos de usos virtuosos y de modernización asociados a estas tecnologías, que hoy deben estar orientados éticamente a través de instrumentos como la circular para uso de la IA en el sector público que dictaron en conjunto el Ministerio de Ciencia y la División de Gobierno Digital.

Ese primer paso, sin embargo, requiere continuidad. La discusión debe activarse y las preguntas deben formularse. Empiezo con una: ¿Habrá utilizado el Ministerio de Hacienda alguna herramienta de inteligencia artificial en la elaboración de la Ley de Reconstrucción y Crecimiento? Y, de ser así, ¿cuál? ¿Qué documentos de análisis tuvo a la vista esa IA? ¿Tuvo esa interacción algún efecto, como en el caso del juez español?

Puede que estas preguntas parezcan excesivas. Pero, sin duda, nos obligan a reflexionar sobre un punto de fondo: qué estándares exigimos a las personas y cuáles estamos dispuestos a exigir a máquinas que, cada vez más, participan en decisiones que afectan lo público.

Y para abrir la discusión permítanme adelantar una respuesta. El ejercicio de deliberación política, contrario a lo que parece ser una tendencia de moda, exige privacidad para construir confianza, no toda conversación debe ser pública, de esto pueden dar fe todos aquellos que han participado en discusiones parlamentarias con o sin cámaras encendidas. Sin embargo esta opacidad no puede ser absoluta en el caso del uso de la IA. Si no lo es la información de asesores, funcionarios o proveedores, ¿por qué tendría que serlo la versión de ChatGpt, o Claude, o las tareas que se le delegan en el ejercicio de la función pública?