Durante las últimas semanas, el modelo de inteligencia artificial Mythos ha sido la principal noticia tecnológica. Esto, debido a que según la compañía Anthropic, esta herramienta sería capaz de superar a los humanos en ciertas tareas de piratería informática y ciberseguridad, y aunque la empresa haya restringido su acceso bajo el proyecto Glasswing, se comenta que ya habría sido objeto de usos no autorizados.
Lo relevante de este caso es que la restricción de acceso no se debe a posibles errores que pueda tener esta herramienta, sino que al daño que puede ocasionar. Lo anterior ha llevado a diversos gobiernos y grandes empresas a analizar los riesgos ante un modelo que podría realizar ataques complejos y explotar fallas de sistemas. Frente a este caso es que cabe preguntarnos: ¿Quién decide hasta donde las empresas pueden explorar nuevas tecnologías y las medidas de seguridad que deben implementar? ¿Quién deben calificar el riesgo de la IA para circular libremente? ¿Es posible regular situaciones como ésta que serán cada vez más comunes?
Lo que ha hecho Anthropic no es otra cosa que autorregularse. Si bien la autorregulación tiene la ventaja de la velocidad y la flexibilidad, adolece de la legitimidad democrática, de reglas comunes y control público. Esto es incluso más revelador en el conflicto de esta empresa y el gobierno de Estados Unidos, en el que tras meses de negociación el Pentágono impuso a la empresa la designación de "riesgo para cadena de suministros", debido a que se negó a permitirle a EE.UU. el uso de sus herramientas en armas autónomas sin supervisión humana y para vigilancia doméstica.
Mientras el Pentágono señalaba que la defensa del país no podía quedar condicionado a políticas internas de la empresa, esta respondió que los modelos actuales no son lo suficientemente confiables para armamento completamente autónomo, e incluso más, declaró que la vigilancia de norteamericanos era contraria a derechos fundamentales. Así, vemos dos visiones de regulación, la del Estado que invoca potestad soberana y seguridad nacional, y la de la empresa que busca establecer sus propios límites sobre el uso de la IA.
De esta manera vemos como las grandes compañías no solo están acumulando poder económico e informativo, sino que también, debido al vertiginoso avance de las tecnologías, poder normativo. Ante la inexistencia de leyes y retrasos legislativos, fijan estándares sobre lo permitido y lo prohibido.
El problema no es si Anthropic actúa correctamente o no al regular el acceso de esta nueva tecnología, o si el gobierno de Estados Unidos debiera tener carta blanca para usar la IA como más le plazca, especialmente en el contexto internacional actual. El problema es que la autorregulación si bien es siempre valorada, no puede reemplazar la regulación.
Estamos ad-portas de que la IA deje de ser tratada como un simple producto de mercado. Su presencia atravesará la vida cotidiana -desde reservar un pasaje hasta la vigilancia permanente o las guerras del futuro-, ampliando exponencialmente los riesgos. Sin embargo, el derecho tradicional sigue reaccionando tarde y la autorregulación, aunque necesaria, resulta demasiado influyente como para carecer de contrapesos. En este nuevo escenario, cabe preguntarse quién gobierna realmente la inteligencia artificial de vanguardia.