Pentágono amenazó con intervenir Anthropic si no cede ante el uso militar de su IA

Publicado:
| Periodista Digital: Agencia de Noticias EFE

La disputa entre el Departamento de Guerra de EE.UU. y la empresa de seguridad sobre el empleo de la tecnología para fines letales y de vigilancia alcanzó niveles críticos.

El conflicto también tiene tintes políticos, ya que varios expertos aseguran que la compañía está bajo la lupa de la Administración Trump por no estar alineada con su agenda.

Pentágono amenazó con intervenir Anthropic si no cede ante el uso militar de su IA
 EFE (referencial)

La controversia con el Pentágono radica en si el modelo de lenguaje Claude, desarrollado por la compañía estadounidense de IA, puede ser utilizado en sistema de armas autónomas, incluyendo hipotéticos ataques nucleares.

contenido de servicio
Llévatelo:

El Departamento de Guerra de Estados Unidos y la empresa de inteligencia artificial (IA) Anthropic se encuentran en una escalada de tensión que podría culminar en una intervención gubernamental, debido a las discrepancias sobre el uso de la tecnología para fines letales y de vigilancia, según informó este viernes The Washington Post.

La disputa, que alcanzó niveles críticos esta semana, se centra en si el modelo de lenguaje Claude, desarrollado por Anthropic, puede ser utilizado en sistemas de armas autónomas y en la toma de decisiones durante escenarios de conflicto extremo, incluyendo hipotéticos ataques nucleares.

El Pentágono fijó la fecha límite para Anthropic para las 17:01 hora local (19:01 hora Chile) de este viernes. De no cumplir con las exigencias, el Gobierno señaló que podría invocar su autoridad legal -posiblemente a través de la Ley de Producción de Defensa (DPA, por sus siglas en inglés)- para obligar a la empresa a entregar su tecnología, además de incluirla en una "lista negra" para futuros contratos de defensa.

Según una fuente de Defensa citada por el rotativo, el jefe de tecnología del Pentágono redujo el debate a un escenario nuclear de vida o muerte en una reunión -el mes pasado- e hizo la siguiente pregunta: si se lanzara un misil balístico intercontinental contra Estados Unidos ¿podrían los militares utilizar el sistema de inteligencia artificial Claude de Anthropic para ayudar a derribarlo?

La respuesta del director ejecutivo de Anthropic, Dario Amodei, fue algo similar a: "Podrías llamarnos y lo resolveríamos", algo que irritó al Pentágono, según afirma el medio.

No obstante, un vocero de Anthropic negó a The Washington Post que Amodei diera esa respuesta, calificándola de "manifiestamente falsa" y afirmando que la compañía accedió a permitir el uso de Claude para la defensa antimisiles.

Conflicto con tintes políticos

El conflicto también tiene tintes políticos, ya que varios expertos consultados por el diario indicaron que Anthropic, fundada por exmiembros de OpenAI con un enfoque en la seguridad, está bajo la lupa de la administración del presidente Donald Trump por no estar alineada con su agenda.

Por su parte, el portavoz del Pentágono, Sean Parnell, aseguró ayer en una publicación en la red social X que "el Departamento de Guerra no tiene ningún interés en usar IA para realizar vigilancia masiva de estadounidenses (lo cual es ilegal) ni quiere usar IA para desarrollar armas autónomas que funcionen sin intervención humana. Esta narrativa es falsa y la difunden izquierdistas en los medios".

"Solicitamos lo siguiente: Permitir que el Pentágono utilice el modelo de Anthropic para todos los fines legales", anotó, y señaló que EE. UU. no permitirá que "ninguna empresa dicte las condiciones de las decisiones operativas".

El subsecretario Emil Michael dijo a CBSNews ayer que Anthropic fue invitada a participar en la junta de ética de IA, pero que no se pueden poner las normas y políticas del Ejército y el Gobierno de Estados Unidos en manos de una sola empresa privada".

Anthropic anunció que no cederá al Pentágono

Anthropic anunció que no cederá a los términos del Pentágono para el uso completo de su herramienta de inteligencia artificial Claude, al considerar que permitir su uso en armas totalmente autónomas o en vigilancia masiva sería "incompatible con los valores democráticos".

La empresa informó en un comunicado firmado por su director ejecutivo, Dario Amodei, que "no puede, de buena fe, acceder a la solicitud" del Departamento de Guerra estadounidense de permitir el uso sin restricciones de su tecnología.

Anthropic aclaró que no se retira de las negociaciones, pero que el nuevo texto del contrato recibido del Departamento de Defensa "prácticamente no avanzó en la prevención del uso de Claude para la vigilancia masiva de estadounidenses ni en armas totalmente autónomas".

Anthropic señaló que, aunque apoya el uso de la IA para misiones legales de inteligencia extranjera y contrainteligencia, "el uso de estos sistemas para vigilancia doméstica masiva es incompatible con los valores democráticos" y representa "riesgos novedosos y graves para nuestras libertades fundamentales".

Según el comunicado, Claude se utiliza ampliamente para "análisis de inteligencia, modelado y simulación, planificación operativa, operaciones cibernéticas y más".

Sin embrago, advirtió que las armas totalmente autónomas "no son lo suficientemente confiables para poner en riesgo a nuestros soldados y civiles" y que "necesitan ser desplegadas con salvaguardas adecuadas, que hoy no existen".

Así, la empresa concluyó que, de ser retirada del contrato, trabajará para "permitir una transición fluida a otro proveedor, evitando cualquier interrupción en la planificación militar, operaciones u otras misiones críticas".

LEER ARTICULO COMPLETO

Suscríbete a nuestro newsletter