El Gobierno de Estados Unidos habría utilizado el modelo de inteligencia artificial Claude de Anthropic durante la agresión militar que lanzó contra territorio venezolano el pasado 3 de enero y que concluyó con el secuestro del presidente de Venezuela, Nicolás Maduro, y de su esposa, Cilia Flores, informa The Wall Street Journal, que cita a personas familiarizadas con el asunto.
Según el medio, el uso de Claude se concretó a través de la asociación de Anthropic con la empresa de datos Palantir Technologies, cuyas plataformas son ampliamente utilizadas por el Departamento de Guerra y las fuerzas del orden federales.
Sin embargo, destaca que el desarrollador prohíbe el uso de su software para fines relacionados con la violencia, el desarrollo de armas o la vigilancia. Anthropic se ha posicionado como una empresa de IA que prioriza la seguridad, dedicada a asegurar sus beneficios y mitigar sus riesgos.
No se ha detallado con exactitud el propósito del uso del modelo, desplegado tanto durante el operativo como en la planificación, pero se señala que el Ejército estadounidense lo ha utilizado previamente para evaluar material satelital o de inteligencia.
"No podemos comentar si Claude, o cualquier otro modelo de IA, fue utilizado para alguna operación específica, clasificada o no", dijo un portavoz de Anthropic, recordando que "cualquier uso de Claude, ya sea en el sector privado o en el Gobierno, debe cumplir" sus políticas de seguridad.
En este sentido, un alto funcionario de la Administración Trump señaló que el Pentágono está considerando la cancelación de su contrato por un valor de hasta 200 millones de dólares.
En esta misma línea, un funcionario del Gobierno comentó a Axios que el Pentágono reevaluaría su asociación con Anthropic. Debido a "verdaderas preocupaciones" de que la empresa podría no aprobar el uso de su software para agresiones como la lanzada contra Venezuela. "Cualquier empresa que ponga en peligro el éxito operativo de nuestros combatientes en el campo de batalla es una con la que debemos reevaluar nuestra colaboración en el futuro", afirmó.
Por su parte, Anthropic busca garantías de que su tecnología no se utilizará para la vigilancia masiva de estadounidenses ni para operar armas totalmente autónomas.


