Seguridad Nacional vs. Ética Tecnológica: El quiebre contractual entre el Departamento de Defensa y Anthropic
Tras el uso de Claude en la captura de Maduro, la startup de Silicon Valley se niega a ceder acceso irrestricto al ejército de EE. UU.
Redacción
16 de marzo de 2026, 11:49 a. m.Lectura de 3 min

Fotografía: Fuente externa
La empresa de inteligencia artificial Anthropic ha entrado en un conflicto directo con el Departamento de Defensa de los Estados Unidos tras negarse a eliminar las "líneas rojas" éticas de su modelo de IA, Claude. La disputa escaló luego de que trascendiera el uso de dicha tecnología en operativos estratégicos, incluyendo la captura de Nicolás Maduro en Venezuela, lo que llevó al Pentágono a exigir acceso total y sin restricciones para "todos los usos legales". Anthropic rechazó la exigencia alegando que su tecnología no debe emplearse para vigilancia masiva ni para el desarrollo de armas completamente autónomas.
Como respuesta a esta negativa, el secretario de Defensa, Pete Hegseth, clasificó a Anthropic como un "riesgo en la cadena de suministro", una etiqueta habitualmente reservada para empresas de naciones adversarias. Paralelamente, el presidente Donald Trump ordenó a las agencias federales cesar el uso de las herramientas de la empresa, calificando su postura de "izquierda radical". Tras la ruptura del contrato de US$200 millones, su competidor OpenAI asumió la provisión de servicios de IA para el aparato militar estadounidense.
Este enfrentamiento evidencia un vacío crítico en la gobernanza internacional de la IA. Ante la falta de tratados vinculantes y definiciones legales claras sobre el uso de sistemas autónomos en combate, las decisiones sobre los límites de esta tecnología están recayendo en la ética corporativa de firmas privadas. A pesar de la sanción gubernamental, la demanda civil por Claude se disparó globalmente, superando a ChatGPT en las tiendas de aplicaciones tras consolidar su imagen como una alternativa "segura" y orientada a la protección de derechos civiles.


