El pulso entre empresas de inteligencia artificial y el Departamento de Defensa de Estados Unidos está redefiniendo los límites éticos y estratégicos del sector. Tras negarse a flexibilizar las condiciones de uso de sus modelos —incluidos posibles usos en vigilancia masiva o sistemas de armas autónomas sin supervisión humana— Anthropic ha visto cómo la Administración estadounidense vetaba su tecnología en agencias federales y restringía su acceso a contratos vinculados al Pentágono.
El caso contrasta con el movimiento de OpenAI, que podría haber optado por un enfoque más pragmático, alcanzando acuerdos con el Departamento de Defensa para colaborar en determinados proyectos. Este giro es precisamente el escenario que Anthropic trataba de evitar: una integración progresiva de la IA comercial en estructuras militares bajo condiciones negociadas.
El contraste entre ambas estrategias evidencia una fractura emergente en el sector: mientras algunas compañías asumen compromisos con la defensa nacional, otras tratan de preservar líneas rojas éticas como parte central de su identidad. En juego no solo está el acceso a contratos públicos, sino quién define las reglas del uso militar de la inteligencia artificial en un contexto de creciente competencia geopolítica.




