Actualidad

Microsoft se posiciona junto a Anthropic en el choque con el Pentágono por el uso militar de la IA

El origen del conflicto se remonta a las negociaciones entre Anthropic y el Pentágono sobre el uso de sus modelos de IA en operaciones militares y de inteligencia. Las conversaciones terminaron sin acuerdo a finales del mes pasado. La empresa rechazó firmar un contrato para el despliegue de su tecnología en proyectos vinculados al ámbito militar.

Foto de Unsplash.com

El choque entre Washington y Silicon Valley por el control de la inteligencia artificial ha escalado a un nuevo nivel. Microsoft ha decidido respaldar públicamente a Anthropic en su disputa con el Pentágono, un movimiento que revela hasta qué punto la batalla por el uso militar de la IA se ha convertido en un asunto estratégico para la industria tecnológica estadounidense.

La compañía fundada por Bill Gates pidió a un tribunal una orden de restricción temporal para impedir que el Departamento de Defensa ejecute su decisión de catalogar a Anthropic como un riesgo para la cadena de suministro militar. De prosperar esa clasificación, la start-up quedaría excluida de contratos y proyectos vinculados al ecosistema tecnológico del Pentágono.

Para Microsoft, el precedente sería peligroso. Según argumentó la empresa, adoptar medidas “drásticas” y “sin precedentes” contra una compañía de IA por rechazar determinados usos militares podría tener “implicaciones negativas” para todo el sector tecnológico.

Un conflicto que va más allá de una start-up

Anthropic se ha convertido en uno de los actores más influyentes del nuevo ciclo de la inteligencia artificial. Fundada en 2021 por exinvestigadores de OpenAI, la empresa desarrolla el chatbot Claude y modelos de lenguaje avanzados que compiten directamente con sistemas como GPT.

Su valoración privada ronda los 380.000 millones de dólares, una cifra que la situaría entre las start-ups tecnológicas más valiosas del mundo si se confirmara en una salida a bolsa. Para ponerlo en perspectiva, esa cifra supera la capitalización bursátil de empresas históricas como IBM o Salesforce. El crecimiento de la compañía refleja el tamaño del mercado. Según estimaciones de consultoras como McKinsey y IDC, la industria global de IA podría superar los 1,8 billones de dólares en valor económico anual hacia 2030, impulsada por la automatización empresarial, los asistentes inteligentes y las aplicaciones científicas. Pero el sector militar también es una pieza clave. El presupuesto del Departamento de Defensa de USA supera los 880.000 millones de dólares anuales, y una parte creciente se destina a software, análisis de datos y sistemas autónomos.

En ese contexto, las empresas de IA se enfrentan a una pregunta incómoda: hasta dónde están dispuestas a colaborar con aplicaciones militares.

Las “líneas rojas” de Anthropic

El origen del conflicto se remonta a las negociaciones entre Anthropic y el Pentágono sobre el uso de sus modelos de IA en operaciones militares y de inteligencia. Las conversaciones terminaron sin acuerdo a finales del mes pasado. La empresa rechazó firmar un contrato para el despliegue de su tecnología en proyectos vinculados al ámbito militar.

El director ejecutivo de Anthropic, Dario Amodei, defendió que la compañía mantiene límites claros sobre cómo puede utilizarse su tecnología. Entre esas restricciones destacan dos:

  • Prohibición de uso en armas autónomas letales.
  • Rechazo a sistemas de vigilancia masiva de ciudadanos estadounidenses.

Estas condiciones forman parte de lo que la empresa describe como un enfoque de “IA constitucional”, basado en principios éticos y controles internos. Sin embargo, para el Pentágono el rechazo generó dudas sobre la fiabilidad de la empresa como proveedor estratégico. La respuesta fue contundente: el secretario de Defensa, Pete Hegseth, ordenó iniciar el proceso para excluir a Anthropic de la cadena de suministro del Departamento de Defensa.

Ese tipo de medida suele aplicarse a empresas consideradas riesgos geopolíticos habitualmente vinculadas a China o Rusia, lo que elevó rápidamente la tensión con Silicon Valley.

Silicon Valley se divide

Durante años, muchas grandes tecnológicas han evitado enfrentarse abiertamente al gobierno estadounidense en temas de defensa. Pero la inteligencia artificial está cambiando esa dinámica. Microsoft es la primera gran empresa del sector que se posiciona públicamente en este conflicto. Su argumento central es que penalizar a una compañía por fijar límites éticos puede desalentar la innovación. La empresa sostiene que una orden judicial temporal permitiría retomar las conversaciones y abrir un debate más amplio sobre cómo debería utilizarse la IA en el ámbito militar y de inteligencia.

No todos en Silicon Valley comparten esa visión. Algunas compañías ven en los contratos de defensa una oportunidad estratégica. El propio Pentágono ha acelerado sus inversiones en IA, con proyectos que van desde análisis de imágenes satelitales hasta logística automatizada o simulación de escenarios militares.

Según datos del propio Departamento de Defensa, el gasto en inteligencia artificial dentro del presupuesto militar estadounidense ya supera los 3.000 millones de dólares anuales, y podría duplicarse antes de 2030.

La dimensión política

El conflicto también tiene un trasfondo político. La Administración Trump ha lanzado una campaña más amplia contra lo que denomina inteligencia artificial “woke”. Como parte de esa estrategia, el gobierno ha pedido a las agencias federales que dejen de utilizar el chatbot Claude de Anthropic en sus sistemas internos. La medida refleja una preocupación creciente en Washington: que los modelos de IA incorporen sesgos ideológicos o normas internas que limiten su uso en ámbitos sensibles.

Microsoft, sin embargo, adoptó una postura más moderada en su intervención judicial. La compañía afirmó que su posición es que la IA debe desarrollarse y aplicarse en casos de uso legales, responsables y con salvaguardas adecuadas.

Más allá del caso concreto, la disputa revela una cuestión clave para el futuro de la inteligencia artificial: quién decide los límites de la tecnología. Si el gobierno puede excluir a proveedores de la cadena de suministro militar por razones éticas o contractuales, muchas empresas podrían verse obligadas a elegir entre participar plenamente en el sector público o mantener sus propios principios de uso.

Para Silicon Valley, el riesgo es que la regulación se convierta en una herramienta política. Para Washington, el temor es depender de compañías privadas que no siempre comparten las prioridades estratégicas del Estado.

En cualquier caso, el choque entre Microsoft, Anthropic y el Pentágono marca un nuevo capítulo en la relación entre tecnología y poder. Y con un mercado de inteligencia artificial que podría superar el billón de dólares en esta década, lo que está en juego no es solo un contrato militar, sino el equilibrio de poder en la próxima revolución tecnológica.

Artículos relacionados