Empresas

Anthropic y OpenAI: quienes levantaron el imperio de la IA ahora dictan sus reglas

OpenAI y Anthropic gastaron más que nunca en lobbying en 2025. Están presionando para obtener un trato favorable y menos regulación en medio de las crecientes tensiones, al menos para Anthropic, con la administración Trump.

El CEO de OpenAI, Sam Altman, y el CEO de Anthropic, Dario Amodei. Ludovic MARIN / AFP vía Getty Images

El mes pasado, el director ejecutivo de Anthropic, Dario Amodei, publicó un extenso ensayo en el que argumentaba que la proliferación de los centros de datos de IA está vinculando cada vez más los intereses financieros y tecnológicos de los principales laboratorios de IA a los intereses políticos del gobierno. Lamentó lo que describió como la renuencia de la tecnología a desafiar al Gobierno, así como el apoyo de este a «políticas antirreguladoras extremas en materia de IA». Su receta: anteponer la política a la política.

Desgraciadamente, es difícil predicar el distanciamiento de la política mientras se negocian contratos gubernamentales de nueve cifras.

Una disputa -de la que informó por primera vez Axios -entre Anthropic y el Departamento de Defensa de los Estados Unidos por un contrato de 200 millones de dólares para desarrollar IA para la seguridad nacional en casos de uso militar y empresarial- sugiere que la separación que defiende Amodei puede ser difícil de lograr en la administración del presidente Trump, que funciona como una máquina expendedora de monedas. Y el director ejecutivo de Anthropic lo sabe, por lo que su empresa está intensificando la presión y las donaciones políticas, al igual que sus rivales.

Anthropic y OpenAI gastaron 3,13 millones y 2,99 millones de dólares, respectivamente, en lobbying federal directo en 2025: más que nunca, según las declaraciones reglamentarias. Eso se suma a los aproximadamente 300.000 dólares por empresa que se destinan al lobbying en California. Las dos empresas, valoradas en 830.000 y 380.000 millones de dólares, respectivamente, comenzaron a ejercer presión en 2023. Para Anthropic, 2025 fue el primer año en el que reveló donaciones para apoyar a candidatos políticos específicos.

La semana pasada, Anthropic anunció una donación de 20 millones de dólares a Public First Action, una organización política que aboga por una mayor regulación de la IA. La empresa promocionó la iniciativa como una acción no partidista, a pesar de que muchas de las políticas que apoya parecen estar en desacuerdo con las de Trump, el zar de la IA David Sacks y la tendencia antirregulatoria de la industria en general. OpenAI se negó a hacer comentarios. Anthropic se negó a comentar sobre esfuerzos específicos de cabildeo, pero remitió a Forbes a su comunicado de prensa sobre la donación a Public First Action.

Quizás la ruptura más visible entre los esfuerzos políticos de OpenAI y Anthropic se produjo con el proyecto de ley de seguridad de la IA de California, que entró en vigor en enero.

La SB 53 exige a los grandes fabricantes de modelos de IA que creen normas y barreras de seguridad para evaluar la seguridad de los nuevos modelos y que, a continuación, informen por sí mismos de cómo las han abordado antes de lanzar nuevos modelos, además de la posibilidad de enfrentarse a multas. Ambas empresas presionaron sobre el proyecto de ley. Según se informa, OpenAI se opuso a este. Anthropic finalmente lo respaldó.

Pero, ¿qué importancia tiene esa distinción?

«Se trata de posicionarse como defensor de la seguridad o como orientado a la seguridad… [pero] fue más bien una maniobra publicitaria», afirma Kyle Qi, de Llama Ventures, que tiene una participación indirecta en Anthropic. Michael Kleinman, responsable de política estadounidense del Future of Life Institute, favorable a la regulación de la IA, es aún más directo:  «Hasta que no veamos que las empresas apoyan realmente una legislación significativa, lo que dicen sobre su deseo de regulación son palabras vacías… El sector en su conjunto está empeñado en evitar la regulación».

Si se analizan las capas, a nivel federal, el solapamiento es más claro que la división. Tanto para Anthropic como para OpenAI, las prioridades de presión política para 2025 incluían la seguridad nacional y la infraestructura de IA. Las agencias federales utilizan cada vez más los sistemas de IA. En agosto, OpenAI y Anthropic anunciaron acuerdos para que las agencias gubernamentales utilizaran sus modelos por 1 dólar; xAI, de Elon Musk, anunció una asociación similar por 0,42 dólares en septiembre. En 2024, OpenAI eliminó discretamente de sus políticas de uso la prohibición de aplicaciones «militares y bélicas».

El argumento que se presenta a Washington es sencillo: una escala más rápida refuerza la competitividad de Estados Unidos.

En una carta enviada en octubre a la Oficina de Política Científica y Tecnológica de la Casa Blanca, el director de asuntos globales de OpenAI, Chris Lehane, escribió que «la necesidad imperiosa de seguridad nacional para liderar el mundo en IA también presenta una oportunidad única en un siglo para fortalecer nuestra economía». Instó al Gobierno a garantizar que los sistemas de IA de vanguardia protejan los intereses de seguridad nacional de EE. UU., «incluso mediante la adopción por parte de las agencias federales».

Los documentos presentados por Anthropic hacen referencia explícita a los controles de exportación y a la ley GAIN AI. Presentado en octubre, el proyecto de ley restringiría aún más las ventas de chips avanzados de IA a adversarios como China y Rusia, al otorgar a los clientes estadounidenses un derecho de tanteo antes de la exportación. La cuestión ha cobrado nueva urgencia: Nvidia ahora tiene permiso para vender sus avanzados chips H200 a empresas chinas tras años de negociaciones en las que han participado funcionarios estadounidenses y chinos.

No está claro si OpenAI ha presionado para que se controlen las exportaciones, pero su director ejecutivo, Sam Altman, ha cuestionado su eficacia. El presidente Trump «tiene la misión de garantizar que Estados Unidos salga ganando», declaró a Forbes. «Y yo considero que nuestra misión es para toda la humanidad… hay cierta oposición al respecto».

Luego está la cuestión de la construcción. El desarrollo y la implementación de la IA de vanguardia requieren enormes centros de datos. Anthropic, OpenAI y empresas tradicionales como Google y Meta compiten por ampliar su capacidad. Argumentan que la complejidad de los permisos, los cuellos de botella en el suministro eléctrico, los retrasos en la construcción y la oposición local están ralentizando los proyectos; más de la mitad de los proyectos de centros de datos en 2025 se retrasaron al menos tres meses, según JLL.

Los compromisos financieros son enormes. OpenAI se ha comprometido a gastar unos 1,4 billones de dólares en ellos durante los próximos ocho años, aparentemente sin un plan para pagarlo todo.

Ambas empresas están ejerciendo presión en consecuencia. Anthropic presionó en julio para que se aprobara una orden ejecutiva destinada a acelerar la concesión de permisos federales para la infraestructura de los centros de datos. En su carta de octubre, OpenAI pidió créditos fiscales y otras subvenciones, junto con la simplificación de los permisos energéticos y medioambientales para poner en marcha las instalaciones más rápidamente. Anthropic ha apoyado políticas similares y recientemente anunció que cubriría los costes de electricidad relacionados con la conexión de nuevos centros de datos a la red.

Otros proyectos de ley y cuestiones a los que se hace referencia en esas divulgaciones incluyen la ley CREATE AI, cuyo objetivo es hacer que la tecnología de IA sea accesible para todos los estadounidenses; la interferencia de la IA en las elecciones; los derechos de autor; una orden ejecutiva para prevenir la «IA woke» en el gobierno federal; una moratoria de la IA; y regulaciones más amplias sobre la seguridad y la gobernanza de la IA. Sin embargo, aún es pronto: todavía no se ha aprobado ninguna legislación que cambie de forma significativa el curso del desarrollo y la implementación de la IA en Estados Unidos. Una pieza clave de la legislación, destinada a dar prioridad a la política federal en materia de IA sobre las leyes estatales y, por lo tanto, hacer casi imposible que los estados aprueben su propia normativa sobre IA, acabó convirtiéndose en una orden ejecutiva en diciembre, en lugar de en una ley aprobada por el Congreso.

«Washington está lamentablemente atrasado en materia de política de IA, lo que hace que los responsables políticos dependan peligrosamente de las empresas tecnológicas para obtener información sobre la trayectoria y el impacto de las tecnologías emergentes que nos afectarán a todos», afirma Matt Lerner, director general de investigación de Founders Pledge, una organización sin ánimo de lucro que agrupa las donaciones de los fundadores y ha dirigido donaciones filantrópicas a varias organizaciones sin ánimo de lucro dedicadas a la política y la seguridad de la IA (la organización no ejerce presión política).

La regulación de la IA se perfila como una lucha a medio plazo, en la que los candidatos y las organizaciones filantrópicas con grandes recursos económicos gastan millones para hacer oír sus posiciones. Pero, por ahora, el campo pertenece a los creadores. Las empresas que redactan las especificaciones de los modelos de IA también son las que más dinero invierten en Washington, argumentando que la velocidad es patriotismo, la escala es seguridad y que su éxito comercial es bueno para el país. Hasta que el Congreso demuestre lo contrario, siguen siendo tanto el objeto de las normas como las voces más influyentes que las configuran.

Artículos relacionados