El acuerdo con Intel es solo una pequeña parte de un crecimiento extraordinario. En 2025, hasta octubre, se han anunciado compromisos de inversión en infraestructura de IA por casi un billón de dólares: 500 mil millones de dólares solo de Stargate; aproximadamente 150 mil millones de dólares en compromisos estratégicos y de suministro impulsados por NVIDIA; y una avalancha de adquisiciones de GPU por parte de hiperescaladores, capital privado y gobiernos que se están llevando a cabo a una velocidad sin precedentes.
Esto no es un ciclo tecnológico. Es una reorganización del capital
Y esto revela un cambio fundamental en el poder: la empresa que está en el centro del desarrollo de la IA ahora la está financiando.
Todo auge tiene dos caras: quienes invierten y quienes se benefician. ¿Quiénes son los que más invierten? Microsoft, Meta, Google y Amazon. Más de 750 mil millones de dólares en inversión en centros de datos entre 2023 y 2025. Casi 400 mil millones solo en 2025. En las recientes presentaciones de resultados del 29 y 30 de octubre de 2025, las cuatro empresas anunciaron planes para aumentar considerablemente su inversión en 2026. Y la base de inversores se está multiplicando. Las firmas de capital privado están captando fondos multimillonarios para infraestructura de IA. Los bancos de inversión están estructurando adquisiciones de centros de datos. Los fondos soberanos están asegurando capacidad de GPU con años de antelación.
Los beneficiarios abarcan toda la infraestructura: GPU, memoria, redes, refrigeración y alimentación. Muchas empresas están ganando terreno gracias al volumen. Pero una empresa se hizo con la mayor parte del mercado: NVIDIA. Entre el 80 % y el 95 % del mercado de aceleradores de IA. Márgenes brutos del 70 % al 80 % . Entre 2023 y 2025, los ingresos se dispararon de 27 000 millones de dólares a 130 000 millones, mientras que el valor de mercado se multiplicó casi por diez.
NVIDIA no solo participó en el auge de la IA. Lo ganó
Ahora, con el capital acumulado gracias a estas ventas, NVIDIA está invirtiendo estratégicamente para controlar tanto la oferta como la demanda en el desarrollo de su infraestructura. A diferencia de los fondos de capital riesgo tradicionales, que simplemente adquieren participaciones, NVIDIA obtiene capital y convierte a las empresas de su cartera en clientes de GPU integrados en su ecosistema. Este patrón se repite en toda la cartera. En julio de 2023, una inversión de 50 millones de dólares en Recursion Pharmaceuticals permitió a esta empresa biotecnológica construir BioHive-2, una supercomputadora NVIDIA DGX SuperPOD con 504 GPU H100, finalizada en mayo de 2024. Para mediados de 2025, Perplexity AI , respaldada por NVIDIA desde abril de 2024, probablemente ya estaba implementando GPU Blackwell para su motor de búsqueda de IA, en consonancia con la estrategia de NVIDIA de proporcionar acceso anticipado a su hardware más reciente.
El ciclo es elegante: NVIDIA invierte capital y adquiere participaciones → Las empresas de su cartera compran GPU → Ingresos adicionales por GPU → Revalorización de las participaciones de la cartera → Mayor liquidez → Repetir. Cada inversión se traduce en despliegue de infraestructura. Cada alianza consolida la adopción del ecosistema, creando un ciclo virtuoso donde NVIDIA financia efectivamente a su propia base de clientes.
La explosión del gasto
El 10 de marzo de 2025, Safra Catz, CEO de Oracle, anunció una cifra que dejó atónitos a los analistas durante la presentación de resultados: 48.000 millones de dólares en nuevos contratos en la nube firmados en un solo trimestre, el mayor volumen de contrataciones trimestrales en la historia de la compañía. La cartera de pedidos alcanzó los 130.000 millones de dólares, un 63% más que el año anterior. Pero lo más sorprendente fue que esas cifras ni siquiera incluían Stargate . El megaproyecto de 500.000 millones de dólares de OpenAI, Oracle y SoftBank, anunciado dos meses antes, no figuraba en la cartera de pedidos reportada. A finales de septiembre , Stargate ya había comprometido más de 400.000 millones de dólares y asegurado siete gigavatios de capacidad.
Le siguió una ola aún mayor. Entre mediados de septiembre y finales de octubre de 2025, el mercado de infraestructura de IA experimentó un crecimiento explosivo con cientos de miles de millones de dólares adicionales en compromisos. El pilar de este auge fue la carta de intenciones de NVIDIA y OpenAI por hasta 100 mil millones de dólares para 10 gigavatios de capacidad de cómputo, con el primer gigavatio operativo a mediados de 2026. A continuación, CoreWeave firmó un acuerdo por 36.600 millones de dólares en cinco días: 22.400 millones con OpenAI y 14.200 millones con Meta . AMD aseguró 6 gigavatios con OpenAI . Broadcom garantizó otros 10 gigavatios de ASIC personalizados a partir de finales de 2026.
NVIDIA está invirtiendo capital para reforzar su posición dominante en el ecosistema de IA. Ha destinado 5.000 millones de dólares a Intel, 2.000 millones al superordenador Colossus 2 de xAI y 1.000 millones a una participación en Nokia . Luego llegó el acuerdo que reveló toda la estrategia: un consorcio liderado por BlackRock , que incluía a NVIDIA, Microsoft y xAI, invirtió 40.000 millones de dólares para adquirir Aligned Data Centers. No se trató de una adquisición tecnológica tradicional, sino de una estrategia para controlar la red eléctrica. No estaban comprando una empresa; estaban comprando energía, terrenos y acceso prioritario al futuro eléctrico. Esto no es un ciclo de inversión. Es una carrera armamentística por la soberanía computacional, y la infraestructura se vende incluso antes de construirse.
El acuerdo que lo explica todo: CoreWeave
Las cifras son asombrosas, pero la mecánica consiste en variaciones de una misma estrategia, implacablemente eficiente.
Primer ciclo de revalorización: En abril de 2023, NVIDIA invirtió 100 millones de dólares en CoreWeave, valorándola en 2000 millones de dólares. Añadió otros 250 millones de dólares en su salida a bolsa en marzo de 2025 a 40 dólares por acción. Inversión total: 350 millones de dólares. Actualmente, CoreWeave cotiza en torno a los 135 dólares por acción. La participación de NVIDIA: aproximadamente 3300 millones de dólares, casi diez veces su inversión inicial. A medida que CoreWeave consiga contratos con clientes, el valor de esta participación aumentará.
Segundo círculo virtuoso: ingresos por GPU: Para cumplir con esos contratos, CoreWeave compra cientos de miles de GPU de NVIDIA. Cada compra genera ingresos por chips para NVIDIA.
El aumento de los ingresos y del valor patrimonial permite realizar más inversiones, acelerando así el ciclo.
La estructura es prácticamente a prueba de balas. Cara o cruz, gana NVIDIA
Lo inusual de la relación con CoreWeave: NVIDIA se ha comprometido a recomprar capacidad por valor de 6300 millones de dólares hasta 2032 si CoreWeave no logra llenar sus centros de datos. La mayoría de los proveedores de servicios en la nube asumen el riesgo total del inventario en compras multimillonarias de GPU. NVIDIA respaldó a su propio cliente.
No todos lo creen. «Con Nvidia, pueden surgir muchos más problemas que beneficios», afirma Jay Goldberg, analista de Seaport Global Securities.
NVIDIA no respondió a las solicitudes de comentarios.
La apuesta de alto riesgo de AMD
Los ingresos de AMD crecieron de 22.700 millones de dólares en 2023 a 25.800 millones en 2024, y se encaminan a alcanzar entre 32.000 y 34.000 millones en 2025. Un aumento del 45% en dos años, respetable pero modesto frente al auge de la IA que quintuplicó los ingresos de NVIDIA. AMD llevaba tiempo esforzándose por entrar en el mercado de las GPU para IA. En octubre, finalmente lo consiguió.
AMD anunció un acuerdo de 6 gigavatios con OpenAI, su mayor contrato hasta la fecha. ¿El precio para conseguir un cliente tan revolucionario en el sector de la IA? AMD emitió warrants de OpenAI por hasta 160 millones de acciones a un centavo cada una, lo que potencialmente le otorga a OpenAI el 10% del capital de AMD solo por convertirse en proveedor. Los warrants se consolidan en tramos a medida que OpenAI implementa gigavatios y las acciones de AMD alcanzan los objetivos previstos, que se elevan hasta los 600 dólares por acción. El analista de UBS, Timothy Arcuri, calculó que la participación podría alcanzar los 100 mil millones de dólares si OpenAI mantiene el acuerdo hasta su finalización, aunque prevé que OpenAI probablemente venderá acciones durante el proceso para financiar la compra de GPU. En esencia, AMD está financiando las compras de OpenAI con su propio capital.
Pero AMD no solo se suma a la tendencia. Está creando una alternativa genuina. La plataforma Helios, de tamaño rack, iguala las especificaciones de la Vera Rubin de NVIDIA: 72 GPU, conectividad de red integrada, implementación llave en mano y un 50 % más de memoria, con 31 TB de HBM4. Ambos sistemas tienen como objetivo la producción en masa a finales de 2026. AMD proyecta un mercado total direccionable (TAM) de 500 mil millones de dólares para aceleradores de IA en centros de datos para 2028, una estimación conservadora dado el gasto de capital de las grandes tecnológicas en IA, que asciende a 400 mil millones de dólares solo este año.
AMD cuenta con tecnología competitiva y una enorme oportunidad de mercado. Lo que le falta es tiempo y fidelización a su ecosistema. NVIDIA invierte en clientes; AMD diluye su participación para conseguirlos. Esta asimetría demuestra el dominio de NVIDIA en el mercado.
La alternativa a ASIC: la verdadera amenaza de Broadcom
Broadcom está jugando a otra liga y ganando. Sus ingresos se dispararon de 35.800 millones de dólares en 2023 a 51.600 millones en 2024, y se prevé que alcancen los 60.000 millones en 2025. Esto supone un aumento del 67%, gracias a que los hiperescaladores adoptaron los ASIC personalizados para la inferencia de alto volumen. El 13 de octubre, la compañía se aseguró 10 gigavatios de aceleradores personalizados diseñados por OpenAI, que entrarán en funcionamiento a finales de 2026. Además, ya cuenta con contratos que generan miles de millones en ingresos para Google, Meta y otros hiperescaladores.
Se trata de circuitos integrados de aplicación específica (ASIC), chips personalizados diseñados para una sola función: la inferencia de alto volumen. Son considerablemente más económicos y eficientes energéticamente que las GPU para tareas repetitivas como responder consultas de ChatGPT. Esto representa un negocio real que está ganando cuota de mercado real.
¿La contrapartida? Los ASIC son dispositivos, no plataformas. Un chip de Broadcom diseñado para OpenAI no puede ejecutar los modelos de Meta. No puede adaptarse a la evolución de las cargas de trabajo. Sin embargo, esto importa menos de lo que NVIDIA espera. Para una inferencia madura y estable a gran escala, los ASIC son la opción más económica. Broadcom no es una curiosidad. Es una auténtica amenaza competitiva para el dominio de NVIDIA en el campo de la inferencia.
Pero nada de eso importa si la red eléctrica no funciona; el cuello de botella es la electricidad, no el silicio.

Energía: La crisis de infraestructura
Actualmente, los centros de datos de IA consumen aproximadamente entre 6 y 8 gigavatios a nivel mundial.
Un solo gigavatio de electricidad, aproximadamente la potencia de un reactor nuclear funcionando continuamente puede alimentar un gran centro de datos de IA. El acuerdo entre OpenAI y NVIDIA, firmado en septiembre, requiere 10 gigavatios. El cálculo es sencillo. Con una eficiencia en el uso de la energía (PUE) moderna de aproximadamente 1,3, una instalación de 10 gigavatios proporciona aproximadamente 7,5 GW de potencia de cómputo utilizable. Con cerca del 80 % dedicado a las GPU el estándar para los centros de datos de IA de última generación, casi 6 GW se destinan a aceleradores. Con aproximadamente 1 kilovatio por GPU de clase Blackwell, esto se traduce en aproximadamente 6 millones de chips distribuidos en aproximadamente 83 000 racks. OpenAI construye los edificios del centro de datos, los sistemas de refrigeración y la infraestructura de red, pero no genera la energía. La red eléctrica debe suministrar la electricidad, equivalente a la de aproximadamente 10 reactores nucleares funcionando las 24 horas del día, los 7 días de la semana.
La red eléctrica debe suministrar la electricidad equivalente a la de unos 10 reactores nucleares funcionando ininterrumpidamente. Para los operadores de la red, este aumento repentino de la demanda no tiene precedentes. «En toda mi trayectoria profesional, jamás había visto un cambio de esta magnitud en las previsiones, y nadie había presenciado estos niveles de crecimiento a nivel nacional desde la década de 1980», afirma Rob Gramlich, presidente de Grid Strategies.
La red eléctrica estadounidense añade aproximadamente entre 10 y 15 gigavatios de nueva capacidad al año. Para alcanzar la meta de entre 44 y 51 GW para 2026, es necesario construir entre 3 y 5 veces más rápido, solo para centros de datos de IA. La construcción de líneas de transmisión de alta tensión tarda entre 3 y 5 años, incluso antes de considerar las disputas con las comunidades y las demoras en la obtención de permisos. El operador de la red de California afirma que las mejoras en los centros de datos no finalizarán hasta finales de 2027. En el norte de Virginia, dos tercios de las subestaciones del condado de Loudoun sufren retrasos hasta 2026.
Los reactores modulares pequeños no llegarán hasta la década de 2030. Las centrales de gas natural son más rápidas, pero se enfrentan a limitaciones de infraestructura. Estos acuerdos prometen energía años antes de que la red pueda suministrarla.
¿Debería preocuparse alguien?
Aunque la energía llegue según lo previsto, la demanda podría desaparecer. Un cambio estructural hacia una IA más barata, distribuida y eficiente podría erosionar la economía de la que depende este auge. Si la inferencia mejora con infraestructuras de menor coste, y si las arquitecturas especializadas desde circuitos integrados de aplicación específica para dominios concretos hasta los aceleradores analógicos emergentes ofrecen mejoras de eficiencia de un orden de magnitud para cargas de trabajo específicas, la justificación para la infraestructura GPU de centros de datos de alta gama se debilita. Los 180 000 millones de dólares en acuerdos presuponen que la IA seguirá siendo propietaria, centralizada y con un alto poder de cómputo. La historia rara vez se ajusta a esta premisa. Los ciclos tecnológicos tienden hacia la eficiencia, la estandarización y la distribución.
Los reguladores agravan la incertidumbre. El modelo de NVIDIA vincula capital, oferta y demanda en un único ciclo de retroalimentación positiva, una estructura cada vez más examinada en las alianzas de IA en la nube. En enero de 2024, la FTC abrió una investigación formal, conforme a la Sección 6(b), sobre los acuerdos de inversión en IA y computación en la nube, obligando a las principales empresas a revelar los términos relativos al acceso preferencial, la exclusividad y el gasto mínimo requerido en la nube. Un informe posterior de la FTC, a principios de 2025, destacó la preocupación de que el acceso a la computación vinculado a la participación accionaria y los acuerdos de gasto condicionado puedan reforzar la posición dominante y limitar la competencia. Si los reguladores concluyen que estos acuerdos distorsionan el acceso al mercado, el modelo de crecimiento de NVIDIA podría encontrar resistencia.
Jensen Huang ha creado el volante de inercia más elegante del capitalismo moderno. Pero los volantes de inercia giran en ambos sentidos. Los ciclos que aceleraron las ganancias pueden amplificar el sufrimiento cuando el ciclo se invierte.
Para inversores y estrategas, las implicaciones son claras: NVIDIA ha construido ventajas estructurales que van mucho más allá del rendimiento de sus chips. Su estrategia de inversión de capital genera costes de cambio y una dependencia del ecosistema que sus competidores no pueden replicar fácilmente. Sin embargo, los mismos ciclos de retroalimentación que impulsan el crecimiento exponencial en épocas de auge pueden acelerar las recesiones.
La cuestión no es si NVIDIA domina el mercado hoy, lo hace, sino si la infraestructura eléctrica puede soportar la expansión, si la demanda justifica la escala y si los reguladores permitirán que este crecimiento continúe sin control. Las respuestas determinarán si se trata de la asignación de capital más visionaria de la década o de su error de cálculo más espectacular.
