Empresas

Qualcomm desafía a Nvidia y AMD con chips de IA para centros de datos

Las NPU a escala de rack de Qualcomm prometen nuevas ganancias en eficiencia y capacidad de memoria.

Chip de inteligencia artificial. (Foto: Pixabay)

La última incursión de Qualcomm en el ámbito de los centros de datos supone un cambio en el equilibrio de poder de la inteligencia artificial (IA) empresarial, un sector históricamente dominado por Nvidia y AMD. Con la presentación del chip AI200 para 2026 y el AI250 para 2027, ambos diseñados para instalaciones a escala de rack, Qualcomm apunta directamente a los líderes actuales en GPU.

Para los responsables de la toma de decisiones tecnológicas en las empresas, este avance afectará a los aspectos fundamentales del coste, la accesibilidad y la preparación para el futuro de la infraestructura de IA, lo que supone un notable punto de inflexión en el panorama competitivo.

El impacto principal para los CXO radica en el cambio de un modelo basado en la computación a otro en el que la capacidad de memoria y la eficiencia de inferencia definen el éxito. Los chips para centros de datos de Qualcomm aprovechan las arquitecturas extraídas de sus NPU Hexagon móviles, que históricamente han alimentado dispositivos desde teléfonos hasta ordenadores de sobremesa. Al traducir estas competencias en sistemas de rack completo refrigerados por líquido capaces de soportar docenas de chips, Qualcomm ofrece una alternativa al enfoque centrado en el entrenamiento de las GPU de Nvidia. La ventaja técnica proviene de un subsistema de memoria rediseñado que ofrece una mejora de más de diez veces en el ancho de banda de la memoria con respecto a las GPU actuales de Nvidia, abordando directamente el cuello de botella que dificulta el rendimiento de los grandes modelos de lenguaje y las cargas de trabajo de IA generativa.

En términos prácticos, esto significa que los operadores empresariales que implementen IA generativa a gran escala podrían obtener resultados más rápidos en la inferencia de IA, con menores requisitos energéticos continuos. Por ejemplo, la empresa saudí de IA Humain se convertirá en el primer cliente importante de Qualcomm con planes de poner en línea más de 200 megavatios de computación basada en Qualcomm en 2026, con el objetivo de utilizarla en casos de uso que van desde el procesamiento del lenguaje natural en los servicios financieros hasta los motores de recomendación en el comercio minorista. Los racks de Qualcomm están diseñados para su integración directa en centros de datos, mientras que los chips independientes ofrecen a los hiperescaladores la flexibilidad de actualizar los servidores existentes con un motor de IA energéticamente eficiente.

Sin embargo, el reto de Qualcomm va más allá de las especificaciones técnicas. La curva de adopción de los nuevos chips de IA sigue siendo pronunciada, debido en gran medida a la atracción gravitatoria del ecosistema de software CUDA de Nvidia, que se ha convertido en indispensable para el desarrollo y la implementación de modelos tanto en la investigación como en la producción. Aunque Qualcomm promociona la compatibilidad con los principales marcos de IA y la implementación de modelos «con un solo clic», las empresas tendrán que sopesar la recapacitación de los desarrolladores, los plazos de migración y los riesgos que plantea el bloqueo del ecosistema antes de cambiar sus pilas de inferencia. Esta reticencia se ve agravada por la inercia de los ciclos de adquisición de servidores actuales y los largos plazos de entrega necesarios para reequipar las operaciones de los centros de datos para las NPU a escala de rack.

Desde el punto de vista estratégico, la entrada de Qualcomm es oportuna, dados los requisitos cambiantes de los centros de datos. A medida que las cargas de trabajo de formación se estabilizan en frecuencia para muchas empresas, el valor empresarial real se está desplazando hacia la ejecución de inferencias escaladas para los modelos implementados. En este sentido, es probable que la propuesta de Qualcomm en torno a la contención de costes y la eficiencia energética tenga buena acogida. Estos chips permiten reducir el coste total de propiedad, especialmente en el caso de cargas de trabajo en las que el reentrenamiento es poco frecuente y la asignación de recursos debe gestionarse de forma estricta. El modelo de asociación, ejemplificado por Humain en Arabia Saudí y por las colaboraciones en curso con Nvidia, ofrece a Qualcomm una vía de acceso al mercado al tiempo que aprovecha los paradigmas de implementación en la nube con los que está familiarizada.

Sin embargo, persisten los factores de riesgo. La integración plantea obstáculos técnicos, desde garantizar una compatibilidad perfecta con las herramientas de orquestación existentes hasta proteger contra las vulnerabilidades de seguridad propias de las implementaciones de racks de IA. Las ventajas en términos de costes también dependerán de las intensas negociaciones de precios con los proveedores a hiperescala y del apoyo continuo a los marcos abiertos que facilitan la dependencia de un único proveedor.

¿Cuál es la conclusión estratégica para los directores ejecutivos? Las NPU a escala de rack de Qualcomm prometen nuevas ganancias en eficiencia y capacidad de memoria, pero requieren una evaluación cuidadosa de los requisitos previos para la migración, la capacitación de los desarrolladores y las estrategias de mitigación de riesgos.

En última instancia, la transición de Qualcomm de los dispositivos de consumo a la infraestructura de IA de nivel empresarial ejemplifica no solo un reequilibrio en la competencia de hardware, sino una redefinición de cómo se obtiene valor comercial de las inversiones en IA. Los marcos de decisión para los compradores de tecnología deben incorporar ahora el ancho de banda de la memoria, la preparación para la integración en rack y los cálculos del coste total de propiedad, junto con los tradicionales parámetros de referencia informáticos. Para los líderes tecnológicos que trazan las estrategias futuras de IA, la aparición de la alternativa de Qualcomm marca una nueva era de posibilidades competitivas, atenuada por la necesidad de una evaluación rigurosa y específica para cada contexto.

Artículos relacionados