— Supermicro, Inc. (NASDAQ: SMCI), un proveedor total de soluciones de TI para IA, nube, almacenamiento y 5G/Edge, está ampliando su alcance de IA con el próximo soporte para la nueva NVIDIA HGX H200 construida con GPUs H200 Tensor Core. Las plataformas de IA líderes del sector de Supermicro, incluidos los sistemas de GPU universales 8U y 4U, están preparados para la HGX H200 8-GPU, 4-GPU, y con casi el doble de capacidad y 1,4 veces más ancho de banda de memoria HBM3e en comparación con la GPU NVIDIA H100 Tensor Core. Además, la cartera más amplia de sistemas NVIDIA MGXTM de Supermicro es compatible con el próximo superchip NVIDIA Grace Hopper con memoria HBM3e. Con un rendimiento, escalabilidad y fiabilidad sin precedentes, las soluciones de IA a escala de bastidor de Supermicro aceleran el rendimiento de la IA generativa computacionalmente intensiva, el entrenamiento de modelos de gran lenguaje (LLM) y las aplicaciones HPC, al tiempo que satisfacen las demandas cambiantes de modelos de tamaño cada vez mayor. Utilizando la arquitectura de bloques de construcción, Supermicro puede llevar rápidamente la nueva tecnología al mercado, permitiendo a los clientes ser más productivos antes.

Supermicro también presenta el servidor de mayor densidad del sector con sistemas NVIDIA HGX H100 de 8 GPU en un sistema 4U refrigerado por líquido, que utiliza la última solución de refrigeración líquida de Supermicro. El servidor de GPU de alto rendimiento más compacto del sector permite a los operadores de centros de datos reducir el espacio ocupado y los costes energéticos, al tiempo que ofrece la mayor capacidad de entrenamiento de IA disponible en un solo rack. Con los sistemas GPU de mayor densidad, las organizaciones pueden reducir su coste total de propiedad aprovechando las soluciones de refrigeración líquida de última generación.

Charles Liang, director general y consejero delegado de Supermicro, afirmó: «Supermicro colabora con NVIDIA para diseñar los sistemas más avanzados para aplicaciones de formación de IA y HPC. Nuestra arquitectura de bloques de construcción nos permite ser los primeros en comercializar la última tecnología, lo que permite a los clientes desplegar IA generativa más rápido que nunca. Podemos entregar estos nuevos sistemas a los clientes más rápidamente gracias a nuestras instalaciones de fabricación en todo el mundo. Los nuevos sistemas, que utilizan la GPU NVIDIA H200 con interconexiones GPU-GPU de alta velocidad NVIDIA® NVLink™ y NVSwitch™ a 900 GB/s, proporcionan ahora hasta 1,1 TB de memoria HBM3e de gran ancho de banda por nodo en nuestras soluciones de IA a escala de bastidor para ofrecer el máximo rendimiento de paralelismo de modelos para los LLM y la IA generativa actuales. También nos complace ofrecer el servidor de refrigeración líquida NVIDIA HGX 8-GPU más compacto del mundo, que duplica la densidad de nuestras soluciones de IA a escala de bastidor y reduce los costes energéticos para conseguir una informática ecológica para el centro de datos acelerado de hoy en día».

Aprenda más acerca de los servidores de Supermicro con GPUs de NVIDIA

Supermicro diseña y fabrica una amplia cartera de servidores de IA con diferentes factores de forma. Los populares sistemas de GPU universal 8U y 4U con GPU NVIDIA HGX H100 de cuatro y ocho vías ahora están preparados para las nuevas GPU H200 para entrenar modelos de lenguaje aún más grandes en menos tiempo. Cada GPU NVIDIA H200 contiene 141 GB de memoria con un ancho de banda de 4,8 TB/s.

Dion Harris, director de soluciones de productos de centros de datos para HPC, IA y computación cuántica en NVIDIA, explicó: «Los próximos diseños de servidores de Supermicro que utilicen NVIDIA HGX H200 ayudarán a acelerar las cargas de trabajo de IA generativa y HPC, para que las empresas y organizaciones puedan sacar el máximo partido de su infraestructura de IA. La GPU NVIDIA H200 con memoria HBM3e de alta velocidad será capaz de manejar cantidades masivas de datos para una gran variedad de cargas de trabajo».

Además, los servidores Supermicro MGX recientemente lanzados con los superchips NVIDIA GH200 Grace Hopper están diseñados para incorporar la GPU NVIDIA H200 con memoria HBM3e.

Las nuevas GPU NVIDIA permiten acelerar los actuales y futuros modelos de lenguaje de gran tamaño (LLM) con cientos de miles de millones de parámetros para que quepan en clusters más compactos y eficientes con el fin de entrenar la IA Generativa con menos tiempo y también permitir que múltiples modelos más grandes quepan en un solo sistema para la inferencia de LLM en tiempo real con el fin de servir a la IA Generativa para millones de usuarios.

En SC23, Supermicro presenta su última oferta, un sistema de GPU universal 4U que incluye NVIDIA HGX H100 de ocho vías con sus últimas innovaciones de refrigeración líquida que mejoran aún más la densidad y la eficiencia para impulsar la evolución de la IA. Con las placas frías de GPU y CPU, CDU (unidad de distribución de refrigeración) y CDM (colector de distribución de refrigeración) de Supermicro, líderes del sector y diseñadas para la computación ecológica, el nuevo sistema de GPU universal 4U con refrigeración líquida también está preparado para la NVIDIA HGX H200 de ocho vías, que reducirá drásticamente el espacio ocupado por el centro de datos, el coste energético y los obstáculos de despliegue a través de las soluciones de rack de refrigeración líquida totalmente integradas de Supermicro y nuestras pruebas de validación L10, L11 y L12.

Si desea más información visite el expositor de Supermicro en SC23

Acerca de Super Micro Computer, Inc.

Supermicro (NASDAQ: SMCI) es líder mundial en soluciones de TI totales optimizadas para aplicaciones. Fundada y operando en San José, California, Supermicro se compromete a ofrecer la primera innovación del mercado para la empresa, la nube, la IA y la infraestructura de TI 5G Telco/Edge. Somos un fabricante de Soluciones de TI Totales con servidores, IA, almacenamiento, IoT, sistemas de conmutación, software y servicios de soporte. La experiencia en diseño de placas base, alimentación y chasis de Supermicro facilita aún más nuestro desarrollo y producción, permitiendo la innovación de próxima generación desde la nube hasta el borde para nuestros clientes globales. Nuestros productos se diseñan y fabrican internamente (en Estados Unidos, Taiwán y los Países Bajos), aprovechando las operaciones globales para la escala y la eficiencia, y se optimizan para mejorar el coste total de propiedad y reducir el impacto medioambiental (informática ecológica). La galardonada cartera de Server Building Block Solutions® permite a los clientes optimizar para su carga de trabajo y aplicación exactas mediante la selección de una amplia familia de sistemas construidos a partir de nuestros bloques de construcción flexibles y reutilizables que admiten un amplio conjunto de factores de forma, procesadores, memoria, GPU, almacenamiento, redes, energía y soluciones de refrigeración (con aire acondicionado, refrigeración por aire libre o refrigeración líquida).

(CONTINUA)