Empresas

Cómo el auge de los chips de IA salvó a esta pequeña empresa, que ahora vale 2.800 millones de dólares y planta cara a Nvidia

Armada con 640 millones de dólares recién recaudados, Groq cree que puede desafiar a una de las empresas más valiosas del mundo con un chip especialmente diseñado para la IA desde cero.

Jonathan Ross, CEO de Groq, bautizó su empresa con el nombre de la palabra marciana que significa "entender con empatía", del clásico de ciencia ficción Stranger in a Strange Land. A Elon Musk también le gustó la palabra, y llamó Grok a su chatbot de inteligencia artificial. "Nos lo pedimos", dice Ross. CODY PICKENS PARA FORBES

El primer indicio de que algo iba mal lo tuvo Jonathan Ross en febrero, mientras hablaba ante una serie de miembros del Parlamento noruego y ejecutivos del sector tecnológico en Oslo. Ross, de 42 años y CEO de Groq, una empresa de chips de inteligencia artificial, estaba en medio de una demostración que esperaba que revitalizara la languideciente empresa: un chatbot de inteligencia artificial que podía responder preguntas casi instantáneamente, más rápido de lo que un humano puede leer. Pero, por alguna razón, se estaba quedando un poco atrás. Esto inquietó a Ross, que estaba presentando un centro de datos europeo impulsado por Groq que mostraría los chips especializados responsables de esas respuestas superrápidas. «No paraba de comprobar los números», recuerda. «La gente no sabía por qué estaba tan distraído».

El culpable era la afluencia de nuevos usuarios. Un día antes de la reunión de Ross en Oslo, un tuit viral de un entusiasta desarrollador que hablaba maravillas de «un motor de respuestas de inteligencia artificial ultrarrápido» envió toneladas de tráfico nuevo a la demo online, colapsando los servidores de la empresa. Era un problema, pero era bueno tenerlo.

Cuando fundó Groq hace ocho años, la idea de Ross era diseñar chips de IA explícitamente para lo que en el sector se conoce como «inferencia»: la parte de la inteligencia artificial que imita el razonamiento humano aplicando lo aprendido a nuevas situaciones. Es lo que permite a tu smartphone identificar a tu perro como un Corgi en una foto que nunca ha visto antes, o a un generador de imágenes imaginar al Papa Francisco con un abrigo de Balenciaga. Es muy diferente de la otra tarea computacional de la IA: entrenar los modelos masivos para empezar.

Pero hasta que OpenAI lanzó ChatGPT a finales de 2022, desatando un frenesí mundial por la IA, la demanda de inferencia superrápida era limitada, y la empresa cojeaba. «Groq estuvo a punto de morir muchas veces», dice Ross desde el interior del laboratorio de semiconductores de la startup en San José, California, recordando un punto bajo en 2019, cuando la startup estuvo a un mes de quedarse sin dinero. «Empezamos Groq tal vez un poco temprano».

Pero ahora, con la demanda de potencia computacional para construir y ejecutar modelos de IA tan intensa que está contribuyendo a una escasez mundial de electricidad, parece que ha llegado el momento de Groq, ya sea como un ruidoso potencial u objetivo de adquisición para los gigantes de chips heredados. Este lunes, la empresa informó en exclusiva a Forbes de que había conseguido una ronda de Serie D de 640 millones de dólares, lo que le ha permitido alcanzar una valoración de 2.800 millones de dólares, frente a los 1.100 millones de 2021. En la ronda, liderada por BlackRock Private Equity Partners, también participan Cisco Investments y Samsung Catalyst Fund, una rama de capital riesgo del gigante de la electrónica centrada en infraestructuras e IA.

La necesidad de potencia de cálculo es tan insaciable que ha disparado la capitalización bursátil de Nvidia hasta los 3 billones de dólares con unos ingresos en 2023 de 60.900 millones de dólares. En comparación, Groq sigue siendo minúscula, con unas ventas en 2023 de tan solo 3,4 millones de dólares y una pérdida neta de 88,3 millones, según documentos financieros consultados por Forbes. Pero a medida que aumenta el interés por sus chips, la empresa ha pronosticado unas ventas de 100 millones de dólares este año, una cifra quizá optimista, dicen las fuentes, aunque dudaban de que la empresa pudiera alcanzar ese objetivo. Groq declinó hacer comentarios sobre estas cifras.

Dado que se espera que el mercado de chips de IA alcance los 1,1 billones de dólares en 2027, Ross ve una oportunidad de hacerse con una parte del asombroso 80% de Nvidia centrándose en la inferencia. Según la empresa de investigación IDC, el valor de este mercado rondará los 39.000 millones de dólares este año y se calcula que aumentará hasta los 60.700 millones en los próximos cuatro años. «La informática es el nuevo petróleo», afirma Ross.

Retadores como Groq son optimistas porque los chips de Nvidia ni siquiera se crearon originalmente para la IA. Cuando su CEO, Jensen Huang, presentó sus unidades de procesamiento gráfico (GPU) en 1999, estaban diseñadas para ejecutar videojuegos con un uso intensivo de gráficos. Por casualidad, han sido los chips más adecuados para entrenar la IA. Pero Groq y una nueva oleada de nuevas empresas de chips de nueva generación, como Cerebras (4.000 millones de dólares de valoración) y SambaNova (5.100 millones de dólares de valoración), ven una oportunidad. «Nadie que haya empezado con una hoja en blanco ha optado por fabricar una GPU para este tipo de trabajo», afirma Andrew Feldman, CEO de Cerebras.

No sólo las startups quieren destronar a Nvidia. Tanto Amazon como Microsoft están construyendo sus propios chips de IA. Pero los chips de Groq, llamados Unidades de Procesamiento del Lenguaje (LPU), son tan rápidos que la empresa cree que tiene una oportunidad de luchar. En una presentación a los inversores, la empresa afirma que son cuatro veces más rápidos, cinco veces más baratos y tres veces más eficientes energéticamente que las GPU de Nvidia cuando se utilizan para la inferencia. Nvidia no ha querido hacer comentarios al respecto.

«Su velocidad de inferencia es claramente superior a la de cualquier otro producto del mercado», afirma Aemish Shah, cofundador de General Global Capital, que invirtió en varias rondas de financiación de Groq.

Groq empezó a vender sus chips hace dos años y desde entonces ha incorporado clientes como Argonne National Labs, un centro federal de investigación con orígenes en el Proyecto Manhattan, que ha utilizado chips Groq para estudiar la fusión nuclear, el tipo de energía que alimenta el sol. Aramco Digital, el brazo tecnológico de la petrolera saudí, también ha firmado un acuerdo para utilizar los chips Groq.

En marzo, Groq lanzó GroqCloud, donde los desarrolladores pueden alquilar el acceso a sus chips sin necesidad de comprarlos. Para atraer a los desarrolladores, Groq ofreció acceso gratuito: en su primer mes, 70.000 se inscribieron. Ahora son 350.000 y subiendo. El 30 de junio, la empresa inició los pagos y acaba de contratar a Stuart Pann, antiguo ejecutivo de Intel y ahora Director de Operaciones de Groq, para aumentar rápidamente los ingresos y las operaciones. Pann es optimista sobre el crecimiento: Más de una cuarta parte de los tickets de clientes de GroqCloud son solicitudes para pagar más potencia de cálculo.

«El chip de Groq va realmente a la yugular», afirma el jefe científico de Meta, Yann LeCun, antiguo profesor de informática de Ross en la Universidad de Nueva York, que se ha incorporado recientemente a Groq como asesor técnico. A finales del mes pasado, el consejero delegado Mark Zuckerberg anunció que Groq sería una de las empresas proveedoras de chips para ejecutar la inferencia del nuevo modelo Llama 3.1 de Meta, calificando a la startup de «innovadora».

Ross se curtió en Google, donde trabajó en el equipo que creó los semiconductores de «unidades de procesamiento tensorial» de la empresa, optimizados para el aprendizaje automático. Lo dejó en 2016 para fundar Groq, junto con su compañero ingeniero de Google Doug Wightman, que fue el primer CEO de la empresa. Ese año, Groq recaudó una ronda de 10 millones de dólares liderada por el fondo de capital riesgo Social Capital. Pero a partir de ahí, encontrar nuevos inversores fue difícil. El cofundador de Groq, Wightman, se marchó unos años más tarde y no respondió a las solicitudes de entrevista.

Todavía hay muchos detractores. Un inversor de capital riesgo que no participó en la ronda de la serie D de la empresa calificó el enfoque de Groq de «novedoso», pero no creía que su propiedad intelectual fuera defendible a largo plazo. Mitesh Agrawal, responsable de la nube de Lambda, una startup de infraestructura de IA valorada en 1.500 millones de dólares, afirma que su empresa no tiene previsto ofrecer Groq ni ningún otro chip especializado en su nube. «Ahora mismo es muy difícil pensar más allá de Nvidia», afirma. Otros cuestionan la rentabilidad de los chips de Groq a escala.

Ross sabe que es una cuesta arriba. «Es como si fuéramos el novato del año», dice. «Aún no nos hemos acercado a Nvidia. Así que todos los ojos están puestos en nosotros. Y es como, ¿qué vas a hacer ahora?».

Información adicional de Rashi Shrivastava, Alex Konrad y Kenrick Cai.

Artículos relacionados