Los inversores están a punto de apostar cientos de millones en una startup con muy pocos ingresos, apostando a que la IA es lo suficientemente atractiva como para convertir una base de código abierto en un negocio próspero.
Surgida de la Universidad de California en Berkeley a partir del laboratorio del cofundador de Databricks, Ion Stoica, vLLM ha estado en las últimas semanas promoviendo la financiación de inversores para comercializar una popular base de código abierto que acelera los modelos de lenguaje de gran tamaño y optimiza el rendimiento de los chips de IA. Cuatro fuentes independientes informaron a Forbes que el colíder de vLLM, Simon Mo, ha estado manteniendo reuniones en Silicon Valley con la intención de recaudar 60 millones de dólares actualmente y al menos 100 millones en una segunda ronda. Mo no respondió a una solicitud de comentarios.
Las fuentes indicaron que la financiación podría dar a la startup una valoración de alrededor de mil millones de dólares. Las cifras están en constante cambio y podrían cambiar, advirtieron.
Por ahora, vLLM no parece tener un sitio web ni un modelo de negocio para monetizar su código más allá de las donaciones. Hasta la fecha, ha recaudado 300.000 dólares, incluyendo cheques de Sequoia, una firma de sangre azul de Sand Hill Road.
La naciente empresa forma parte de una ola de nuevas startups que apuestan por un sector nuevo y en crecimiento de la economía de la IA. OpenAI, Anthropic y las grandes tecnológicas han invertido decenas de miles de millones de dólares en el entrenamiento de nuevos modelos de lenguaje de gran tamaño. Sin embargo, a medida que las startups de IA captan clientes, cada vez más inversión se centra en respaldar el funcionamiento de sistemas de IA entrenados, lo que se conoce como inferencia.
Esto se ha convertido en una propuesta cada vez más costosa para las startups de IA, ya que ofrecen breves indicaciones de texto a sus clientes, completan tareas de codificación complejas o generan imágenes y vídeos. Por ejemplo, OpenAI podría estar invirtiendo más de una cuarta parte de sus ingresos en su aplicación de creación de vídeos Sora, cuya rentabilidad, según Bill Peebles, director de Sora, es «completamente insostenible».
Esto está atrayendo a los inversores hacia herramientas como vLLM, que prometen controlar el coste de los procesos de IA. Fireworks recaudó 250 millones de dólares en octubre, con una valoración de 4.000 millones de dólares para su herramienta en la nube, mientras que su rival Basten cerró una ronda de financiación de 150 millones de dólares, con una valoración de 2.150 millones de dólares un mes antes. Fal, especialista en inferencia de foto y vídeo, recaudó 140 millones de dólares, con una valoración de 4.500 millones de dólares, a principios de diciembre.
La propuesta de vLLM ha captado la atención de los inversores de riesgo a pesar de que la startup está desarrollando bibliotecas de software de código abierto impulsadas por la comunidad y alojadas en Github. Esto se debe a que su software, que funciona utilizando la memoria de una GPU de forma más eficiente, lo que le permite distribuir tareas entre menos servidores, se ha convertido en uno de los más destacados en el sitio web para desarrolladores. Y a diferencia de Fireworks, Baseten o Fal, las startups pueden usar vLLM para optimizar la inferencia en sus propios chips y servidores.
Los inversores podrían estar dispuestos a ignorar la falta de comercialización de vLLM hasta la fecha debido a la larga trayectoria de herramientas y proyectos de código abierto como Red Hat, GitLab y MongoDB, que se han convertido en herramientas tecnológicas cruciales con valoraciones multimillonarias. Cabe destacar que Red Hat logró una de las mayores salidas de la historia para una empresa de software cuando IBM la adquirió por 34 000 millones de dólares en 2019, tras pasar de ser un revendedor de herramientas de software de código abierto a ser el desarrollador de un sistema operativo comercial que generó 3400 millones de dólares en ingresos en el momento de la operación.
“Se invertirán cientos de miles de millones de dólares en inferencia”, afirmó Dylan Patel, fundador del grupo de investigación de IA Semianalysis. “Redhat gana muchísimo dinero desarrollando software de código abierto y, a partir de él, desarrollando servicios para Linux. Así que sí, creo que vLLM puede hacer lo mismo”.
