Nvidia anunció la disponibilidad general de sus microservicios NeMo, que brindan a las empresas herramientas para crear agentes de IA que se integran con los sistemas empresariales y mejoran continuamente mediante la interacción con los datos. Estos microservicios se lanzan en un momento en que las organizaciones buscan estrategias concretas de implementación de IA que puedan generar retornos mensurables de importantes inversiones en tecnología.
La IA empresarial se enfrenta al desafío de la integración de datos
La adopción de la IA empresarial se enfrenta a un reto crítico: construir sistemas que se mantengan precisos y útiles mediante el aprendizaje continuo de los datos empresariales. Los microservicios de NeMo abordan este problema creando lo que Nvidia describe como un «volante de inercia de datos», que permite a los sistemas de IA mantener su relevancia mediante la exposición continua a la información empresarial y a las interacciones de los usuarios.
El kit de herramientas recientemente disponible incluye cinco microservicios clave:
- NeMo Customizer gestiona el ajuste fino de modelos de lenguaje grandes con un mayor rendimiento de entrenamiento.
- NeMo Evaluator proporciona una evaluación simplificada de modelos de IA frente a puntos de referencia personalizados.
- NeMo Guardrails implementa controles de seguridad para mantener el cumplimiento y las respuestas apropiadas.
- NeMo Retriever permite el acceso a la información en todos los sistemas empresariales.
- NeMo Curator procesa y organiza datos para el entrenamiento y la mejora de modelos.
Estos componentes trabajan en conjunto para crear agentes de IA que funcionan como compañeros de equipo digitales, capaces de realizar tareas con mínima supervisión humana. A diferencia de los chatbots estándar, estos agentes pueden realizar acciones autónomas y tomar decisiones basadas en datos empresariales. Se conectan a los sistemas existentes para acceder a la información actual almacenada dentro de los límites de la organización.
La arquitectura técnica apoya la mejora continua
La distinción entre NeMo y los microservicios de inferencia de Nvidia, conocidos como NIM, radica en sus funciones complementarias. Según Joey Conway, director sénior de software de IA generativa para empresas de Nvidia, «NIM se utiliza para implementaciones de inferencia: ejecución del modelo, generación de preguntas y generación de respuestas. NeMo se centra en cómo mejorar ese modelo: preparación de datos, técnicas de entrenamiento y evaluación». Una vez que NeMo termina de optimizar un modelo, este puede implementarse a través de un NIM para su uso en producción.
Las primeras implementaciones demuestran impactos empresariales prácticos. El proveedor de software de telecomunicaciones Amdocs desarrolló tres agentes especializados con microservicios NeMo. AT&T colaboró con Arize y Quantiphi para crear un agente que procesa cerca de 10 000 documentos, actualizados semanalmente. La unidad Outshift de Cisco se asoció con Galileo para crear un asistente de codificación que ofrece respuestas más rápidas que herramientas similares.
Los microservicios se ejecutan como contenedores Docker orquestados a través de Kubernetes, lo que permite su implementación en diversos entornos informáticos. Son compatibles con múltiples modelos de IA, como Llama de Meta, la familia Phi de Microsoft, Gemma y Mistral de Google. Llama Nemotron Ultra de Nvidia, que se centra en las capacidades de razonamiento, también es compatible con el sistema.
Esta versión se incorpora a un panorama competitivo donde las empresas disponen de numerosas opciones de desarrollo de IA. Entre las alternativas se incluyen Bedrock de Amazon, Azure AI Foundry de Microsoft, Vertex AI de Google, Mistral AI, Cohere y la pila Llama de Meta. Nvidia diferencia su oferta mediante la integración con su ecosistema de hardware y el soporte de nivel empresarial a través de la plataforma de software AI Enterprise.
Nvidia Nemo y la adopción de IA empresarial
Para los equipos técnicos, los microservicios proporcionan una infraestructura que reduce la complejidad de la implementación. El enfoque contenedorizado permite la implementación local o en entornos de nube con funciones de seguridad y estabilidad empresariales. Esta flexibilidad aborda las preocupaciones sobre la soberanía de los datos y el cumplimiento normativo que suelen acompañar a las implementaciones de IA.
Las organizaciones que evalúen estas herramientas deben considerar sus inversiones actuales en infraestructura de GPU, los requisitos de gobernanza de datos y las necesidades de integración con los sistemas actuales. La necesidad de agentes de IA que mantengan la precisión ante la evolución de los datos empresariales impulsará la adopción de plataformas que admitan ciclos de aprendizaje continuo.
El enfoque de microservicios refleja una transición más amplia en la industria hacia sistemas de IA modulares que se pueden personalizar para áreas de negocio específicas sin tener que reconstruir componentes fundamentales. Para los responsables de la toma de decisiones tecnológicas, este lanzamiento representa un paso más en la maduración de las herramientas de IA empresarial, reduciendo la brecha entre las capacidades de investigación y las implementaciones empresariales prácticas.
A medida que las empresas avanzan más allá de la experimentación hacia sistemas de IA de producción, las herramientas que simplifican la creación de modelos en constante mejora se vuelven cada vez más valiosas. El concepto de volante de inercia de datos representa un patrón de arquitectura donde los sistemas de IA se mantienen alineados con las necesidades del negocio mediante la exposición continua a la información organizacional.