NVIDIA anunció el 15 de diciembre dos movimientos que consolidan su estrategia más allá del hardware: la compra de SchedMD, la empresa detrás de Slurm, y el lanzamiento de Nemotron 3, una nueva familia de modelos de lenguaje abiertos. Ambas decisiones responden a una misma lógica: ofrecer a gobiernos, centros de investigación y grandes empresas control total sobre su infraestructura de inteligencia artificial, sin depender de proveedores externos ni de APIs cerradas.
1. Gestión de recursos mediante Slurm (SchedMD)
La adquisición de SchedMD otorga a NVIDIA el control sobre el desarrollo de Slurm (Simple Linux Utility for Resource Management). En el ámbito de la computación de alto rendimiento, Slurm actúa como el gestor de recursos y planificador de tareas para clústeres de servidores.
Su función principal es la asignación dinámica de recursos (GPUs, memoria y red) a las tareas de entrenamiento o inferencia. Una gestión eficiente mediante Slurm permite maximizar la eficiencia del sistema y reducir el consumo energético, evitando que el hardware permanezca infrautilizado durante procesos de carga masiva.
NVIDIA se compromete a mantener Slurm como código abierto, aunque ahora controla directamente su evolución. Esto le permite optimizar la integración con sus propias tecnologías -CUDA, las redes InfiniBand, las bibliotecas de comunicación entre GPUs- sin romper la compatibilidad con entornos heterogéneos.
2. Innovaciones en arquitectura: Nemotron 3
El modelo Nemotron 3 Nano (31.6B parámetros) introduce una combinación de dos arquitecturas diseñadas para superar las limitaciones actuales de escalabilidad:
A. Optimización de memoria mediante Mamba
La mayoría de los modelos actuales utilizan la arquitectura Transformer, cuyo coste de procesamiento y memoria crece de forma cuadrática respecto a la longitud del texto. Esto dificulta el procesamiento de documentos muy extensos.
Mamba pertenece a una categoría de modelos denominados State Space Models (SSM). A diferencia de los Transformers, Mamba procesa la información con una complejidad lineal. En términos informáticos, esto significa que el modelo mantiene un «estado» interno comprimido que resume la información anterior, permitiendo manejar contextos de hasta un millón de tokens sin que el uso de la VRAM (memoria de video) se dispare exponencialmente.
B. Eficiencia computacional: Mixture of Experts (MoE)
La arquitectura Mixture of Experts (Mezcla de Expertos) permite que el modelo sea «denso» en conocimiento pero «disperso» en ejecución. En lugar de procesar cada consulta utilizando los 31.600 millones de parámetros, el sistema utiliza una red de enrutamiento que activa solo los subconjuntos (expertos) necesarios para esa tarea específica.
En el caso de Nemotron 3 Nano, solo se activan 3.200 millones de parámetros por operación. Esto reduce significativamente la latencia y la potencia de cálculo requerida, permitiendo que un modelo con capacidades de razonamiento avanzado pueda ejecutarse en infraestructuras más reducidas.
3. Implicaciones para la soberanía tecnológica
El verdadero valor de la noticia no está solo en los modelos, sino en todo lo que NVIDIA libera con ellos: los pesos, más de tres billones de tokens de datos de entrenamiento, las recetas completas de entrenamiento y las herramientas de aprendizaje por refuerzo. Es un paquete pensado para organizaciones que necesitan auditar cada decisión del modelo, adaptarlo a casos de uso específicos o simplemente garantizar que sus datos sensibles no salen de sus servidores.
Este enfoque permite a organizaciones con altos requisitos de seguridad —como entidades financieras o gubernamentales— desplegar soluciones de IA en sus propios servidores (on-premise). Al tener acceso total al modelo, estas instituciones pueden auditar el código, garantizar la privacidad de sus datos y evitar la dependencia de proveedores de servicios en la nube externos.
Conclusión
La combinación de Slurm y Nemotron 3 permite a NVIDIA ofrecer un ecosistema cerrado pero de código abierto: el hardware proporciona la potencia, Slurm gestiona la distribución de la carga y Nemotron aporta la inteligencia optimizada. Se trata de una transición de ser un fabricante de componentes a un proveedor integral de infraestructura para la soberanía digital.
