Nvidia está utilizando código libre para la pila de software DGX Spark para convertirla en un nodo de IA particular, lo que permite a los desarrolladores y empresas ejecutar potentes flujos de trabajo de IA de código libre sin reconocer de la montón.
Nvidia ha anunciado una modernización de software exclusivamente para DGX Spark en CES 2026, reposicionando el sistema compacto de un dispositivo de desarrollador independiente a un nodo informático de IA particular e integrado construido cerca de de ecosistemas de IA de código libre.
La modernización amplía significativamente el soporte nativo para marcos de IA de código libre y modelos impulsados por la comunidad, abordando directamente las limitaciones del software destacadas en las primeras revisiones. Nvidia está agregando soporte para PyTorch, vLLM, SGLang, pasión.cpp y LlamaIndex, contiguo con modelos populares abiertos y de peso libre de Qwen, Meta, Stability AI y Wan.
No se requiere hardware nuevo. El enfoque de software exclusivo reduce el trabajo de integración personalizado para las organizaciones que dependen de herramientas abiertas, al tiempo que permite actualizaciones más fluidas a medida que evolucionan los marcos y modelos.
DGX Spark funciona con el superchip GB10 Grace Blackwell, que combina núcleos de CPU y GPU con 128 GB de memoria unificada, lo que permite que grandes modelos de estilo se ejecuten localmente sin reconocer de la montón. Nvidia afirma obtener ganancias de rendimiento de hasta 2,5 veces en comparación con el dispersión, impulsadas por actualizaciones de TensorRT-LLM, cuantificación más estricta y optimizaciones de decodificación.
En un ejemplo, Qwen-235B duplicó con creces el rendimiento al advenir de FP8 a NVFP4 con decodificación especulativa. Incluso se informaron ganancias menores pero mensurables para Qwen3-30B y Stable Diffusion 3.5 Large.
La modernización presenta manuales de táctica de DGX Spark, herramientas de agrupación, modelos y guías de configuración en flujos de trabajo locales reutilizables. DGX Spark además puede realizar como un acelerador extranjero de IA, como se demostró con los sistemas MacBook Pro, donde los canales de video de IA se redujeron de ocho minutos a aproximadamente un minuto.
Un Nsight Copilot particular permite la concurso CUDA sin cursar código o datos a la montón, lo que refuerza la soberanía de los datos. En común, DGX Spark evoluciona cerca de un nodo de IA flexible, libre y particular que admite computadoras portátiles, estaciones de trabajo e implementaciones perimetrales.
