Con un formato que recuerda al de un mini PC, Nvidia ha presentado DGX Spark, un equipo que la marca define como su primer superordenador personal para inteligencia artificial. Su objetivo es claro: llevar a la mesa del desarrollador una potencia que antes exigÃa centros de datos o la nube.
La propuesta destaca por permitir inferencias y ajustes de modelos en local, con cifras inusuales para un sobremesa enchufado a una toma convencional. Según Nvidia, en precisión reducida para IA (FP4) ofrece hasta 1 petaFLOP de rendimiento, suficiente para servir modelos con 200.000 millones de parámetros sin salir de casa, el laboratorio o la oficina.
Qué es DGX Spark y a quién va dirigido
DGX Spark no es un PC de consumo ni un equipo para juegos; es una herramienta de desarrollo. Funciona con DGX OS (una variante de Ubuntu con el software de IA de Nvidia preinstalado) y está orientado a investigadores, desarrolladores y estudiantes que necesitan experimentar, afinar y validar proyectos en su propio entorno.
La filosofÃa de uso es sencilla: desde tu equipo habitual utilizas apps tradicionales y, cuando hace falta IA, delegas la carga en el DGX Spark a través de la red local. Asà evitas dependencias de la nube, latencias y costes variables, manteniendo el control sobre datos y modelos.
Arquitectura y especificaciones clave
El corazón del equipo es el GB10 Grace Blackwell, un superchip que combina CPU y GPU bajo el mismo techo para maximizar la coherencia de memoria y reducir cuellos de botella. La CPU incorpora 20 núcleos Arm (10 Cortex-X925 de alto rendimiento y 10 Cortex-A725 de eficiencia), con 128 GB de memoria unificada LPDDR5X que evita los traslados de datos entre RAM y VRAM.
En almacenamiento, el sistema admite un SSD NVMe M.2 de hasta 4 TB con autocifrado, y en conectividad incluye WiFi 7, Bluetooth 5.4, red 10 GbE, HDMI y cuatro USB-C. La potencia máxima ronda los 240 W, lo que ayuda a mantener el formato compacto y el ruido contenidos, algo complicado en estaciones con GPU discretas de gama alta.
La plataforma está preparada para enlaces de alta velocidad y capacidades de red como ConnectX-7, pensadas para escenarios de desarrollo avanzados. En la práctica, el chasis se puede colocar en cualquier escritorio y, con un peso en torno a 1,2 kg, resulta fácil de transportar entre salas o sedes.
Rendimiento de IA en local
Trabajando en FP4, DGX Spark alcanza aproximadamente 1 petaFLOP, una cifra que lo sitúa a medio camino entre una estación de trabajo compacta y un pequeño servidor de laboratorio. Con ese techo, es capaz de servir en local LLM de hasta 200B de parámetros, algo que hasta ahora quedaba vetado a la nube o a equipos mucho más voluminosos.
Para proyectos que rebasen ese tamaño, Nvidia señala que es posible conectar dos sistemas Spark y abordar modelos todavÃa mayores, con referencias de hasta 405.000 millones de parámetros. Además, la compañÃa asegura compatibilidad con modelos de DeepSeek, Meta, NVIDIA, Google, Qwen y en general con alternativas de código abierto que puedan adaptarse al entorno.
Ecosistema y versiones de fabricantes
Más allá del modelo oficial de Nvidia, la plataforma dará pie a equipos de marcas como Acer, Asus, Dell, Gigabyte, HP, Lenovo y MSI, que lanzarán sus propias versiones con este mismo fundamento. La compañÃa también ha avanzado la existencia de un sistema de sobremesa más grande para quien necesite más memoria y expansión, y mantiene en catálogo opciones como DGX Station para escenarios de mayor escala.
Conviene insistir: no es un PC con Windows ni está orientado a jugar. El valor está en prototipar, afinar e inferir con IA en local, y en poder llevar ese trabajo a la nube o al centro de datos cuando el proyecto crece.
Precio y disponibilidad
Nvidia confirma un precio de 3.999 dólares (alrededor de 3.451 euros antes de impuestos) y disponibilidad a partir del 15 de octubre en su web. Para muchos bolsillos no será barato, pero para ciertos perfiles profesionales puede suponer ahorros en suscripciones y una mejora en privacidad y tiempos de respuesta.
Primeras unidades y adopción inicial
El dispositivo ya ha empezado a circular entre socios y referentes del sector. Jensen Huang entregó personalmente una unidad a Elon Musk en las instalaciones de SpaceX, gesto que recuerda a la entrega de la primera DGX-1 en 2016 a OpenAI. En paralelo, organizaciones como Anaconda, Cadence, Google, Hugging Face, LM Studio, Meta o Microsoft están probando el sistema y adaptando modelos y herramientas para su despliegue local.
DGX Spark acerca potencia de centro de datos a un formato de sobremesa, con un ecosistema de software maduro y socios de hardware detrás. Para quienes deban trabajar con modelos grandes, la posibilidad de operar en local sin dependencias de la nube puede marcar la diferencia en costes, control y agilidad.
