Nvidia pone a la venta DGX Spark, su primer superordenador personal de IA

  • DGX Spark es un "superordenador personal" del tamaño de un mini PC capaz de ofrecer hasta 1 petaFLOP y ejecutar LLM de 200.000 millones de parámetros en local.
  • Integra el superchip GB10 Grace Blackwell con CPU Arm de 20 núcleos y 128 GB de memoria unificada LPDDR5X, además de SSD NVMe de hasta 4 TB.
  • Funciona con DGX OS (basado en Ubuntu) e incluye el stack de software de IA de Nvidia; potencia máxima aprox. 240 W, WiFi 7, BT 5.4 y red 10 GbE.
  • Precio de 3.999 dólares y disponibilidad a partir del 15 de octubre; primeras unidades entregadas a Elon Musk y a empresas del ecosistema.

Superordenador personal de IA

Con un formato que recuerda al de un mini PC, Nvidia ha presentado DGX Spark, un equipo que la marca define como su primer superordenador personal para inteligencia artificial. Su objetivo es claro: llevar a la mesa del desarrollador una potencia que antes exigía centros de datos o la nube.

La propuesta destaca por permitir inferencias y ajustes de modelos en local, con cifras inusuales para un sobremesa enchufado a una toma convencional. Según Nvidia, en precisión reducida para IA (FP4) ofrece hasta 1 petaFLOP de rendimiento, suficiente para servir modelos con 200.000 millones de parámetros sin salir de casa, el laboratorio o la oficina.

Qué es DGX Spark y a quién va dirigido

DGX Spark no es un PC de consumo ni un equipo para juegos; es una herramienta de desarrollo. Funciona con DGX OS (una variante de Ubuntu con el software de IA de Nvidia preinstalado) y está orientado a investigadores, desarrolladores y estudiantes que necesitan experimentar, afinar y validar proyectos en su propio entorno.

La filosofía de uso es sencilla: desde tu equipo habitual utilizas apps tradicionales y, cuando hace falta IA, delegas la carga en el DGX Spark a través de la red local. Así evitas dependencias de la nube, latencias y costes variables, manteniendo el control sobre datos y modelos.

Equipo compacto para IA local

Arquitectura y especificaciones clave

El corazón del equipo es el GB10 Grace Blackwell, un superchip que combina CPU y GPU bajo el mismo techo para maximizar la coherencia de memoria y reducir cuellos de botella. La CPU incorpora 20 núcleos Arm (10 Cortex-X925 de alto rendimiento y 10 Cortex-A725 de eficiencia), con 128 GB de memoria unificada LPDDR5X que evita los traslados de datos entre RAM y VRAM.

En almacenamiento, el sistema admite un SSD NVMe M.2 de hasta 4 TB con autocifrado, y en conectividad incluye WiFi 7, Bluetooth 5.4, red 10 GbE, HDMI y cuatro USB-C. La potencia máxima ronda los 240 W, lo que ayuda a mantener el formato compacto y el ruido contenidos, algo complicado en estaciones con GPU discretas de gama alta.

La plataforma está preparada para enlaces de alta velocidad y capacidades de red como ConnectX-7, pensadas para escenarios de desarrollo avanzados. En la práctica, el chasis se puede colocar en cualquier escritorio y, con un peso en torno a 1,2 kg, resulta fácil de transportar entre salas o sedes.

Rendimiento de IA en local

Trabajando en FP4, DGX Spark alcanza aproximadamente 1 petaFLOP, una cifra que lo sitúa a medio camino entre una estación de trabajo compacta y un pequeño servidor de laboratorio. Con ese techo, es capaz de servir en local LLM de hasta 200B de parámetros, algo que hasta ahora quedaba vetado a la nube o a equipos mucho más voluminosos.

Para proyectos que rebasen ese tamaño, Nvidia señala que es posible conectar dos sistemas Spark y abordar modelos todavía mayores, con referencias de hasta 405.000 millones de parámetros. Además, la compañía asegura compatibilidad con modelos de DeepSeek, Meta, NVIDIA, Google, Qwen y en general con alternativas de código abierto que puedan adaptarse al entorno.

Ecosistema y versiones de fabricantes

Más allá del modelo oficial de Nvidia, la plataforma dará pie a equipos de marcas como Acer, Asus, Dell, Gigabyte, HP, Lenovo y MSI, que lanzarán sus propias versiones con este mismo fundamento. La compañía también ha avanzado la existencia de un sistema de sobremesa más grande para quien necesite más memoria y expansión, y mantiene en catálogo opciones como DGX Station para escenarios de mayor escala.

Conviene insistir: no es un PC con Windows ni está orientado a jugar. El valor está en prototipar, afinar e inferir con IA en local, y en poder llevar ese trabajo a la nube o al centro de datos cuando el proyecto crece.

Precio y disponibilidad

Nvidia confirma un precio de 3.999 dólares (alrededor de 3.451 euros antes de impuestos) y disponibilidad a partir del 15 de octubre en su web. Para muchos bolsillos no será barato, pero para ciertos perfiles profesionales puede suponer ahorros en suscripciones y una mejora en privacidad y tiempos de respuesta.

Primeras unidades y adopción inicial

El dispositivo ya ha empezado a circular entre socios y referentes del sector. Jensen Huang entregó personalmente una unidad a Elon Musk en las instalaciones de SpaceX, gesto que recuerda a la entrega de la primera DGX-1 en 2016 a OpenAI. En paralelo, organizaciones como Anaconda, Cadence, Google, Hugging Face, LM Studio, Meta o Microsoft están probando el sistema y adaptando modelos y herramientas para su despliegue local.

DGX Spark acerca potencia de centro de datos a un formato de sobremesa, con un ecosistema de software maduro y socios de hardware detrás. Para quienes deban trabajar con modelos grandes, la posibilidad de operar en local sin dependencias de la nube puede marcar la diferencia en costes, control y agilidad.

Nvidia
Artículo relacionado:
Nvidia y la batalla global por la inteligencia artificial: desafíos, competencia y el mercado chino

Síguenos en Google News