La decisión de Nvidia de hacerse con Groq por unos 20.000 millones de dólares sacude de arriba abajo el ya tenso mercado de chips para inteligencia artificial. La operación, estructurada como compra de activos y no como adquisición completa de la sociedad, coloca al fabricante de GPUs en una posición todavía más fuerte tanto en el entrenamiento de modelos como en su uso en el día a día, la llamada inferencia.
Más allá de la cifra, que convierte esta maniobra en la mayor transacción corporativa en la historia de Nvidia, el movimiento envía un mensaje muy claro al sector: el gigante de los semiconductores está dispuesto a absorber a los rivales más avanzados para controlar el ciclo completo de la IA, desde los chips que entrenan modelos hasta el hardware donde esos modelos se ejecutan para usuarios y empresas.
Qué hace Groq y por qué es tan valiosa para Nvidia
Hasta ahora, Nvidia había dominado con holgura el negocio de GPUs para entrenamiento de modelos de inteligencia artificial, la fase más costosa y exigente en términos de cálculo. Groq, en cambio, se especializó en la otra mitad de la película: la inferencia, es decir, en ejecutar modelos ya entrenados en tiempo real para responder preguntas, generar texto o alimentar asistentes conversacionales.
La propuesta de Groq se ha apoyado en una arquitectura propia de chips conocida como LPU (Language Processing Unit), diseñada específicamente para mover modelos de lenguaje de gran tamaño (LLM) con una eficiencia muy superior a las GPUs tradicionales. La compañía presume de poder ejecutar estas cargas hasta diez veces más rápido y con una décima parte del consumo energético frente a soluciones convencionales, algo especialmente relevante en grandes centros de datos donde la factura eléctrica se dispara.
Este enfoque ha calado en el ecosistema: Groq asegura que más de dos millones de desarrolladores utilizan ya su plataforma GroqCloud y que empresas de primer nivel, como Meta y otras firmas de la lista Fortune 500, han empezado a desplegar sus modelos sobre este hardware para abaratar costes y reducir latencias.
Fundada en 2016 por un grupo de exingenieros de Google —entre ellos Jonathan Ross, uno de los padres de las TPU (Tensor Processing Units) del buscador—, Groq ha pasado en apenas unos años de ser una promesa del silicio de IA a convertirse en un objetivo estratégico. El fichaje de este equipo técnico es, para Nvidia, casi tan importante como el acceso a la propiedad intelectual y al diseño de los chips.

Una revalorización meteórica: de 6.900 a 20.000 millones
La cifra acordada con Nvidia supone un salto espectacular respecto a la última ronda de financiación de Groq. En septiembre, la startup recaudó unos 750 millones de dólares y quedó valorada en alrededor de 6.900 millones. Apenas unos meses después, el precio pactado en la compra de activos roza los 20.000 millones, lo que implica que los primeros inversores casi triplican el valor de su participación en un plazo muy corto.
En esa ronda participaron fondos como Disruptive —principal inversor, que habría inyectado más de 500 millones de dólares—, BlackRock, Neuberger Berman, DTCP y un gran gestor de la Costa Oeste estadounidense, además de apoyos industriales estratégicos como Samsung Electronics y Cisco Systems. También figuraba el fondo de capital riesgo 1789 Capital, vinculado al entorno político del expresidente estadounidense Donald Trump, lo que añade un matiz geopolítico a la operación.
Para Nvidia, pagar esta prima tan abultada tiene lógica estratégica: Groq se había colocado como uno de los competidores más convincentes en inferencia de IA, justo en el segmento que más preocupa ahora a las grandes tecnológicas, donde la eficiencia energética y los costes operativos son decisivos. Neutralizar esa amenaza y, a la vez, incorporar su tecnología y talento al propio ecosistema vale, a ojos de la compañía, ese desembolso.
Las cuentas de Nvidia permiten este tipo de apuestas. La compañía acumulaba a finales de octubre cerca de 60.600 millones de dólares en caja e inversiones a corto plazo, muy por encima de los 13.300 millones con los que contaba a comienzos de 2023. Los ingresos récord impulsados por la fiebre de la IA han llenado el “cofre de guerra” necesario para maniobras de este calibre.
Cómo se estructura el acuerdo: activos sí, nube no
Según la información avanzada por CNBC y otros medios estadounidenses, el trato se articula como compra de activos por unos 20.000 millones de dólares, más que como adquisición tradicional de la empresa. Nvidia se quedaría con todo el arsenal tecnológico de Groq: diseños de chips, patentes, propiedad intelectual y buena parte del equipo de ingeniería, incluyendo al fundador Jonathan Ross, al presidente Sunny Madra y a otros perfiles clave.
Sin embargo, el pacto deja fuera el negocio de computación en la nube GroqCloud, que seguirá operando como unidad independiente bajo una Groq que continuará existiendo como compañía separada. Al frente de esta nueva etapa se situaría Simon Edwards como consejero delegado, con el objetivo de mantener el servicio de nube en funcionamiento para clientes actuales y potenciales.
Este planteamiento encaja con el delicado equilibrio que Nvidia necesita mantener con sus grandes socios en la nube —AWS, Microsoft Azure y Google Cloud, entre otros—, que son al mismo tiempo clientes y competidores parciales. Evitar la compra directa del negocio cloud de Groq permite a Nvidia reforzar su catálogo de silicio avanzado para IA sin verse percibida como un rival frontal más en servicios de infraestructura en la nube.
Fuentes del sector apuntan a que en Estados Unidos se ha vuelto habitual recurrir a compras de activos o participaciones por debajo del 50% cuando se trata de operaciones de gran tamaño, para esquivar retrasos o trabas adicionales de los reguladores. Compañías como Meta habrían seguido esquemas similares en acuerdos recientes con otras firmas de IA, una vía que ahora también aprovecha Nvidia en el caso de Groq.

De la licencia no exclusiva a la absorción tecnológica
Antes de que trascendiera la negociación para la compra de activos, Groq había anunciado un acuerdo de licencia no exclusiva con Nvidia para su tecnología de inferencia. En aquel momento, la startup insistía en que seguiría operando de forma independiente, y el pacto se interpretó como una alianza tecnológica destinada a integrar parte de sus innovaciones en el ecosistema del gigante de las GPUs sin ir más allá.
La filtración posterior de la operación de 20.000 millones ha cambiado por completo ese relato. Lo que en un principio parecía una colaboración limitada ha derivado rápidamente en una integración amplia de los activos de hardware y propiedad intelectual de Groq dentro de Nvidia. El carácter no exclusivo de la licencia podría seguir permitiendo el acceso a esta tecnología por parte de terceros, pero siempre bajo el paraguas y la supervisión del nuevo propietario.
Como parte visible del acercamiento, Ross, Madra y otros ejecutivos de Groq se incorporarán a la plantilla de Nvidia para ayudar a escalar y desplegar la tecnología licenciada. La figura de Ross, con su experiencia previa en las TPU de Google, aporta un plus de credibilidad al proyecto de Nvidia en el terreno de la inferencia pura, complementando su dominio histórico en entrenamiento.
Para Groq, el giro supone renunciar en la práctica a competir de tú a tú en hardware con el líder indiscutible del sector, pero le garantiza una salida muy rentable para sus accionistas y la continuidad de GroqCloud como negocio de nicho centrado en ofrecer acceso remoto a esta capacidad de cómputo.
Impacto en el mercado europeo y español
En Europa y, en particular, en España, el acuerdo tiene consecuencias indirectas pero nada menores. Muchos de los centros de datos que dan servicio a empresas europeas —incluidos los ubicados en España o en países cercanos como Francia, Alemania y los Países Bajos— dependen en gran medida de hardware Nvidia para desplegar sus soluciones de IA en la nube.
La incorporación de la tecnología de Groq al catálogo de Nvidia podría traducirse, a medio plazo, en ofertas de inferencia más rápidas y baratas a través de los grandes proveedores cloud que operan en la región. Para las compañías españolas que están integrando modelos de lenguaje en sus servicios —desde bancos y aseguradoras hasta plataformas de comercio electrónico o medios de comunicación—, esto podría significar respuestas más ágiles y una reducción de los costes de infraestructura.
No obstante, la mayor dependencia de un único proveedor de chips plantea interrogantes en términos de competencia y soberanía tecnológica. Tanto la Comisión Europea como diversas autoridades de competencia nacionales, incluida la española, llevan meses observando con lupa la concentración de poder en la cadena de valor de la IA, y la absorción de un actor emergente como Groq no pasará desapercibida.
Para los proyectos europeos que aspiran a desarrollar alternativas propias —ya sea en forma de chips específicos para IA o de infraestructuras compartidas en supercomputación—, el movimiento de Nvidia supone un listón tecnológico y financiero aún más alto. Empresas y consorcios que operan desde Europa deberán competir ahora no solo con las GPUs de Nvidia, sino también con los avances en LPU y otras arquitecturas de inferencia que se integrarán en su catálogo.
Entre tanto, para startups y pymes tecnológicas de España, esta consolidación puede tener una doble cara: menos diversidad de proveedores de hardware, pero mayor estandarización y previsiblemente mejor relación coste/rendimiento en las soluciones ofertadas por los socios cloud de Nvidia.
Un refuerzo al dominio de Nvidia y nuevas dudas regulatorias
Con esta operación, Nvidia amplía un dominio que ya era abrumador en el entrenamiento de IA —donde se estima que supera el 90% de cuota en centros de datos— y da un salto decisivo en inferencia, el terreno donde Groq había demostrado ser una alternativa muy seria. En la práctica, la compañía se posiciona como un proveedor “de extremo a extremo”, capaz de cubrir con su tecnología todo el ciclo vital de los modelos de inteligencia artificial.
Desde la perspectiva de los clientes, centralizar compras de hardware y software en un único fabricante suele ser más cómodo: integra mejor, simplifica la gestión y, a menudo, reduce costes de soporte. Nvidia ha demostrado saber explotar esta ventaja, combinando chips, sistemas, librerías y plataformas de desarrollo en un ecosistema difícil de igualar para competidores como competidores como AMD, Intel o las nuevas startups de silicio.
El reverso de la moneda es un aumento claro de la preocupación antimonopolio. La Comisión Federal de Comercio en Estados Unidos ya vigilaba de cerca los movimientos de Nvidia, y algo similar ocurre con la Comisión Europea y otras autoridades de competencia. La compra de Groq, incluso si se plantea como adquisición de activos y no de la sociedad entera, será casi con toda seguridad analizada al detalle para comprobar su impacto sobre la capacidad de elección de grandes clientes como Amazon, Google o Microsoft, que buscan reducir su dependencia de Nvidia.
En Europa, donde las instituciones comunitarias han puesto sobre la mesa una agenda ambiciosa en materia de regulación digital y de IA, no sería extraño que la operación se utilice como ejemplo de hasta qué punto se están concentrando los eslabones críticos del ecosistema de inteligencia artificial en unas pocas manos. Las conclusiones de estos análisis podrían influir en cómo se diseñan futuras normas de competencia y ayudas públicas en el Viejo Continente.
Para otras startups de chips de IA —como Cerebras, SambaNova o Graphcore, entre otras—, la señal enviada por Nvidia resulta elocuente: las compañías que consigan demostrar tracción tecnológica y de mercado se convertirán en objetivos de compra, mientras que el resto tendrá que sobrevivir en un entorno donde el líder puede marcar precios, ritmos de innovación y estándares de facto.
El desembarco de Groq bajo el paraguas de Nvidia culmina así una operación que combina dinero en efectivo, talento de primer nivel y activos tecnológicos clave. La industria de la IA, también en España y el resto de Europa, se enfrenta ahora a un escenario en el que el proveedor dominante es todavía más grande y está mejor armado, y en el que los reguladores deberán decidir hasta qué punto este tipo de concentraciones son compatibles con un mercado realmente competitivo.