Meta negocia chips de Google TPU para sus centros de datos de IA

  • Meta estudia invertir miles de millones en chips TPU de Google para 2027
  • El acuerdo desafiaría el dominio de Nvidia en centros de datos de inteligencia artificial
  • La operación refuerza la estrategia de Google Cloud y su ecosistema de IA con TPU
  • Los mercados reaccionan: Alphabet sube con fuerza mientras Nvidia sufre ventas

Chips de inteligencia artificial para centros de datos

Meta está moviendo ficha en la carrera de la inteligencia artificial y se plantea un cambio relevante en la tecnología que alimenta sus centros de datos. Según informaciones recientes, la compañía de Mark Zuckerberg negocia con Google la compra masiva de chips TPU, el silicio de inteligencia artificial desarrollado por la empresa matriz de Alphabet, lo que podría alterar el equilibrio actual del mercado de hardware de IA.

Estas conversaciones, todavía en una fase preliminar, apuntan a que Meta destinaría miles de millones de dólares a incorporar estos procesadores en su infraestructura a partir de 2027 y a “alquilar” capacidad de computación basada en TPU a través de Google Cloud desde 2026. El movimiento pondría más presión sobre Nvidia, hasta ahora proveedor casi hegemónico de GPU para las grandes cargas de trabajo de IA en todo el mundo.

Meta negocia chips de Google TPU para 2027

De acuerdo con fuentes citadas por The Information, Meta está en conversaciones para adquirir unidades de procesamiento tensorial (TPU) de Google y desplegarlas en sus centros de datos a partir de 2027. Estos chips se utilizarían para entrenar y ejecutar modelos avanzados de inteligencia artificial, pieza clave en productos como Facebook, Instagram o WhatsApp y en el desarrollo de futuros asistentes y servicios inteligentes.

El posible acuerdo no se limitaría a la compra directa de hardware. Meta también sopesa contratar acceso a chips de Google a través de Google Cloud desde el próximo año, lo que le permitiría probar y escalar más rápido estas tecnologías antes de comprometer inversiones todavía mayores en equipamiento propio para sus instalaciones.

Para Meta, que planea un gasto de capital de decenas de miles de millones de dólares ligado a la IA, el paso sería una forma de diversificar su dependencia respecto a Nvidia y, al mismo tiempo, de asegurarse capacidad de cálculo en un contexto de fuerte escasez de chips de alto rendimiento.

Desde la perspectiva de Google, cerrar un acuerdo de este calibre con uno de los mayores compradores de hardware de IA del mundo supondría un espaldarazo a su estrategia de chips personalizados y reforzaría el atractivo de su nube frente a gigantes como Amazon Web Services o Microsoft Azure, especialmente en Europa, donde muchas empresas están acelerando sus proyectos de IA generativa.

Qué son las TPU de Google y por qué importan

Las TPU, siglas de Tensor Processing Unit, son procesadores diseñados por Google específicamente para acelerar tareas de aprendizaje automático y redes neuronales. A diferencia de las GPU tradicionales, desarrolladas inicialmente para gráficos, las TPU se sitúan en la categoría de silicio personalizado para IA, pensado desde el inicio para cargas de trabajo como entrenamiento de grandes modelos de lenguaje o inferencia a gran escala.

Google lanzó su primera generación de TPU en 2018, enfocada inicialmente a uso interno dentro de sus propios centros de datos y de la plataforma Google Cloud. Desde entonces, la compañía ha ido iterando el diseño con versiones cada vez más potentes y eficientes, hasta llegar a su chip más avanzado, conocido como Ironwood, presentado recientemente para captar nuevos clientes de IA.

Este tipo de diseño a medida permite a Google optimizar precio, rendimiento y consumo energético frente a soluciones genéricas. En un momento en el que el coste de entrenar modelos de IA de última generación se dispara, cualquier ganancia en eficiencia energética o en coste por unidad de cálculo se convierte en un factor crítico para grandes tecnológicas, bancos, aseguradoras o grupos industriales europeos que están desplegando IA en sus servicios.

El modelo insignia de Google, Gemini 3, se ha entrenado mayoritariamente con TPU, lo que la compañía presenta como una prueba de que la tecnología funciona en entornos reales y a gran escala. Para potenciales clientes como Meta, que ya manejan cargas masivas de datos, esta experiencia operativa es un elemento a tener en cuenta a la hora de elegir plataforma de hardware.

Impacto potencial en Nvidia y el mercado de hardware de IA

Hasta ahora, la mayor parte de los grandes modelos de lenguaje y proyectos de IA corporativos se han apoyado en GPU de Nvidia como estándar de facto. El dominio de la empresa se sustenta tanto en el rendimiento de sus chips como en su ecosistema de software, especialmente la plataforma CUDA, utilizada por más de cuatro millones de desarrolladores a nivel mundial.

Sin embargo, la posible decisión de Meta de trasladar parte de su infraestructura a TPU de Google podría abrir una nueva etapa de competencia en el mercado. Analistas del bróker XTB apuntan que los centros de datos representan alrededor del 90 % de los ingresos de Nvidia, por lo que la pérdida de clientes clave en este segmento, aunque sea parcial, puede tener un impacto apreciable en sus resultados financieros y en sus tasas de crecimiento futuras.

En los últimos años, la demanda de chips personalizados, como las TPU, se ha disparado porque muchas empresas buscan alternativas a los costosos procesadores de Nvidia. Proyectos como el de Anthropic —que ha ampliado su acuerdo con Google para utilizar hasta un millón de chips de IA valorados en decenas de miles de millones de dólares— evidencian que el mercado está empezando a abrirse a otros proveedores.

Si Google consigue que Meta y otras grandes tecnológicas adopten sus TPU, Nvidia enfrentaría una presión creciente en precio, eficiencia energética y oferta de producto. Eso podría obligar a la compañía a ajustar su estrategia comercial, acelerar el desarrollo de nuevas generaciones de GPU y reforzar sus herramientas de software para mantener su posición dominante frente a alternativas como los chips personalizados de Google o los proyectos internos de otros gigantes. La mayor competencia también está impulsando acuerdos entre fabricantes; por ejemplo, algunos actores del sector han firmado alianzas para asegurar suministro y diseño de chips personalizados.

Al mismo tiempo, la irrupción de más opciones de hardware especializado podría beneficiar a empresas europeas que están apostando fuerte por la IA, ya que una mayor competencia suele traducirse en mejores condiciones de acceso a potencia de cálculo, algo clave para startups y grandes grupos industriales que impulsan proyectos de automatización, análisis de datos y asistentes inteligentes.

La estrategia de Google Cloud y la pelea por la nube de IA

El posible acuerdo con Meta encaja en la estrategia más amplia de Google por convertir sus TPU en un pilar de su negocio en la nube. Hasta hace poco, estos chips se utilizaban sobre todo en los centros de datos de la propia compañía; ahora, la tecnológica da pasos para que clientes externos los desplieguen también en sus propias instalaciones o los consuman bajo demanda como servicio cloud.

Dentro de Google Cloud, el alquiler de chips de IA —incluyendo también GPU de Nvidia— se ha convertido en una fuente de ingresos cada vez más relevante. El objetivo ahora es que los clientes migren parte de esas cargas a TPU, donde Google tiene más control sobre el diseño, el suministro y los márgenes.

Algunos ejecutivos de Google Cloud estiman que esta estrategia podría permitir a la compañía captar hasta un 10 % de los ingresos anuales de Nvidia en el segmento de chips para centros de datos, una cifra que se traduce en miles de millones de dólares. Para lograrlo, la empresa está intensificando su campaña comercial y técnica, especialmente entre grandes corporaciones y proveedores de servicios de IA.

En Europa y España, donde la regulación de datos y la preocupación por la soberanía digital tienen un peso cada vez mayor, Google Cloud compite por alojar los proyectos de IA de bancos, telecos, aseguradoras y administraciones públicas. Disponer de un catálogo más amplio de hardware propio puede ser un argumento adicional a la hora de negociar grandes contratos, especialmente cuando el coste y la eficiencia energética son factores determinantes.

El giro hacia los chips personalizados no está exento de desafíos: para plantar cara a Nvidia, Google debe ofrecer herramientas de desarrollo maduras, bibliotecas optimizadas y un ecosistema de socios que facilite la migración de código y modelos. En este punto, el peso histórico de CUDA sigue siendo una barrera importante que la compañía tendrá que sortear si quiere ganar cuota de mercado de forma sostenida.

Reacción de los mercados y lectura de los analistas

La filtración de que Meta estudia comprar chips TPU de Google tuvo un efecto inmediato en Bolsa. En las operaciones previas a la apertura de Wall Street, las acciones de Alphabet llegaron a subir alrededor de un 4 %, acercando a la compañía a una capitalización histórica próxima a los 4 billones de dólares, si se mantenían las ganancias a lo largo de la sesión.

En paralelo, cercanas al 3-4 % en los intercambios previos a la apertura, reflejo de la inquietud de los inversores ante la posibilidad de que uno de sus mayores clientes de hardware de IA explore alternativas a medio plazo. Broadcom, que colabora con Google en la fabricación de sus chips de inteligencia artificial, también se anotó subidas de alrededor del 2 %.

Analistas de firmas como XTB consideran que un acuerdo firme entre Meta y Google representaría un cambio de peso en la industria de la IA, al debilitar el casi monopolio de Nvidia en la infraestructura de centros de datos. Este tipo de movimientos, señalan, podrían forzar una reorganización profunda del mercado, tanto en términos tecnológicos como comerciales.

Además, destacan que la adopción de TPU por parte de clientes de primer nivel podría servir como validación pública de la apuesta de Google por el silicio a medida. Si grandes plataformas sociales, empresas de IA generativa y corporaciones europeas empiezan a apoyarse en este tipo de chips, es probable que otros actores sigan el mismo camino para no quedarse atrás.

Los expertos también llaman la atención sobre la dimensión energética del problema: los centros de datos de IA consumen cantidades crecientes de electricidad y agua, un tema especialmente sensible en la Unión Europea. En este contexto, cualquier mejora en eficiencia energética de los chips puede convertirse en un factor decisivo a la hora de elegir proveedor tecnológico y ubicar nuevas infraestructuras.

La posible alianza entre Meta y Google alrededor de las TPU apunta a una fase nueva en la carrera por el hardware de inteligencia artificial, en la que el dominio de Nvidia empieza a ser cuestionado y los chips personalizados ganan terreno como alternativa seria para las grandes plataformas tecnológicas, también en el mercado europeo.

OpenAI anuncia una alianza con Broadcom para construir chips para IA
Artículo relacionado:
OpenAI se alía con Broadcom para diseñar chips de IA propios

Síguenos en Google News