Amazon negocia una gran inversión en OpenAI y refuerza su apuesta por la IA

  • Amazon estudia invertir más de 10.000 millones de dólares en OpenAI, lo que implicaría una valoración superior a 500.000 millones.
  • El acuerdo incluye un uso intensivo de la nube de AWS y de los chips de IA Trainium, además de cientos de miles de GPU de Nvidia.
  • OpenAI diversifica socios tras su reestructuración y la pérdida de exclusividad de Microsoft como proveedor de computación.
  • La operación se enmarca en un contexto de inversiones gigantescas en infraestructura de IA por parte de Amazon, Microsoft, Nvidia y otros actores.

Inversion de Amazon en OpenAI

Amazon está manteniendo conversaciones avanzadas para inyectar alrededor de 10.000 millones de dólares en OpenAI, la compañía responsable de ChatGPT, en una operación que podría situar su valoración por encima de los 500.000 millones de dólares y consolidarla como una de las startups tecnológicas más valiosas del planeta.

Las negociaciones, que diferentes medios como The Information, CNBC y Reuters describen como fluidas y todavía no cerradas, no se limitarían a una simple operación financiera: el plan pasa también por estrechar la colaboración tecnológica entre ambas empresas, reforzando el uso de la nube de Amazon Web Services (AWS) y la adopción de los chips de inteligencia artificial Trainium por parte de OpenAI.

Una inversión multimillonaria y una valoración de récord

Fuentes familiarizadas con el proceso apuntan a que Amazon estudia comprometer más de 10.000 millones de dólares en OpenAI, cifra que algunas filtraciones sitúan incluso por encima de ese umbral, lo que encajaría dentro de una ronda de financiación más amplia con otros inversores institucionales.

Esta inyección de capital podría elevar la valoración de OpenAI hasta, o incluso por encima de, los 500.000 millones de dólares, reforzando la percepción de la empresa como motor central de la actual ola de inteligencia artificial generativa, a pesar de las dudas de algunos analistas sobre una posible burbuja en el sector.

El interés inversor se apoya en el hecho de que OpenAI ha cerrado en los últimos meses importantes operaciones de venta secundaria de acciones, permitiendo a empleados actuales y antiguos desinvertir a valoraciones ya cercanas a esa cifra, lo que ha llegado a situarla puntualmente por encima de SpaceX como la startup mejor valorada del mundo.

Dentro de este contexto, distintos fondos de inversión y bancos de Wall Street han advertido sobre la naturaleza “circular” de algunos acuerdos, en los que grandes tecnológicas invierten miles de millones en potenciales clientes con el objetivo de asegurar que esos mismos clientes consuman su infraestructura de nube o sus chips de IA a gran escala.

Un giro estratégico tras la reestructuración de OpenAI

Las conversaciones entre Amazon y OpenAI se enmarcan en un momento clave para la compañía dirigida por Sam Altman, que culminó una profunda reestructuración de su gobernanza el pasado octubre, abandonando de facto el modelo de fundación sin ánimo de lucro como eje único y dando más peso a la estructura con ánimo de lucro.

Ese cambio ha otorgado a OpenAI mayor flexibilidad para captar capital y firmar alianzas con distintas grandes tecnológicas, lo que se ha traducido en una red de acuerdos que va mucho más allá de su histórico socio principal, Microsoft.

Microsoft ha invertido desde 2019 más de 13.000 millones de dólares en OpenAI y, según diversas fuentes, posee en torno a un 27% del capital económico de la compañía, con derechos de comercialización preferente de ciertos modelos avanzados a través de Azure.

Sin embargo, el nuevo marco acordado el pasado otoño eliminó el derecho de tanteo de Microsoft para ser proveedor exclusivo de computación, abriendo la puerta a que OpenAI pueda desplegar parte de sus productos y cargas de trabajo en otros proveedores de nube como Amazon u Oracle, siempre respetando determinados compromisos de exclusividad sobre productos API ligados a Azure.

Esta relajación de la exclusividad ha sido clave para que OpenAI pueda repartir sus gigantescas necesidades de cómputo entre varios socios estratégicos, reducir su dependencia de una sola nube y mejorar su poder de negociación en precios y acceso a chips.

AWS entra en escena: un megacontrato de 38.000 millones

Acuerdo de computo entre Amazon y OpenAI

Antes incluso de hablar de capital, OpenAI y Amazon ya habían sellado un acuerdo de enorme envergadura en el terreno de la infraestructura: un contrato de unos 38.000 millones de dólares para adquirir capacidad de computación en AWS durante un periodo de alrededor de siete años.

Este pacto convierte a Amazon Web Services en uno de los grandes proveedores de cómputo para OpenAI, en un movimiento que marca el fin de la dependencia casi exclusiva respecto a la nube de Microsoft y sitúa a AWS en el centro de la carrera por alimentar los modelos más avanzados.

En una primera fase, OpenAI ejecutará sus cargas de trabajo en centros de datos existentes de AWS, aprovechando cientos de miles de GPU de Nvidia desplegadas en territorio estadounidense. Con el tiempo, Amazon planea levantar infraestructura adicional específica para OpenAI, lo que implica construir y adaptar centros de datos a medida para responder a la creciente demanda de cómputo de la compañía.

Este megacontrato con AWS se suma a otros acuerdos de OpenAI con proveedores como Oracle y Google Cloud, dentro de un esfuerzo deliberado por diversificar proveedores de nube y mitigar riesgos de capacidad, suministro de chips y precios en un mercado extremadamente tensionado.

Para Amazon, la alianza supone reafirmar el papel de AWS como operador dominante del cloud frente a Azure y Google Cloud, en un momento en el que sus tasas de crecimiento en ingresos de nube se habían quedado algo por detrás de las de sus grandes competidores.

Trainium y los chips propios de Amazon: la pieza técnica clave

Más allá de los contratos de nube, buena parte del interés de Amazon pasa por lograr que OpenAI adopte sus chips de inteligencia artificial Trainium, diseñados para entrenar y servir modelos de IA a gran escala en la infraestructura de AWS.

Amazon lleva desarrollando su propia línea de procesadores de IA desde alrededor de 2015, con los chips Inferentia orientados principalmente a la inferencia y, más recientemente, con la familia Trainium para el entrenamiento intensivo de modelos. La última generación de Trainium fue presentada por AWS a principios de este mismo mes.

El discurso de la compañía es claro: Trainium pretende ofrecer una mejor relación precio-rendimiento que las GPU tradicionales de Nvidia, proporcionando a los clientes una alternativa más eficiente para cargas de trabajo muy exigentes en coste y energía.

Directivos de AWS como Dave Brown han insistido en que estos chips buscan ampliar el abanico de opciones para los clientes, de manera que puedan combinar GPU de Nvidia con hardware específico de Amazon en función de sus necesidades concretas de coste, latencia y escalabilidad.

Si OpenAI pasara a utilizar de forma significativa Trainium para alguna parte de sus modelos, el movimiento se interpretaría en el mercado como un espaldarazo a la estrategia de semiconductores de Amazon, que hasta ahora había tenido más dificultades para ganar tracción masiva frente al dominio imparable de Nvidia en el ámbito de la IA generativa.

Compromisos de infraestructura y la carrera por los chips

La posible inversión de Amazon llega en un contexto de compromisos descomunales de gasto en infraestructura por parte de OpenAI, que habría cerrado acuerdos por más de 1,4 billones de dólares (trillions en terminología anglosajona) ligados a chips, centros de datos y energía para alimentar sus modelos.

Entre estos compromisos figuran contratos con fabricantes de semiconductores como Nvidia, AMD y Broadcom, así como alianzas con grandes proveedores de nube y proyectos de centros de datos de gran escala, incluidos desarrollos como el conocido proyecto Stargate con Oracle, orientado a desplegar infraestructuras de varios gigavatios de potencia.

En este escenario, la apuesta por chips alternativos como Trainium no implica renunciar a las GPU de Nvidia, sino configurar un ecosistema “multichip” en el que distintas arquitecturas conviven para responder a una demanda de cómputo que crece a un ritmo casi exponencial.

Los analistas subrayan que asegurar suministro estable de chips y energía se ha convertido en uno de los factores más críticos para la supervivencia y el liderazgo de los grandes laboratorios de IA, a menudo por encima incluso de la pura innovación algorítmica.

En paralelo, grandes tecnológicas como Meta y Google también están buscando alternativas o complementos a Nvidia, ya sea con diseños propios de chips o recurriendo a ofertas de terceros, en un intento de reducir dependencia y ganar margen de maniobra en costes.

El papel de Anthropic y la guerra por la IA generativa

La eventual entrada de Amazon en el capital de OpenAI tiene una lectura adicional: la compañía de Jeff Bezos ya ha invertido al menos 8.000 millones de dólares en Anthropic, una de las principales rivales de OpenAI en el desarrollo de grandes modelos de lenguaje, responsable de la familia Claude.

Esa participación ha convertido a AWS en proveedor preferente de infraestructura para Anthropic, que también utiliza chips Trainium e Inferentia en parte de sus cargas de trabajo, encajando en la estrategia de Amazon de promover su hardware como alternativa a las GPU líderes.

Microsoft ha seguido una senda similar con Anthropic, anunciando recientemente que podría invertir hasta 5.000 millones de dólares adicionales en la startup, mientras que Nvidia habría comprometido hasta 10.000 millones en la misma compañía, en un movimiento que ilustra la intensidad con la que los grandes actores se posicionan en torno a los laboratorios de IA más avanzados.

En este contexto, la posible participación de Amazon en OpenAI se interpreta como una estrategia de cobertura: estar expuesto simultáneamente a varios de los ganadores potenciales de la carrera de la IA generativa, al tiempo que se impulsa el uso de su propia infraestructura de nube y chips.

Para OpenAI, por su parte, sumar a Amazon a su lista de grandes socios, junto con Microsoft, Nvidia u Oracle, significa reforzar su músculo financiero y garantizar que podrá seguir financiando el desarrollo de modelos cada vez más costosos y complejos.

Impacto en el mercado y dudas sobre una posible burbuja

Los anuncios de acuerdos entre Amazon y OpenAI ya han tenido su efecto en los mercados: las acciones de Amazon han llegado a marcar máximos históricos tras conocerse el megacontrato de 38.000 millones con AWS y los rumores sobre la inversión de dos dígitos en miles de millones.

El entusiasmo de los inversores se explica por la expectativa de que AWS capture una parte aún mayor del crecimiento de la infraestructura de IA, en un momento en el que el negocio cloud es uno de los principales motores de beneficios para el grupo.

Sin embargo, no faltan voces que llaman a la cautela: algunos analistas de Wall Street han advertido de que las valoraciones de las grandes compañías de IA y el volumen de capital comprometido podrían no corresponderse con los beneficios tangibles que, de momento, genera el sector.

En particular, se señala el riesgo de que las inversiones cruzadas entre tecnológicas y laboratorios de IA —donde un proveedor de nube financia a un cliente que, a su vez, se compromete a comprar miles de millones en capacidad de computación— den lugar a una burbuja difícil de sostener si los ingresos por productos comerciales no crecen al ritmo esperado.

Pese a estas reservas, las grandes tecnológicas continúan moviendo ficha y anunciando planes de gasto e inversión a varios años vista, convencidas de que la IA generativa y los modelos fundacionales serán un pilar clave de sus negocios en la próxima década.

Europa y España ante la nueva ola de alianzas en IA

Aunque la negociación entre Amazon y OpenAI se cocina principalmente en Estados Unidos, sus efectos se sentirán también en Europa y, por extensión, en España, tanto en términos de acceso a tecnología como en la regulación y la competencia.

Por un lado, la consolidación de alianzas entre grandes proveedores cloud y laboratorios de IA apunta a una mayor concentración de poder en unas pocas multinacionales, algo que preocupa a las autoridades europeas en el marco de normativas como la recién aprobada Ley de Inteligencia Artificial (AI Act) y la regulación de mercados digitales.

En paralelo, empresas y administraciones públicas europeas dependen en gran medida de servicios de nube de actores como AWS, Azure o Google Cloud para desplegar soluciones de IA, lo que puede intensificar el debate sobre la soberanía digital y la necesidad de infraestructuras propias en la región.

Para compañías españolas que ya trabajan con AWS —desde grandes bancos y energéticas hasta startups tecnológicas—, que OpenAI amplíe su despliegue en la nube de Amazon puede traducirse en un acceso más directo y eficiente a modelos avanzados a través de integraciones simplificadas en la propia plataforma cloud.

Al mismo tiempo, la fuerte concentración de recursos computacionales en unos pocos proveedores globales plantea interrogantes sobre la capacidad de Europa para competir en el desarrollo de modelos fundacionales propios, más allá de alianzas puntuales o proyectos impulsados por consorcios públicos y privados.

En cualquier caso, el eventual cierre del acuerdo entre Amazon y OpenAI redefiniría el mapa de poder en la inteligencia artificial, acelerando la convergencia entre grandes nubes, fabricantes de chips y laboratorios de modelos, y obligando a reguladores, empresas y usuarios europeos a adaptarse a un entorno cada vez más concentrado y exigente en recursos.

Con todo lo que ya está sobre la mesa —megacontratos de cómputo, inversiones de decenas de miles de millones, apuestas por chips propios y acuerdos cruzados entre gigantes tecnológicos—, la negociación para que Amazon entre en el capital de OpenAI se perfila como uno de los movimientos más relevantes de esta nueva fase de la carrera por la IA, que puede marcar durante años quién controla la infraestructura, la tecnología y, en última instancia, el negocio asociado a los modelos de inteligencia artificial generativa.

Apple OpenAI centros de datos
Artículo relacionado:
Apple y OpenAI refuerzan su apuesta por centros de datos avanzados para inteligencia artificial

Síguenos en Google News