OpenAI incorpora Google Cloud para impulsar la infraestructura de ChatGPT

  • OpenAI ha añadido Google Cloud como proveedor clave para ChatGPT y otros servicios de IA.
  • La alianza busca mitigar la escasez global de GPUs y facilitar una arquitectura multicloud más robusta.
  • Google Cloud proveerá acceso a sus TPUs y centros de datos en varios países.
  • La estrategia permite a OpenAI reducir su dependencia de Microsoft y mejorar la resiliencia tecnológica.

OpenAI Google Cloud ChatGPT

OpenAI ha dado un paso significativo al integrar Google Cloud en su red de proveedores tecnológicos, marcando así un antes y un después en la gestión de la infraestructura que sostiene ChatGPT y otros sistemas avanzados de inteligencia artificial. Con este movimiento, la compañía busca fortalecer su capacidad de procesamiento y atender la elevada demanda que ha provocado la creciente adopción de sus herramientas a nivel mundial.

Hasta ahora, la relación de OpenAI había estado centrada principalmente en Microsoft Azure, proveedor que ofrecía la mayor parte de la infraestructura sobre la que se entrenaban y ejecutaban los modelos de lenguaje. Sin embargo, el fenómeno global que ha supuesto ChatGPT ha multiplicado las necesidades técnicas de OpenAI, y la creciente complejidad de los modelos, sumada a la escasez de chips de alto rendimiento como las GPUs de Nvidia, han obligado a la compañía a diversificar su enfoque.

Uno de los aspectos clave de este acuerdo reside en el acceso de OpenAI a la infraestructura de Google Cloud Platform (GCP), presente en regiones estratégicas como Estados Unidos, Reino Unido, Japón, Países Bajos y Noruega. Gracias a esta alianza, la empresa de Sam Altman puede distribuir la carga de trabajo de manera más eficiente y garantizar la disponibilidad del servicio para millones de usuarios simultáneos.

La actualización de la lista de subprocesadores de OpenAI ha oficializado que tanto ChatGPT en sus versiones Enterprise, Team y Edu, como las APIs que utilizan desarrolladores y empresas, funcionarán a través de la plataforma cloud de Google junto a otros gigantes como Microsoft, CoreWeave y Oracle.

Impulso multicloud y arquitectura escalable

La colaboración permite a OpenAI acceder, además de las GPUs de Nvidia, a las Tensor Processing Units (TPUs) de Google. Aunque no se trata del hardware más avanzado reservado para proyectos propios de Google, estas TPUs aportan ventajas clave: mejora de la eficiencia energética, reducción de costes por inferencia y una mayor flexibilidad operativa. Así, OpenAI logra reducir su dependencia de un solo tipo de hardware y proveedor, lo que se traduce en mayor resiliencia y escalabilidad.

Adoptar una estrategia multicloud con varios proveedores permite a OpenAI responder mejor ante picos de demanda, minimizar la latencia geográfica y adaptarse a requisitos regulatorios internacionales. Además, la capacidad de distribuir el procesamiento de datos por distintos centros de datos reduce posibles interrupciones y mejora la experiencia para usuarios y empresas.

contrato cloud OpenAI Oracle-1
Artículo relacionado:
El megaproyecto cloud de OpenAI y Oracle: así es el acuerdo que reconfigura la inteligencia artificial

Competencia y colaboración: una frontera cada vez menos definida

La decisión de OpenAI de apoyarse en Google Cloud resulta significativa, dada la competencia directa que ambas empresas mantienen en inteligencia artificial, especialmente en el desarrollo de asistentes conversacionales. En este sentido, la colaboración refleja cómo la presión por garantizar recursos de cómputo puede llevar incluso a rivales a sumar fuerzas temporalmente, en lo que se conoce como ‘coopetencia’.

Para Google, este acuerdo supone reforzar su posición como proveedor de infraestructura dentro de un sector en el que compite con Amazon y Microsoft, al tiempo que añade un cliente de prestigio y alto perfil a su cartera. La compañía ya había firmado acuerdos similares con Anthropic, otro actor relevante en el ecosistema de IA.

En el caso de OpenAI, la diversificación de proveedores también responde al objetivo de evitar cualquier dependencia exclusiva, después de que su relación con Microsoft evolucionara hacia un modelo menos restrictivo. Microsoft aún mantiene la exclusividad sobre ciertas APIs, pero la apertura a otros proveedores muestra una apuesta por la autonomía tecnológica y la soberanía sobre su infraestructura.

Ventajas inmediatas para usuarios y desarrolladores

La presencia de Google Cloud en la operativa de OpenAI puede facilitar menor latencia, mayor rapidez en las respuestas y una mayor estabilidad, especialmente en horas de alta demanda. Además, se abren posibilidades para liberar funcionalidades que estaban limitadas por falta de capacidad, como opciones avanzadas de generación de video o integraciones con herramientas externas.

Para los desarrolladores que emplean la API de OpenAI o despliegan aplicaciones empresariales basadas en ChatGPT, esta expansión hacia una arquitectura multicloud aporta mayor fiabilidad y disponibilidad en todo momento.

La cooperación entre OpenAI y Google indica cómo, en un sector marcado por la carrera tecnológica y la competencia por la supremacía en inteligencia artificial, las necesidades de escala y eficiencia pueden generar sinergias. La gestión en un entorno con múltiples proveedores exige un alto nivel técnico y operativo, pero proporciona mayor flexibilidad, capacidad de adaptación y margen de maniobra en un mercado en constante cambio.


Síguenos en Google News