4 noviembre, 2025

OpenAI ha firmado un acuerdo multianual de 38.000 millones de dólares (unos 35.500 millones de euros) con Amazon para ejecutar y escalar sus modelos de inteligencia artificial en AWS. Se trata de un movimiento de enorme calado que diversifica su dependencia más allá de Microsoft y que representa un impulso clave para Amazon en la carrera del cómputo para IA. La compañía podrá empezar a usar la infraestructura de AWS de forma inmediata.
Más allá de la cifra, este pacto de siete años implica acceso a cientos de miles de GPU de Nvidia alojadas en centros de datos de Amazon, con el objetivo de desplegar toda la capacidad antes de que finalice 2026 y posibilidad de ampliarla en 2027. El contexto es claro: los modelos cada vez más complejos (chatbots, asistentes y agentes capaces de completar tareas por sí solos) requieren una potencia que pocos proveedores pueden garantizar con fiabilidad.

Para OpenAI, el beneficio inmediato es capacidad de entrenamiento e inferencia a gran escala con garantías de disponibilidad, algo crítico para seguir evolucionando sistemas como ChatGPT y sus futuras versiones. La compañía gana, además, flexibilidad multinube para repartir cargas y negociar costes, en un momento en el que la demanda de cómputo es el principal cuello de botella del sector.
Por el lado de Amazon, el acuerdo supone un espaldarazo a AWS en el ámbito de la IA. En los últimos meses, el debate sobre un posible retraso de Amazon frente a Azure y Google Cloud ha sido recurrente; alojar una parte relevante de las cargas de OpenAI es un mensaje contundente para el mercado. No extraña que, tras el anuncio, las acciones de Amazon reaccionaron al alza, reflejando el optimismo de los inversores.
El acuerdo no rompe con Microsoft, pero sí acaba con la exclusividad de facto que tenía Azure como proveedor principal de cómputo para OpenAI. A partir de ahora, veremos un reparto más diversificado entre nubes, con impacto en precios, tiempos de entrega de chips y velocidad de desarrollo de nuevas funciones. Para el usuario final, esto puede traducirse en lanzamientos más rápidos, mejor disponibilidad del servicio y funciones de IA más ambiciosas en apps y dispositivos Android (desde traducción y resumen en tiempo real hasta edición de imágenes o asistentes «siempre activos» en móviles y wearables).
En el plano macro, el acuerdo refuerza la tendencia de megainversiones en infraestructura que estamos viendo en todo el ecosistema de IA: desde clústeres con decenas de miles de aceleradores hasta cables submarinos y energías renovables para sostenerlos. La competencia por los chips de Nvidia sigue marcando los ritmos, y compromisos como este son, a la vez, un seguro de capacidad y señal de que la carrera se acelera.

A corto plazo, el usuario no notará cambios inmediatos: ChatGPT continuará funcionando con normalidad. Pero a medio plazo, más cómputo implica modelos más capaces y nuevas integraciones en Android y servicios de Google, Samsung o Amazon. Para el mercado, este pacto redefine el equilibrio de fuerzas en el sector de la nube, empuja a otros actores a responder con acuerdos similares y deja una lectura clara: el desarrollo de la IA, tanto para consumo como para empresas, se juega en los centros de datos. Parece que OpenAI no tiene intenciones de detenerse, recordemos que recientemente también hubo una alianza similar con Samsung, un gigante tecnológico, que podría aportar mucho en esta área de la inteligencia artificial. Pero ¿crees que este movimiento acelerará la llegada de asistentes realmente útiles en el móvil? Te leemos en los comentarios.
Deja una respuesta