tech

OpenAI le dijo en su cara a Microsoft: 'nos limitaste' — y ya está en AWS Bedrock con dos modelos listos para devs

tech · 7 min de lectura

OpenAI le dijo en su cara a Microsoft: 'nos limitaste' — y ya está en AWS Bedrock con dos modelos listos para devs

El chisme interno de OpenAI salió a la luz: un memo filtrado reveló que Microsoft 'limitó su capacidad de llegar a clientes'. Ahora el acuerdo cambió, la exclusividad se acabó y los modelos GPT ya están en AWS Bedrock. Aquí lo que cambia para los devs mexicanos.

OpenAI le dijo en su cara a Microsoft: 'nos limitaste' — y ya está en AWS Bedrock con dos modelos listos para devs

Imagínate mandarle un memo interno a toda tu empresa diciendo que tu socio más importante “limitó tu capacidad de hacer negocio” — y que ese memo se filtre a CNBC. Eso fue exactamente lo que pasó en OpenAI el 13 de abril, y hoy, 27 de abril, se confirmó el rompimiento oficial de la exclusividad con Microsoft. El chisme ya es noticia, la neta.

El memo que lo dijo todo

Denise Dresser, la jefa de ingresos (CRO) de OpenAI, le mandó un memo a sus empleados celebrando el acuerdo con Amazon. Pero la parte que todos guardaron en screenshot fue esta: la asociación con Microsoft “ha limitado nuestra capacidad de llegar a los clientes donde están, y para muchos ese lugar es Bedrock”.

No lo dijo un analista externo. No fue un rumor. Lo escribió una ejecutiva de OpenAI, internamente, a sus propios compas de trabajo. Y se filtró a CNBC, que lo reportó el 13 de abril.

Para entender el tamaño del pedo: Microsoft había firmado con OpenAI un acuerdo donde tenía acceso exclusivo a toda la IP de OpenAI. Eso significaba que si una empresa quería correr GPT-4o o cualquier modelo de OpenAI en la nube, tenía que usar Azure o nada. AWS, Google Cloud, cualquier otro: bloqueados.

Entonces en febrero de 2026 llega Amazon con un talonario de $50 mil millones de dólares y dice “quiero un acuerdo”. OpenAI dice “a huevo”. Pero el problema: la cláusula de exclusividad con Microsoft ponía ese deal en riesgo legal. Se abrió una crisis interna que hoy, finalmente, se resolvió.

Los términos del nuevo acuerdo

El anuncio oficial del 27 de abril deja las cosas así:

TérminoAntesAhora
Licencia de IPExclusiva (sin fecha)No exclusiva hasta 2032
Revenue share de OpenAI a Microsoft20% sin tope20% con cap total
Revenue share de Microsoft a OpenAISí pagabaYa no paga nada
Otras nubes (AWS, Google)BloqueadasPermitidas desde ya
Primera opción de lanzamientoAzureAzure (sigue, si puede soportarlo)

O sea, Microsoft sigue siendo el “socio de nube primario” de OpenAI y los productos van primero a Azure. Pero ya no tiene el monopolio. Si Azure no puede o no quiere soportar algo, OpenAI puede irse a otra nube sin problema.

Y lo más heavy para Microsoft: ya no va a recibir porcentaje de las ventas que haga OpenAI en otras plataformas. Solo sigue cobrando su 20% (con tope) de lo que OpenAI genera, hasta 2030.

La CFO de OpenAI, Sarah Friar, lo dijo sin rodeos: la exclusividad “nos frenó” y revelaron que hay un pipeline de demanda empresarial de $100 mil millones de dólares esperando en AWS. El tamaño de ese número explica por qué este acuerdo era urgente.

Qué hay en AWS Bedrock ahora mismo

Los modelos GPT-OSS-20B y GPT-OSS-120B ya tienen su página oficial en AWS Bedrock y están disponibles en la región US West (Oregon). Los specs confirmados:

  • Contexto: 128K tokens
  • Razonamiento ajustable: bajo, medio y alto (como o1/o3)
  • Casos de uso: código, análisis científico, razonamiento matemático, generación de texto
  • Autenticación: API key de Amazon Bedrock, compatible con el SDK de OpenAI
  • Integración: funciona con Amazon Bedrock AgentCore para agentes con memoria persistente

El detalle que más importa para los devs: puedes usar el SDK oficial de OpenAI apuntándole al endpoint de Bedrock. Solo cambias el base_url y usas una API key de AWS. Si ya tienes código con OpenAI, la migración es mínima.

Además, Amazon y OpenAI están co-desarrollando un “Stateful Runtime Environment” sobre Bedrock: agentes de IA que mantienen contexto entre sesiones, pueden acceder a herramientas externas y memoria persistente. Andy Jassy lo describió como “la próxima generación de cómo los devs van a construir aplicaciones de IA”.

Qué cambia para los devs mexicanos

Aquí está lo práctico. Si estás construyendo en AWS (y muchas empresas mexicanas ya viven ahí), esto cambia varias cosas:

1. No necesitas cuenta de OpenAI para usar GPT Antes si querías GPT-4o tenías que crear una cuenta en platform.openai.com, meter tarjeta, gestionar una API key separada y lidiar con dos facturaciones distintas. Ahora puedes acceder directamente desde la consola de AWS con tu cuenta existente.

2. Facturación unificada en AWS Todo en un solo recibo. Para empresas medianas en México que ya tienen contratos enterprise con AWS, esto es significativo: no más procesos de aprobación separados para “el gasto de OpenAI”.

3. Combinable con otros modelos en Bedrock En la misma llamada de API puedes comparar GPT contra Claude, Llama, Mistral o cualquier otro modelo en Bedrock. Para hacer evals o routing inteligente entre modelos, esto es una chimba.

4. Región más cercana eventualmente Por ahora solo está en US West Oregon, pero AWS tiene región en São Paulo (Brasil) y una en Colombia en camino. Los modelos de Bedrock eventualmente llegan a más regiones. La latencia desde México a Oregon tampoco es catastrófica para la mayoría de los casos de uso.

La limitación real hoy: no es sa Paulo ni México, es Oregon. Para producción con requisitos de latencia ultra-baja o residencia de datos en México, tendrás que esperar a que llegue a más regiones. Pero para desarrollo y experimentación, ya puedes empezar.

La pregunta que nadie hace: ¿Y Azure qué?

Microsoft no sale tan mal parado como parece. Sigue siendo el “primer” cloud de OpenAI, lo que significa que los lanzamientos nuevos (como GPT-5 cuando llegue) aparecen primero ahí. Y sigue teniendo la licencia de IP hasta 2032.

Pero la narrativa cambió. Si antes el argumento de ventas de Azure incluía “el único cloud con acceso completo a OpenAI”, ese diferenciador ya no existe. El año pasado cubrimos cómo comparar las herramientas de IA para programar con precios en pesos y el factor de acceso a modelos era clave. Ahora eso se nivela.

Para los que ya exploraron IA generativa a fondo, el tema de elegir nube según modelo disponible era un dolor de cabeza. Y si te interesa correr modelos sin depender de ninguna nube, en su momento escribimos una guía de cómo correr tu propia IA local con Ollama y LM Studio sin pagar un peso de suscripción que sigue vigente.

El fondo del drama

Lo que este movimiento revela es que OpenAI ya no es la startup que necesitaba a Microsoft para sobrevivir. En 2019 cuando firmaron el primer acuerdo, OpenAI necesitaba la infraestructura y el capital de Microsoft para existir. Hoy tiene $122 mil millones levantados, un acuerdo de $50B con Amazon y una demanda empresarial que sus propios ejecutivos describen como “impresionante”.

La relación cambió de “necesitamos a Microsoft” a “Microsoft es un canal más”. Y el memo interno de Denise Dresser lo dice con toda la claridad que a veces falta en los comunicados corporativos.

Para nosotros los devs en México, la conclusión práctica es simple: si ya usas AWS, ya puedes experimentar con GPT en Bedrock desde hoy. Si estás evaluando a cuál nube brincar para un proyecto de IA, la ecuación cambió: ya no es “Azure para GPT, otra para el resto”, ahora es competencia pareja.

¿Ya tienen AWS Bedrock en sus proyectos o siguen usando la API directa de OpenAI? Cuéntenme en comentarios cómo tienen armado su stack de IA.

Fuentes

Comentarios

No te pierdas ningún post

Recibe lo nuevo de Al Chile Tech directo en tu correo. Sin spam.

También te puede interesar