Acabo de escuchar la entrevista de Stratechery con Sam Altman y Matt Garman sobre lo que realmente está sucediendo entre OpenAI y AWS, y honestamente, eso replantea todo lo que habíamos estado pensando sobre IA empresarial.



Así que el titular del que todos hablan es obvio: el acuerdo de exclusividad de Azure con OpenAI ha terminado. Ahora OpenAI puede ofrecer modelos a través de AWS y otras nubes. Pero aquí está lo importante—eso es casi la parte aburrida de la historia.

El cambio real es mucho más fundamental. Estamos pasando de "empresas llamando APIs" a "empresas ejecutando agentes de IA reales dentro de su infraestructura." Piensa en ello así: en lugar de que ChatGPT sea un chatbot inteligente con el que chateas, imagina un colega de IA que realmente trabaja dentro de tu empresa, accede a tus bases de datos, respeta tus sistemas de permisos y hace que las cosas sucedan.

Bedrock Managed Agents es lo que eso parece en la práctica. No es solo "modelos de OpenAI ahora disponibles en AWS." Es que los modelos de OpenAI están profundamente integrados en toda la pila nativa de AWS—gestión de identidades, permisos, registros, seguridad, despliegue, todo. Los modelos corren dentro de tu VPC, tus datos nunca salen de AWS, y el agente entiende los límites de tu empresa.

Sam hizo un punto que me quedó grabado: solía ver el modelo y la infraestructura de soporte como cosas separadas. Ahora ya no. Cuando Codex hace algo increíble, realmente no puedes distinguir cuánto es la inteligencia del modelo versus lo bien diseñado que está el sistema que lo rodea. Se están convirtiendo en una sola cosa.

Matt Garman mencionó algo igualmente importante: las empresas ahora mismo están literalmente ensamblando sus propias soluciones. Quieren agentes que recuerden el contexto, que funcionen en sus sistemas, que entiendan sus datos, que respeten su seguridad. Cada empresa está haciendo esto por sí misma. Lo que AWS y OpenAI están diciendo es: nosotros nos encargamos de esa integración por ti, para que no tengas que hacerlo tú.

La parte de permisos y seguridad aquí es enorme. Antes, era como un modelo de seguridad de "castillo y foso"—todo local, asumiendo que es seguro. Ahora necesitas una arquitectura de confianza cero. Cada agente necesita su propia identidad, sus propios permisos. Todavía están resolviendo los modelos mentales para esto. Como, ¿debería un agente de IA usar la cuenta de tu empleado pero identificarse como un agente? Ni siquiera tienen todavía los conceptos básicos claros, pero saben que esto importa.

Lo que es increíble es cómo esto refleja lo que pasó con la computación en la nube hace 20 años. AWS hizo que las startups no necesitaran comprar sus propios servidores ni contratar equipos de infraestructura. Ahora OpenAI y AWS están intentando hacer lo mismo para la IA empresarial: reducir la barrera para desplegar agentes que funcionen, sin que las empresas tengan que armar modelos, permisos, sistemas de datos y arquitectura de seguridad por sí mismas.

Sam también soltó algo interesante sobre el futuro de los precios. Ahora mismo, cobran por tokens, pero eso ya está quedando obsoleto. Su nuevo modelo cuesta más por token, pero necesita mucho menos tokens para obtener la misma respuesta. Lo que los clientes realmente quieren pagar es por "inteligencia entregada," no por "tokens consumidos." Es un cambio sutil, pero modifica cómo piensas en todo el negocio.

En cuanto a la competencia, este es el momento en que el juego pasa de "quién tiene el mejor modelo" a "quién puede convertir modelos en infraestructura empresarial real." Google va por integración vertical total. AWS toma un camino diferente: una capa de infraestructura sólida, asociarse con los mejores modelos, dejar que las empresas elijan lo que funciona. Tanto Sam como Matt parecen genuinamente convencidos de que están construyendo algo diferenciado aquí, no solo "por fin podemos acceder a OpenAI a través de AWS."

Una cosa más: Sam mencionó que la demanda de modelos de frontera todavía es astronómica. La gente aún no busca por precio. Todos quieren el modelo de vanguardia porque eso es lo que hace que el trabajo avance. Pero a medida que los costos bajen y los modelos más pequeños mejoren, probablemente emerja una mezcla. Aunque todavía parece temprano.

Toda la conversación suena como si dos empresas que realmente respetan las fortalezas del otro estuvieran construyendo algo real. Vale la pena leer el artículo completo de Stratechery si quieres los detalles técnicos, pero la idea central es sólida: ya no estamos hablando de canales de distribución. Está surgiendo un paradigma de computación completamente diferente.
Ver original
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado