OpenAI invierte 4 mil millones de dólares para competir por FDE, el fin de los ingenieros de software resulta ser la presencia en el lugar.

Hora local del 11 de mayo, OpenAI anunció la creación de una nueva empresa llamada OpenAI Deployment Company (Compañía de Despliegue de OpenAI), con una inversión inicial superior a 4 mil millones de dólares, enfocada en ayudar a las empresas a construir y desplegar sistemas de IA.

OpenAI invierte 4 mil millones de dólares en la creación de la compañía de despliegue

OpenAI Deployment Company es una asociación establecida conjuntamente por OpenAI y 19 de las principales firmas de inversión, consultoras y integradores de sistemas a nivel mundial. La asociación está liderada por TPG, con Advent, Bain Capital y Brookfield como cofundadores principales, y B Capital, BBVA, Emergence Capital, Goanna, Goldman Sachs, SoftBank Group, Wework y WCAS como socios fundadores.

Para ampliar rápidamente el tamaño del equipo, OpenAI Deployment Company adquirió simultáneamente la consultora de inteligencia artificial Tomoro, con lo cual incorporó aproximadamente 150 ingenieros y expertos en despliegue en sitio con experiencia, que desde su creación ya están dedicados a prestar servicios. Estos ingenieros trabajarán estrechamente en las instalaciones del cliente, colaborando con diversos equipos para identificar los escenarios de mayor valor para la IA y promover su despliegue efectivo.

Esto representa un cambio estratégico importante para las empresas de OpenAI.

Durante dos años, OpenAI se ha apoyado más en ChatGPT Enterprise, API y capacidades de modelos para abrir mercado; pero ahora, claramente reconoce que tener los modelos más potentes ya no basta para ganar en el mercado empresarial pasado. Lo que realmente determina la velocidad de comercialización de la IA no son los parámetros del modelo, sino la “capacidad de implementación”.

Y esa, precisamente, es la propuesta de valor de Tomoro.

¿Entonces, quién es Tomoro?

Tomoro fue fundada en 2023, desde su nacimiento se ha identificado con el color de “empresa ecológica de OpenAI”.

Primero, es una consultora especializada en despliegue y servicios de ingeniería de IA para empresas, cuyo núcleo no es desarrollar modelos básicos, sino ayudar a las empresas a integrar verdaderamente los modelos de OpenAI en sus negocios, resolviendo una serie de problemas complejos desde la conexión de datos, gobernanza del sistema, control de permisos hasta el diseño de flujos de trabajo productivos.

Según la lista de clientes divulgada públicamente, Tomoro ya ha atendido a grandes empresas internacionales como Mattel, Red Bull, Tesco, Virgin Atlantic y Supercell.

Estos clientes tienen un punto en común: no son “empresas de innovación tecnológica”.

Es decir, lo que Tomoro domina mejor no es entrenar modelos en laboratorios de IA, sino llevar la IA desde la validación conceptual hasta los sistemas de producción en los entornos empresariales más complejos y reales.

Curiosamente, Tomoro también tiene una filosofía de desarrollo atractiva: construir una semana laboral de tres días. En su página web, Tomoro escribe:

“La revolución de la inteligencia artificial ofrece una oportunidad para transformar la sociedad. No somos observadores, sino creadores — construiremos juntos un mundo del cual nosotros y las futuras generaciones estaremos orgullosos.

Nuestra misión es equilibrar la productividad de la IA con los objetivos humanos, haciendo realidad una semana laboral de tres días.”

Desde el punto de vista del equipo fundador, el núcleo de Tomoro proviene principalmente del ámbito de consultoría en digitalización empresarial, infraestructura en la nube y ingeniería de aplicaciones de IA, formando un equipo multidisciplinario que combina “conocimiento de modelos y profunda comprensión de la transformación de sistemas empresariales”.

La página oficial de Tomoro indica que actualmente están reclutando ingenieros en Australia, Singapur y Reino Unido.

¿Por qué OpenAI de repente apuesta fuerte por el despliegue?

La lógica detrás no es difícil de entender: los clientes empresariales no compran modelos, compran resultados.

Denise Dresser, directora de ingresos de OpenAI, afirmó: “La IA se está volviendo cada vez más capaz de realizar tareas significativas dentro de las organizaciones. El desafío ahora es cómo ayudar a las empresas a integrar estos sistemas en su infraestructura y flujos de trabajo. La compañía de despliegue de OpenAI busca cerrar esa brecha y convertir las capacidades de IA en un impacto operativo real.”

Dresser y su equipo ya han comprendido que, en la actualidad, la presencia en sitio es la capacidad de IA a nivel empresarial que más necesitan fortalecer.

Aunque ChatGPT ha tenido un éxito enorme en el mercado de consumo, en el mercado empresarial, Anthropic ha emergido rápidamente en el último año con su serie Claude, estableciendo una presencia muy fuerte entre desarrolladores y clientes corporativos. Incluso, a principios de este año, se reconoció públicamente que el crecimiento de Anthropic representaba una presión significativa para OpenAI.

Según Reuters, en una reunión interna, Fidji Simo, responsable del negocio de aplicaciones de OpenAI, dijo claramente a los empleados:

El ascenso de Anthropic debe ser una “alarma” para OpenAI.

Ella enfatizó que la compañía debe concentrar recursos en mejorar la productividad empresarial, en lugar de dispersar esfuerzos en líneas de productos demasiado fragmentadas.

En cierto modo, la compañía de despliegue de OpenAI es un producto de esa estrategia defensiva.

Por su parte, Anthropic no se quedó quieta.

La semana pasada, Anthropic anunció la creación de una empresa conjunta centrada en desplegar servicios de IA empresarial, con Blackstone, Hellman & Freeman y Goldman Sachs como socios fundadores.

La empresa conjunta tiene una valoración de 1.5 mil millones de dólares, con una inversión conjunta de 300 millones de dólares de Anthropic, Blackstone y Hellman & Freeman. Otros inversores incluyen a Apollo Global Management, General Atlantic, GIC (Fondo de Inversión del Gobierno de Singapur), Leonard Green y Suko Capital.

Esto indica que ya ha comenzado una actividad de fusiones y adquisiciones en torno a la “capacidad de aplicación de IA en empresas”.

Si antes la competencia en IA se centraba en entrenar modelos más potentes, ahora la competencia se está desplazando hacia: quién puede integrar los modelos en los negocios reales de las empresas lo más rápido posible.

¿Por qué la demanda de ingenieros tradicionales cae drásticamente, y los ingenieros de despliegue se vuelven tan codiciados?

Este cambio en la competencia ya se refleja claramente en el mercado laboral.

Cuando “integrar modelos en los negocios reales” se vuelve la clave del éxito, los puestos tradicionales de ingeniería de software, que se alejan de la línea de negocio y solo se dedican a programar funciones, empiezan a disminuir en demanda, mientras que los ingenieros de despliegue, que pueden profundizar en las instalaciones del cliente, conectar sistemas y promover la implementación, se vuelven extremadamente buscados.

Veamos dos datos contrastantes: en el primer trimestre de 2025, la cantidad de puestos de ingeniería de software tradicional cayó aproximadamente un 70%; en ese mismo período, la demanda de ingenieros de despliegue en primera línea (FDE, por sus siglas en inglés) aumentó de aproximadamente 800% a cerca de 1000%. Este aumento y disminución reflejan un cambio fundamental en las tendencias del sector.

¿A qué se debe que la demanda de ingenieros tradicionales disminuya, y los ingenieros de despliegue sean ahora tan codiciados?

La respuesta está en que: hoy, el éxito de un proyecto depende en un 60% a 70% de la “implementación en el entorno real”, y no solo de la ingeniería o codificación. La capacidad de innovar junto con el cliente, adaptarse rápidamente y desplegar con agilidad se vuelve crucial. La limitación principal ya no es la “capacidad técnica”, sino la “aplicación en el entorno real”. Ayudar a los clientes a reorganizar sus flujos y sistemas para adaptarse a las necesidades futuras es la prioridad.

Sin embargo, las empresas difícilmente pueden completar ellas mismas el despliegue de IA, porque hay muy pocos talentos que realmente entiendan IA en profundidad. Además, entender IA no basta; estos profesionales también deben comprender la arquitectura de sistemas y el funcionamiento general de la empresa.

Solo combinando ambos aspectos, se puede lograr el éxito. Y las habilidades y detalles que faltan en el despliegue están en manos de los ingenieros en sitio.

Incluso si existen soluciones ya hechas en el mercado, los clientes suelen necesitar ajustes y afinaciones. Sin un ingeniero de despliegue trabajando junto al cliente, innovando y entendiendo profundamente sus productos y arquitectura, los proyectos difícilmente tendrán éxito. La experiencia demuestra que los proyectos de IA con participación de FDE tienen un retorno de inversión y una tasa de éxito mucho mayores.

¿Entonces, por qué el modelo de entrega tradicional no funciona?

El proceso típico de venta de software es: desarrollar el producto → entregarlo a ventas → promocionarlo a los clientes → los clientes intentan instalarlo (posiblemente con ayuda del equipo de éxito del cliente) → y luego los clientes exploran y resuelven problemas por sí mismos. Este modelo omite un paso clave: que el entorno real del cliente siempre es “especial y complejo”.

Pero todos sabemos que: acompañar es la forma más duradera de demostrar compromiso.

El modelo FDE no es simplemente que la empresa de modelos entregue el producto y se retire, sino que envía a los mejores ingenieros a las instalaciones del cliente. Estos ingenieros, junto con los gerentes de cuenta que redactan documentación, entregan código real, construyen integraciones personalizadas y configuran sistemas para que funcionen en el entorno específico del cliente. Esto es “despliegue hacia adelante”: los ingenieros trabajan dentro de la empresa del cliente.

La razón por la que este modelo funciona es simple: estos ingenieros en sitio dominan el funcionamiento del software o del modelo, mientras que los ingenieros del cliente (como los de JPMorgan) conocen a fondo su propia estructura de datos, requisitos regulatorios, política interna y los problemas específicos que quieren resolver. Ninguna de las partes puede hacerlo sola. El modelo FDE obliga a que ambas culturas de conocimiento colisionen y se fusionen en un mismo espacio, hasta encontrar soluciones efectivas.

Este método es especialmente útil para clientes con problemas “especiales y complejos”: hospitales, bancos, instituciones de defensa, grandes instituciones financieras. Sus necesidades no pueden ser satisfechas por productos SaaS estándar, ya que tienen sistemas heredados, restricciones regulatorias y procesos internos que no consideraron la IA en su diseño inicial.

También puede explicarse así: la caída en demanda de ingenieros tradicionales no es por falta de tecnología, sino porque la definición de “ingeniero” se está redefiniendo. Los ingenieros que puedan profundizar en el cliente, entender su negocio, iterar rápidamente y co-crear, son los talentos más codiciados en la era de la IA.

En este contexto, ¿qué habilidades específicas deben tener los ingenieros de despliegue?

En un podcast, Sherwin Wu, director de ingeniería de plataformas de OpenAI, y Olivier Godement, director de producto, explicaron en detalle las capacidades clave que debe tener un FDE.

En escenarios de despliegue altamente personalizado y con altos requisitos de seguridad, como en laboratorios nacionales en entornos físicamente aislados, los ingenieros muestran una serie de habilidades críticas.

Por un lado, poseen sólidas capacidades de despliegue en la capa física y en la infraestructura subyacente: no solo pueden instalar y ejecutar modelos en hardware y redes específicos del cliente, sino que también pueden, en entornos con restricciones de seguridad extremas —como ambientes completamente aislados y sin dispositivos electrónicos— transferir pesos del modelo mediante medios físicos a supercomputadoras.

Por otro lado, tienen habilidades profundas de colaboración y ingeniería personalizada, capaces de trabajar estrechamente con los equipos de desarrollo para adaptar entornos en supercomputadoras específicas como Venado, realizando desarrollos “a mano” y configuraciones a medida, además de habilidades en ingeniería de agentes (Agentic Engineering), gestión de memoria, orquestación y transferencia de tareas, asegurando que el modelo funcione de manera estable y eficiente incluso en entornos muy restringidos.

Además, el equipo de OpenAI mencionó que, además de las capacidades individuales, el éxito en despliegues requiere ciertas características organizacionales:

“Modelo de escuadrón de ataque” (Tiger Team):

  • No solo se necesita un experto técnico, sino alguien con “conocimiento institucional” (Institutional Knowledge).

  • Composición: un equipo compacto formado por técnicos, expertos en diferentes áreas (SMEs) y personas familiarizadas con los procesos internos de la organización. La mayor parte del conocimiento clave (como SOP, procedimientos operativos estándar) reside en la memoria de empleados veteranos, no en documentos.

Sistema de evaluación de abajo hacia arriba (Evals First):

  • Claridad en los objetivos: un despliegue exitoso requiere definir primero “qué es bueno”.

  • Impulsado por la línea de frente: los criterios de evaluación no deben ser solo dictados por la alta dirección, sino que deben ser definidos por los operadores en la práctica, quienes conocen los puntos críticos en escenarios reales.

Cambio de roles: de “herramienta” a “socio de pensamiento”:

  • Un despliegue excelente permite que el modelo se integre profundamente en los flujos de trabajo de investigación. En el caso de laboratorios nacionales, los ingenieros de despliegue lograron que el modelo o3 se convirtiera en un “socio de pensamiento” (Thought Partner), ayudando en el diseño de experimentos y análisis de datos complejos.

El rol de los ingenieros FDE y de despliegue en este proceso ha evolucionado de ser simples “instaladores de software” a convertirse en “relaciones públicas tecnológicas integrales + arquitectos de ingeniería + expertos en inteligencia de la industria”. No solo deben resolver si el modelo funciona o no, sino también cómo hacer que la IA realmente penetre en los negocios centrales del cliente (incluso en áreas sin documentación formal).

Los fabricantes de modelos en la segunda mitad del campo, compiten en la lealtad del cliente

Si se observa más allá, esto se asemeja mucho a la trayectoria que Palantir ha recorrido en los últimos diez años.

La ventaja competitiva de Palantir nunca fue vender licencias de software, sino enviar ingenieros a las instalaciones del cliente, entender profundamente sus procesos y luego integrar la tecnología en la organización.

Empresas como OpenAI y Anthropic ahora parecen copiar ese modelo, porque detrás de él hay una verdad: la presencia en sitio (FED) genera una lealtad que la mayoría de SaaS no puede igualar.

Cuando una empresa instala un sistema CRM, en teoría puede migrar a un competidor, aunque sea doloroso; pero cuando un equipo de despliegue en sitio tarda 6 meses en construir un sistema de IA altamente integrado con datos internos, flujos de trabajo y cumplimiento normativo, ese sistema se convierte en una infraestructura que soporta la operación del negocio, difícil de eliminar, y la empresa continuará dependiendo del equipo original para mantenimiento, actualizaciones y optimización.

Esta lógica estratégica hace que el modelo FDE sea muy atractivo para Anthropic y OpenAI: en el mercado de IA empresarial, la competencia no es solo vender tokens, sino convertirse en una infraestructura difícil de desinstalar para grandes organizaciones, y el FDE es la vía clave para lograrlo.

El momento también es un factor crucial. Datos de operadores de centros de datos a gran escala muestran que la construcción de infraestructura se acelera, no se desacelera: Morgan Stanley elevó su pronóstico de gasto de capital de los cinco principales operadores a 8.050 mil millones de dólares en 2026, y a 11 billones en 2027; solo en el primer trimestre de 2026, los siete mayores operadores gastaron más de 4 mil millones de dólares, y las órdenes pendientes estimadas y reportadas alcanzan aproximadamente 1.3 billones de dólares.

Este enorme volumen de pedidos pendientes indica que la demanda supera ampliamente a la oferta, y que a largo plazo, los obstáculos ya no serán las capacidades del modelo o los recursos computacionales, sino la capacidad de desplegar de manera eficiente.

Por eso, quien domine las metodologías para desplegar a gran escala en organizaciones complejas, y logre integrar los sistemas de forma personalizada para que funcionen realmente, podrá capturar el valor que genera la infraestructura. En el modelo FDE, los recursos escasos no son solo la capacidad de construir modelos, sino la experiencia en despliegue. Esto también redefine la lógica de precios: de licencias basadas en asientos a consumo basado en tokens.

En el modelo FDE, no vendes un asiento, sino un sistema ya desplegado, que genera consumo de tokens a medida que la organización lo usa continuamente. La lealtad y la dependencia que genera la infraestructura son la clave para la sostenibilidad a largo plazo de los ingresos por tokens.

Fuente: InfoQ

Aviso de riesgo y términos de exención

El mercado tiene riesgos, invierta con precaución. Este artículo no constituye una recomendación de inversión personal ni considera objetivos, situación financiera o necesidades específicas de ningún usuario. Los usuarios deben evaluar si las opiniones, puntos de vista o conclusiones aquí expresadas se ajustan a su situación particular. La inversión es bajo su propio riesgo.

Ver original
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado