OpenAI dépense follement 4 milliards de dollars pour se lancer dans la compétition FDE, le sommet pour un ingénieur logiciel s'avère finalement être un poste sur site

Heure locale du 11 mai, OpenAI a annoncé la création d’une nouvelle société nommée OpenAI Deployment Company (OpenAI Société de Déploiement), avec un investissement initial de plus de 4 milliards de dollars, axée sur l’aide aux entreprises pour construire et déployer des systèmes d’IA.

OpenAI investit 4 milliards de dollars pour établir une société de déploiement

OpenAI Deployment Company est un partenariat créé conjointement par OpenAI et 19 des principales sociétés d’investissement, cabinets de conseil et intégrateurs système mondiaux. Ce partenariat est dirigé par TPG, avec Advent, Bain Capital et Brookfield en tant que co-fondateurs, et B Capital, BBVA, Emergence Capital, Goanna, Goldman Sachs, SoftBank Group, WPP Investments et WCAS en tant que partenaires fondateurs.

Pour accélérer la croissance de l’équipe, OpenAI Deployment a également acquis la société de conseil en intelligence artificielle Tomoro, afin d’introduire environ 150 ingénieurs et experts expérimentés en déploiement sur site, dès sa création, pour commencer à fournir des services. Ces ingénieurs travailleront en profondeur sur le terrain chez les clients, en collaborant étroitement avec diverses équipes pour identifier les scénarios de mise en œuvre à forte valeur ajoutée de l’IA et favoriser leur déploiement pratique.

Ceci constitue une étape stratégique majeure pour OpenAI Enterprise.

Depuis deux ans, OpenAI s’appuyait principalement sur ChatGPT Enterprise, l’API et ses capacités de modèles pour ouvrir le marché ; mais désormais, il est clair qu’avoir les modèles les plus puissants ne suffit plus pour conquérir le marché des entreprises d’hier. La véritable vitesse de commercialisation de l’IA ne dépend pas uniquement des paramètres du modèle, mais de la capacité à le mettre en pratique.

Et c’est précisément là que réside la valeur de Tomoro.

Alors, qui est Tomoro ?

Fondée en 2023, Tomoro a dès sa naissance été marquée par une couleur d’« entreprise écologique OpenAI ».

Il s’agit d’une société de conseil spécialisée dans le déploiement et l’ingénierie d’IA pour les entreprises. Son cœur de métier n’est pas le développement de modèles fondamentaux, mais d’aider les entreprises à intégrer réellement les modèles d’OpenAI dans leurs activités, en résolvant une série de problèmes complexes allant de l’accès aux données, la gouvernance des systèmes, le contrôle des permissions, jusqu’à la conception de workflows de production.

D’après la liste de clients divulguée, Tomoro a déjà servi de grandes entreprises internationales telles que Mattel, Red Bull, Tesco, Virgin Atlantic et Supercell.

Ces clients ont un point commun : ce ne sont pas des « entreprises d’innovation technologique ».

Autrement dit, la spécialité de Tomoro n’est pas l’entraînement de modèles en laboratoire, mais la mise en œuvre de l’IA dans les environnements d’affaires les plus complexes et réalistes, en faisant passer l’IA du concept à la production.

Ce qui est intéressant, c’est que Tomoro a également une philosophie de développement attrayante : construire une semaine de travail de trois jours. Sur sa page d’accueil, Tomoro écrit :

« La révolution de l’intelligence artificielle offre une opportunité de remodeler la société. Nous ne sommes pas des spectateurs, mais des créateurs — nous allons construire ensemble un monde dont nous et nos descendants serons fiers.

Notre mission est d’équilibrer la productivité de l’IA avec les objectifs humains, pour faire de la semaine de trois jours une réalité. »

Du point de vue de l’équipe fondatrice, l’équipe centrale de Tomoro provient principalement du conseil en transformation numérique d’entreprise, de l’infrastructure cloud et de l’ingénierie d’applications IA, formant une équipe polyvalente qui maîtrise à la fois les modèles et la transformation des systèmes d’entreprise.

Le site officiel de Tomoro indique qu’ils recrutent actuellement des ingénieurs sur site en Australie, à Singapour, au Royaume-Uni, etc.

Pourquoi OpenAI mise-t-elle soudainement des milliards sur le déploiement ?

La logique derrière est simple : ce que veulent les clients d’entreprise, ce ne sont pas les modèles, mais les résultats.

Denise Dresser, directrice des revenus d’OpenAI, déclare : « L’IA devient de plus en plus capable de gérer des tâches significatives au sein des organisations. Le défi actuel est d’aider les entreprises à intégrer ces systèmes dans leur infrastructure et leurs workflows. La société de déploiement d’OpenAI vise à combler cette lacune et à transformer les capacités d’IA en impact opérationnel réel. »

Denise Dresser et son équipe ont déjà compris que la présence sur site est la capacité d’IA d’entreprise qu’ils doivent impérativement renforcer.

Bien que ChatGPT ait déjà rencontré un immense succès côté consommation, sur le marché des entreprises, Anthropic a rapidement émergé au cours de l’année dernière avec sa série Claude, établissant une forte présence auprès des développeurs et des clients d’entreprise. Plus tôt cette année, même OpenAI a reconnu publiquement que la croissance d’Anthropic exerçait une pression évidente sur l’entreprise.

Selon Reuters, lors d’une réunion interne, Fidji Simo, responsable des affaires commerciales d’OpenAI, a clairement dit aux employés :

La montée d’Anthropic doit être un « avertissement » pour OpenAI.

Elle a souligné que l’entreprise doit concentrer ses ressources pour améliorer la productivité en entreprise, plutôt que de continuer à disperser ses efforts sur trop de lignes de produits.

Dans une certaine mesure, la société de déploiement d’OpenAI est une réponse stratégique à cela.

De leur côté, Anthropic ne reste pas inactif.

La semaine dernière, Anthropic a annoncé la création d’une coentreprise spécialisée dans le déploiement de services d’IA d’entreprise, avec Blackstone, Hellman & Freeman et Goldman Sachs en tant que partenaires fondateurs.

Cette coentreprise est évaluée à 1,5 milliard de dollars, avec Anthropic, Blackstone et Hellman & Freeman apportant ensemble 300 millions de dollars. D’autres investisseurs incluent Apollo Global Management, General Atlantic, GIC (Singapore’s sovereign wealth fund), Leonard Green et Suko Capital.

Cela marque le début officiel d’une activité de fusion-acquisition centrée sur « la capacité d’application de l’IA en entreprise ».

Si auparavant la compétition en IA portait sur la formation de modèles plus puissants, aujourd’hui, elle se déplace vers : qui peut le plus rapidement intégrer ces modèles dans la vraie activité des entreprises.

La demande pour les ingénieurs traditionnels chute brutalement, pourquoi les ingénieurs de déploiement deviennent-ils si prisés ?

Ce changement de tendance se reflète concrètement sur le marché de l’emploi.

Lorsque « intégrer le modèle dans la vraie activité de l’entreprise » devient la clé du succès, les postes d’ingénierie logicielle traditionnels, qui sont éloignés du terrain et se limitent à coder des fonctionnalités, voient leur demande diminuer, tandis que les ingénieurs de déploiement capables d’aller sur site, de connecter les systèmes et de faire aboutir la déploiement, deviennent très recherchés.

Voici deux chiffres contrastés : au premier trimestre 2025, le nombre d’emplois en ingénierie logicielle traditionnelle a chuté d’environ 70 % ; en revanche, la demande pour les ingénieurs de déploiement en première ligne (FDE) a explosé, passant d’environ 800 % à environ 1000 %. Cette hausse et cette baisse illustrent clairement une transformation fondamentale du secteur.

Pourquoi la demande pour les ingénieurs traditionnels diminue-t-elle alors que celle pour les ingénieurs de déploiement explose ?

La réponse réside dans le fait qu’aujourd’hui, le succès d’un projet dépend à 60-70 % de « l’application concrète », et non seulement des compétences techniques ou de programmation. La capacité à innover avec le client devient cruciale. L’adaptabilité, le leadership et les compétences interpersonnelles sont tout aussi indispensables, tout comme la capacité à déployer rapidement. Le goulot d’étranglement a changé : il ne s’agit plus uniquement de compétences techniques, mais de la capacité à faire aboutir concrètement l’application. Aider le client à repenser ses workflows et ses systèmes pour répondre aux besoins futurs devient la priorité.

Cependant, il est difficile pour une entreprise de déployer l’IA seule. Peu de talents comprennent réellement l’IA en profondeur, et comprendre l’IA ne suffit pas : il faut aussi maîtriser l’architecture des systèmes et la gestion globale de l’entreprise.

Combiner ces deux aspects est la clé du succès. Et la compétence manquante, celle qui fait toute la différence, est détenue par les ingénieurs de déploiement en première ligne.

Même si des solutions toutes faites existent sur le marché, les clients ont souvent besoin d’ajustements et de fine-tuning importants. Sans FDE pour co-innover avec eux, comprendre en profondeur leurs produits et leur architecture, le projet risque d’échouer. Les expériences montrent que les projets d’IA avec la participation d’un FDE ont un retour sur investissement et un taux de réussite nettement supérieurs.

Pourquoi le mode de livraison traditionnel ne fonctionne-t-il plus ?

Le processus classique de vente de logiciel consiste à : développer le produit → le confier à la vente → le promouvoir auprès du client → le client tente de l’installer (avec l’aide éventuelle de l’équipe de succès client) → puis le client doit se débrouiller pour résoudre les problèmes. Ce modèle ignore une étape cruciale : l’environnement réel du client est toujours « particulier et complexe ».

Mais tout le monde sait que : accompagner, c’est aimer le plus longtemps.

Le mode FDE ne consiste pas à livrer le produit et à se désengager, mais à déployer directement les meilleurs ingénieurs dans l’entreprise cliente. Ces ingénieurs, en collaboration avec le responsable client chargé de la documentation, livrent du code véritable, construisent des intégrations sur mesure, configurent le système pour qu’il fonctionne dans l’environnement spécifique du client. C’est ce qu’on appelle le « déploiement en avant » : vos ingénieurs travaillent directement chez le client.

Ce modèle est efficace parce qu’il repose sur une idée simple : ces ingénieurs FDE maîtrisent le fonctionnement des modèles ou des logiciels, tandis que les ingénieurs du client (par exemple chez JPMorgan) connaissent parfaitement leur propre organisation — structures de données, exigences réglementaires, politique interne, et problèmes spécifiques à résoudre. Aucun des deux ne peut réussir seul. Le modèle FDE force la collision et la fusion de deux savoirs, jusqu’à trouver la solution réellement efficace.

Cette approche est particulièrement adaptée aux clients confrontés à des « problèmes particuliers et complexes » : hôpitaux, banques, institutions de défense, grandes institutions financières. Leurs besoins ne peuvent pas être satisfaits par des SaaS standard — ils ont des systèmes hérités, des contraintes réglementaires, des processus internes non conçus pour l’IA.

On peut aussi expliquer cela ainsi : la baisse de la demande pour les ingénieurs traditionnels ne signifie pas que la technologie devient obsolète, mais que la définition de « l’ingénieur » est en train de se transformer. Les ingénieurs capables d’aller sur site, de comprendre le métier, d’itérer rapidement et d’innover avec le client, deviennent les talents les plus recherchés à l’ère de l’IA.

Dans ce contexte, quelles compétences spécifiques doivent avoir les ingénieurs de déploiement ?

Dans un podcast, Sherwin Wu, responsable plateforme chez OpenAI, et Olivier Godement, responsable produit, ont détaillé les compétences clés requises pour un FDE.

Dans des scénarios de déploiement très personnalisés et à haute sécurité, comme dans un environnement isolé physiquement (par exemple, un laboratoire national), les ingénieurs de déploiement doivent démontrer une série de compétences essentielles.

D’une part, ils doivent avoir une solide expérience en déploiement physique et en architecture de bas niveau : capables d’installer et de faire fonctionner un modèle sur l’infrastructure matérielle et réseau spécifique du client, pas seulement via des API, mais aussi dans des environnements très sécurisés — par exemple, en transférant physiquement des poids de modèles dans un supercalculateur via un média physique, dans un environnement totalement isolé.

D’autre part, ils doivent posséder des compétences avancées en personnalisation et en ingénierie, pouvant collaborer étroitement avec l’équipe de développement pour adapter des environnements spécifiques comme Venado, en réalisant un développement « à la main » et en assurant la compatibilité, tout en maîtrisant l’orchestration, la gestion de mémoire et le transfert de tâches pour garantir la stabilité et la performance du modèle même dans des environnements très contraints.

De plus, l’équipe d’OpenAI mentionne que, pour réussir un déploiement, il ne suffit pas des compétences techniques individuelles : il faut aussi des caractéristiques organisationnelles, telles que :

« L’approche de l’équipe d’intervention (Tiger Team) :

  • Le déploiement nécessite non seulement des experts techniques, mais aussi des personnes ayant une « connaissance institutionnelle ».

  • Composition : une équipe resserrée composée de techniciens, d’experts de divers domaines (SME) et de personnes familières avec les processus internes de l’organisation. Car la majorité des connaissances clés (SOP, procédures) résident dans la tête des employés expérimentés, pas dans la documentation.

Une évaluation ascendante (Evals First) :

  • Clarifier les objectifs : un déploiement réussi doit d’abord définir ce qu’est « un bon déploiement ».

  • Pilotage par la première ligne : les critères d’évaluation ne doivent pas seulement venir du haut, mais être définis par ceux qui sont en première ligne, car eux seuls connaissent les points sensibles dans la pratique.

Changement de rôle : du « simple outil » au « partenaire de réflexion » :

  • Un déploiement efficace permet d’intégrer profondément le modèle dans le flux de travail scientifique. Dans le cas du laboratoire national, le déploiement a transformé le modèle en un « partenaire de réflexion » (Thought Partner), aidant à la conception d’expériences et à l’analyse de données complexes.

Les rôles de FDE et d’ingénieur de déploiement ont évolué d’un simple « installateur de logiciel » à un « spécialiste polyvalent en relations publiques techniques, architecte d’ingénierie et expert en intelligence sectorielle ». Ils doivent non seulement faire fonctionner le modèle, mais aussi résoudre comment faire pénétrer l’IA dans le cœur des activités du client (même celles sans documentation explicite).

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
Aucun commentaire
  • Épingler