OpenAI шалено вкладає 4 мільярди доларів у боротьбу за FDE, кінцева точка для програмістів — це наявність на місці

Місцевий час 11 травня, OpenAI оголосила про створення нової компанії під назвою OpenAI Deployment Company (OpenAI компанія з розгортання), з початковими інвестиціями понад 4 мільярди доларів, яка зосереджена на допомозі підприємствам у створенні та розгортанні систем штучного інтелекту.

OpenAI витрачає 40 мільярдів доларів на створення компанії з розгортання

OpenAI Deployment Company є партнерською ініціативою, створеною спільно OpenAI та 19 провідними глобальними інвестиційними компаніями, консалтинговими фірмами та системними інтеграторами. Ця партнерська мережа очолюється TPG, а співзасновниками є Advent, Bain Capital і Brookfield, у співучасті з B Capital, BBVA, Emergence Capital, Goanna, Goldman Sachs, SoftBank Group, Wework і WCAS.

Щоб швидко розширити команду, OpenAI Deployment Company одночасно придбала компанію з консультацій з штучного інтелекту Tomoro, залучивши близько 150 досвідчених інженерів з розгортання та експертів, які вже з моменту заснування можуть почати обслуговування. Ці інженери будуть глибоко залучені у роботу на місцях у клієнтів, тісно співпрацюючи з командами, щоб ідентифікувати найбільш цінні сценарії застосування AI і сприяти їх реальному впровадженню.

Це є стратегічним важливим поворотом для компанії OpenAI Enterprise.

Протягом двох років OpenAI здебільшого орієнтувалася на ринок за допомогою ChatGPT Enterprise, API та моделей; але тепер вона очевидно усвідомлює, що володіння найпотужнішими моделями вже недостатньо для перемоги на ринку корпоративних клієнтів минулого. Реальним фактором швидкості комерціалізації AI є не кількість параметрів моделі, а “здатність до впровадження”.

І саме цю цінність і надає Tomoro.

А хто ж такий Tomoro?

Tomoro заснована у 2023 році і з моменту створення носить яскравий “екосистемний” статус OpenAI.

Спершу це консалтингова компанія, що спеціалізується на впровадженні AI у підприємствах та інженерних сервісах. Основна діяльність не полягає у розробці базових моделей, а у допомозі компаніям інтегрувати моделі OpenAI у бізнес-процеси, вирішуючи складні питання від підключення даних, управління системами, контролю доступу до проектних робочих процесів до розробки виробничих робочих потоків.

З відкритих даних про клієнтів видно, що Tomoro вже обслуговувала такі великі міжнародні компанії, як Mattel, Red Bull, Tesco, Virgin Atlantic і Supercell.

У цих клієнтів є спільна риса: вони не є “технологічними інноваційними компаніями”.

Інакше кажучи, найсильніша сторона Tomoro — не тренування моделей у AI-лабораторіях, а перенесення AI із концептуальної стадії у реальні бізнес-процеси найскладніших і найвідповідальніших підприємств.

Цікаво, що у компанії Tomoro є ще одна приваблива ідея розвитку: побудова триденного робочого тижня. На головній сторінці свого сайту вони пишуть:

“Революція штучного інтелекту створює можливості для переформатування суспільства. Ми не спостерігачі, а творці — разом ми побудуємо світ, яким з гордістю будуть пишатися ми і наші нащадки.

Наше завдання — збалансувати продуктивність штучного інтелекту і цілі людства, зробивши триденний робочий тиждень реальністю.”

З погляду команди засновників, основний склад Tomoro — це фахівці з цифрової трансформації підприємств, хмарної інфраструктури та AI-застосувань, що є типовим “комплексним” колективом, який добре розуміє моделі і системи перетворення бізнесу.

На офіційній сторінці Tomoro зазначено, що вони наймають інженерів у Австралії, Сінгапурі, Великій Британії та інших країнах.

Чому OpenAI раптово вкладає великі кошти у розгортання?

Логіка тут не складна: клієнти купують не моделі, а результати.

Головний директор з доходів OpenAI, Деніз Дессер, каже: “AI стає дедалі здатнішим виконувати важливіші внутрішні задачі організацій. Зараз виклик — допомогти компаніям інтегрувати ці системи у їхню інфраструктуру та робочі процеси. Компанія з розгортання AI має допомогти закрити цей розрив і перетворити можливості AI у реальний операційний вплив.”

Деніз Дессер і її команда вже усвідомили, що на даний момент найважливішим є саме “впровадження” — здатність компаній застосовувати AI у своїй роботі.

Хоча ChatGPT вже досяг значних успіхів у споживчому сегменті, у корпоративному ринку за минулий рік Anthropic швидко зросла завдяки серії Claude, закріпившись у свідомості розробників і бізнес-клієнтів. Навіть раніше цього року внутрішньо OpenAI визнавала, що зростання Anthropic створює для компанії суттєвий тиск.

За даними Reuters, під час внутрішньої наради керівник бізнесу застосунків OpenAI, Фіджі Сімо, чітко заявила співробітникам:

“Зростання Anthropic має стати для OpenAI “дзвінком тривоги”.”

Вона наголосила, що компанія має зосередити ресурси на підвищенні виробничої здатності підприємств, а не розпорошуватися на численні продукти.

У певному сенсі, компанія з розгортання AI — це результат стратегічної оборонної тактики.

Звісно, Anthropic теж не сидить склавши руки.

Минулого тижня вона оголосила про створення спільного підприємства, яке зосереджене на розгортанні корпоративних AI-сервісів, у співучасті з Blackstone, Hellman & Friedman і Goldman Sachs.

Це спільне підприємство оцінюється у 1,5 мільярда доларів, і Anthropic, Blackstone та Hellman & Friedman інвестували по 300 мільйонів доларів. Інші інвестори — Apollo Global Management, General Atlantic, GIC (інвестиційний фонд уряду Сінгапуру), Leonard Green і Suko Capital.

Це означає, що почалася активна боротьба за “застосування AI у бізнесі” через злиття і поглинання.

Якщо раніше конкуренція йшла за створення найкращих моделей, то тепер вона зосереджена на тому, хто швидше зможе інтегрувати їх у реальні бізнес-процеси.

Чому попит на традиційних інженерів стрімко падає, а інженери з розгортання стають популярними?

Ця зміна вже відчутна на ринку праці.

Коли “впровадження моделей у реальні бізнес-процеси” стає ключовим фактором успіху, попит на традиційних програмістів, що займаються лише написанням коду і не мають безпосереднього зв’язку з бізнесом, зменшується. Натомість зростає попит на інженерів з розгортання, здатних глибоко працювати з клієнтами, інтегрувати системи і забезпечувати їхнє впровадження.

Розглянемо дві яскраві порівняльні статистики: у першому кварталі 2025 року кількість вакансій для традиційних інженерів знизилася приблизно на 70%, тоді як попит на фронтових інженерів з розгортання (Forward Deployed Engineers, FDE) зріс з близько 800% до приблизно 1000%. Це чітко відображає фундаментальні зміни у галузі.

Чому попит на традиційних інженерів зменшується, а інженери з розгортання — стають “золотим дном”?

Відповідь у тому, що успіх проекту тепер залежить на 60–70% від “впровадження”, а не лише від технічних навичок і кодування. Важливо вміти спільно з клієнтом інноваційно застосовувати рішення. Адаптивність, лідерські якості і м’які навички стають не менш важливими, а швидке впровадження ітерацій — ключовими. Основний бар’єр змістився з “технічних можливостей” у сферу “застосування”. Допомога клієнтам у переробці робочих процесів і систем для майбутніх потреб — це головна задача.

Однак, компаніям важко самостійно впроваджувати AI, оскільки справжніх фахівців, що глибоко розуміють AI, дуже мало. Крім того, знання AI недостатньо — потрібно ще розуміти архітектуру систем і цілі компанії.

Об’єднання цих навичок і знань — шлях до успіху. Відсутність навичок розгортання і уваги до деталей — це саме те, що мають фронтові інженери з розгортання.

Навіть якщо на ринку є готові рішення, клієнтам все одно потрібні великі налаштування і доопрацювання. Без FDE, що працює разом із клієнтом, глибоко розуміє його продукти і архітектуру, проекту важко досягти успіху. Практика показує, що AI-проекти з участю FDE мають значно вищий рівень повернення інвестицій і ймовірність успіху.

Чому ж традиційна модель доставки вже не працює?

Стандартний процес продажу софту — розробка продукту → передача його від продажу → просування клієнту → спроба встановлення (можливо, за допомогою служби підтримки) → клієнт самостійно шукає рішення. Така модель ігнорує найважливіший елемент: реальне середовище клієнта завжди “особливе і складне”.

Але всі ми знаємо: супровід — це найщиріша форма підтримки.

Модель FDE — це не просто передача продукту і “відходження у сторону”, а безпосереднє розміщення найкращих інженерів у компанії клієнта. Вони разом із менеджерами, що ведуть документацію, доставляють справжній код, створюють кастомізовані інтеграції, налаштовують системи для роботи у специфічних умовах клієнта. Це і є “передове розгортання”: інженер тепер працює всередині компанії.

Ця модель працює тому, що вона базується на простій ідеї: такі FDE — це фахівці, які розуміють принцип роботи моделей і систем, а клієнтські інженери — добре знають свою компанію: структуру даних, вимоги до відповідності, внутрішню політику і конкретні проблеми. Жодна сторона не може діяти самостійно. FDE створює платформу для спільної роботи двох систем знань, що дозволяє знайти справді ефективне рішення.

Цей підхід особливо корисний для клієнтів із “особливими і складними” задачами: лікарні, банки, оборонні структури, великі фінансові установи. Вони мають застарілі системи, підпадають під регуляторні обмеження, а їхні внутрішні процеси при проектуванні не враховували AI.

Можна сказати і так: зменшення попиту на традиційних інженерів не означає, що технології втрачають значення, — навпаки, змінюється визначення “інженера”. Ті, хто здатен глибоко працювати з клієнтами, швидко ітеративно впроваджувати рішення і спільно інновувати, — це найзатребуваніші фахівці епохи AI.

У такому контексті, які навички має мати інженер з розгортання?

У подкасті OpenAI платформний інженер Шервін Ву і менеджер продукту Олів’є Годеман детально обговорили ключові вимоги до FDE.

У високонастройних і високобезпечних сценаріях розгортання, наприклад у фізично ізольованих середовищах національних лабораторій, інженери демонструють низку важливих навичок.

З одного боку, вони мають міцні практичні знання фізичної інфраструктури і низькорівневого розгортання: можуть не лише встановлювати і запускати моделі на специфічному обладнанні і мережевих стекових, а й у дуже суворих умовах безпеки — наприклад, у “газових зазорах”, забороняючи будь-які електронні пристрої, — фізично переносити ваги моделей на суперкомп’ютери через фізичний носій.

З іншого боку, вони мають глибокі навички кастомізації і інженерії, здатні тісно співпрацювати з командами розробників, виконуючи “чисте ручне” налаштування і адаптацію під конкретне обладнання, наприклад Venado, а також володіють агентським інжинірингом (Agentic Engineering), що включає управління оркестрацією, пам’яттю і складними процесами передачі задач, забезпечуючи стабільну і ефективну роботу моделей навіть у високозахищених середовищах.

Крім того, команда OpenAI зазначає, що успішне розгортання базується не лише на технічних навичках інженерів, а й на організаційних характеристиках:

“Штурмові групи” (Tiger Teams):

  • Розгортання вимагає не лише технічних експертів, а й тих, хто володіє “інституційними знаннями” (Institutional Knowledge).

  • Склад: це команда з технічних фахівців, експертів з різних галузей (SME) і тих, хто добре знає внутрішні процеси організації. Адже більшість ключових знань (SOP, стандартні операційні процедури) зберігається у головах досвідчених співробітників, а не у документації.

Система оцінювання знизу вгору (Evals First):

  • Чітке визначення цілей: успішне розгортання починається з визначення, що саме вважається “успіхом”.

  • Водій знизу: стандарти оцінки не можна нав’язати зверху, їх мають формулювати безпосередні виконавці, які знають реальні сценарії і проблеми.

Зміна ролей: від “інструменту” до “партнера з мислення”:

  • Вдале розгортання дозволяє глибоко інтегрувати модель у робочі процеси дослідницьких лабораторій. У випадку з національними лабораторіями, інженери сприяють тому, щоб модель стала “партнером з мислення” (Thought Partner), допомагаючи у проектуванні експериментів і аналізі складних даних.

Роль FDE і інженерів з розгортання вже перетворилася з простого “інсталятора” у “універсального технічного консультанта + архітектора + галузевого експерта”. Вони мають не лише запускати моделі, а й вирішувати, як у найскладніших фізичних умовах зробити так, щоб AI глибоко проник у ядро бізнесу клієнта (навіть у неофіційні, бездокументальні процеси).

Виробники моделей у боротьбі за клієнта: перехід до “інфраструктурної” конкуренції

Якщо поглянути глибше, це дуже схоже на шлях, яким пройшли Palantir протягом останніх десяти років.

Головна конкурентна перевага Palantir — не продаж ліцензій на софт, а розміщення інженерів безпосередньо у клієнтів для глибокого розуміння бізнес-процесів і інтеграції технологій у структуру організації.

Компанії на кшталт OpenAI і Anthropic зараз явно копіюють цю модель, адже вона приховує істинний факт: фронтове розгортання (FDE) має набагато більшу “залежність” і “зачеплення” клієнта, ніж будь-який SaaS.

Коли компанія встановлює CRM-систему, теоретично вона може перейти до конкурента, хоча й із труднощами; але коли команда з розгортання AI витрачає 6 місяців на створення глибокої інтеграції внутрішніх даних, робочих процесів і систем відповідності, ця система перетворюється на інфраструктуру, що підтримує бізнес. Вона вже важко зняти, і компанія буде постійно залежати від цієї команди для обслуговування, оновлення і вдосконалення.

Саме ця стратегія робить модель FDE дуже привабливою для Anthropic і OpenAI — вони прагнуть зробити таку інфраструктуру невід’ємною частиною бізнесу клієнта, щоб її було важко “зняти” і замінити.

Крім того, важливий фактор — час. За даними великих дата-центрів, капітальні витрати на інфраструктуру зростають швидше, ніж будь-коли раніше: Morgan Stanley підвищила прогноз капітальних витрат п’яти найбільших гігантів до 805 мільярдів доларів у 2026 році і до 1,1 трильйона доларів у 2027. Лише у першому кварталі 2026 року витрати семи найбільших операторів перевищили 400 мільярдів доларів, а за оцінками, накопичені замовлення сягають 1,3 трильйона.

Це свідчить, що попит значно перевищує пропозицію, і у довгостроковій перспективі вже не обмежують можливості моделей або обчислювальні ресурси, а — здатність швидко і ефективно розгортати системи.

Тому, хто зможе освоїти методи масштабного розгортання у складних структурах і через кастомізовану інтеграцію зробити системи дійсно функціональними, — той і зможе захопити цінність, яку створює інфраструктура. У моделі FDE справжнім дефіцитом є не здатність створювати моделі, а досвід у розгортанні. Це цікаво змінює логіку ціноутворення: від ліцензійної до оплати за споживання токенів.

У моделі FDE ви продаєте не просто “місце” або “ліцензію”, а вже розгорнуту систему, яка з часом буде споживати токени у міру використання. Важливість “залежності” від системи — це ключ до довгострокової стабільності доходів від токенів.

Джерело статті: InfoQ

Попередження про ризики та умови звільнення

Ринок має ризики, інвестиції — під власну відповідальність. Ця стаття не є інвестиційною рекомендацією і не враховує індивідуальні цілі, фінансовий стан або потреби користувачів. Користувачі мають самостійно оцінити відповідність будь-яких думок, поглядів або висновків своїй ситуації.

Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Репост
  • Поділіться
Прокоментувати
Додати коментар
Додати коментар
Немає коментарів
  • Закріпити