«Сколько вычислительной мощности купить? Всё»: соучредитель OpenAI заявил, что 110 миллиардов долларов всё ещё не удовлетворяют спрос, предварительное обучение уже переходит к совместной оптимизации затрат

robot
Генерация тезисов в процессе

Согласно мониторингу 1M AI News, сооснователь OpenAI Грег Брокман в интервью вспомнил о скачкообразном улучшении AI-программирования в декабре 2025 года. Он измерял прогресс с помощью тестового промпта, который он много лет бережно сохранял: попросить AI построить сайт, на изучение программирования и создание которого в те годы у него ушло несколько месяцев. В течение всего 2025 года для выполнения этой задачи требовались многократные подсказки и около четырех часов; к декабрю это стало решаться одним промптом, и при этом качество было очень хорошим. Он сказал, что новая модель перевела AI с «способности выполнять примерно 20% задач» на «примерно 80%», и этот скачок заставил всех «обязательно перестроить рабочие процессы вокруг AI».

Относительно того, куда направляются 110 миллиардов долларов финансирования, Брокман сравнил вычислительные мощности с «наймом продавцов»: если у продукта есть масштабируемые каналы продаж, то чем больше продавцов нанимать, тем больше дохода они принесут. Вычислительные мощности — не центр затрат, а центр доходов. Он вспоминает разговор с командой накануне выхода ChatGPT: «Они спрашивали: “Сколько вычислительных мощностей нам нужно купить?” Я говорил: “Все”. Они отвечали: “Нет-нет-нет, серьезно, сколько именно?” Я говорил: “Как бы мы ни строили, мы не успеем за спросом”.» Это суждение актуально и по сей день, а закупка вычислительных мощностей требует заранее зафиксировать планы на 18–24 месяца.

Рассказывая о том, как использовать эти вычислительные мощности, Брокман сообщил, что OpenAI больше не стремится в первую очередь к максимальному масштабу предварительного обучения, а рассматривает предварительное обучение и стоимость вывода как совместно оптимизируемые цели: «Вам не обязательно делать это максимально большим, потому что вам нужно учитывать многочисленные сценарии вывода в downstream, где вы действительно хотите получить оптимальное решение — “интеллект, умноженный на стоимость”». Но он четко выступил против тезиса «предварительное обучение больше не важно»: чем умнее базовая модель, тем выше эффективность последующих этапов обучения с подкреплением и вывода, и по-прежнему «абсолютно необходимо» использовать GPU NVIDIA для поддержки масштабного централизованного обучения.

Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Репост
  • Поделиться
комментарий
Добавить комментарий
Добавить комментарий
Нет комментариев
  • Закрепить