Соучредитель OpenAI утверждает, что $110 миллиардов все еще не хватает для удовлетворения спроса, предварительная подготовка переходит к затратам на совместную оптимизацию

robot
Генерация тезисов в процессе

Согласно мониторингу 1M AI News, сооснователь OpenAI Грег Брокман в ходе интервью рассказал о скачке в возможностях ИИ-программирования, ожидаемом к декабрю 2025 года. Он использовал тестовый промпт, который держал у себя годами, чтобы измерять прогресс: попросил ИИ собрать веб-сайт, на который ему тогда, когда он учился программированию, уходили месяцы. На протяжении 2025 года эта задача требовала нескольких промптов и около четырех часов, а к декабрю ее можно было завершить одним промптом и с высоким качеством. Он заявил, что новая модель позволила ИИ перейти от «способности выполнять примерно 20% задач» к «примерно 80%», и этот сдвиг заставляет всех «перестроить рабочие процессы вокруг ИИ». Касаясь распределения финансирования в размере $110 млрд, Брокман сравнил вычислительные мощности с «наймом продавцов»: пока у продукта есть масштабируемый канал продаж, наем большего числа продавцов может приносить больше выручки. Вычислительные мощности — это не статья затрат, а статья выручки. Он вспомнил разговор с командой накануне релиза ChatGPT: «Они спросили: “Сколько вычислительных мощностей нам нужно купить?” Я сказал: “Все”. Они ответили: “Нет, нет, нет, серьезно, сколько нам нужно купить?” Я сказал: “Независимо от того, как мы это строим, мы не будем успевать за спросом”. Это суждение справедливо и сегодня, и закупку вычислительных мощностей нужно фиксировать заранее — за 18–24 месяца. Относительно того, как использовать эти вычислительные мощности, Брокман раскрыл, что OpenAI больше не только стремится к максимальному масштабу дообучения, а вместо этого совместно оптимизирует возможности дообучения и затраты на инференс: “Вам не обязательно делать это как можно большим, потому что вам также нужно учитывать многочисленные downstream-сценарии использования инференса; вам действительно нужно оптимальное решение интеллекта, умноженного на стоимость”. Однако он твердо выступил против идеи, что “дообучение больше не важно”, считая, что чем умнее базовая модель, тем выше эффективность последующих этапов reinforcement learning и инференса, и что по-прежнему есть “абсолютная необходимость” в Nvidia GPU для поддержки крупномасштабного централизованного обучения.

Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Репост
  • Поделиться
комментарий
Добавить комментарий
Добавить комментарий
Нет комментариев
  • Закрепить