Фьючерсы
Доступ к сотням фьючерсов
TradFi
Золото
Одна платформа мировых активов
Опционы
Hot
Торги опционами Vanilla в европейском стиле
Единый счет
Увеличьте эффективность вашего капитала
Демо-торговля
Введение в торговлю фьючерсами
Подготовьтесь к торговле фьючерсами
Фьючерсные события
Получайте награды в событиях
Демо-торговля
Используйте виртуальные средства для торговли без риска
Запуск
CandyDrop
Собирайте конфеты, чтобы заработать аирдропы
Launchpool
Быстрый стейкинг, заработайте потенциальные новые токены
HODLer Airdrop
Удерживайте GT и получайте огромные аирдропы бесплатно
Launchpad
Будьте готовы к следующему крупному токен-проекту
Alpha Points
Торгуйте и получайте аирдропы
Фьючерсные баллы
Зарабатывайте баллы и получайте награды аирдропа
Инвестиции
Simple Earn
Зарабатывайте проценты с помощью неиспользуемых токенов
Автоинвест.
Автоинвестиции на регулярной основе.
Бивалютные инвестиции
Доход от волатильности рынка
Мягкий стейкинг
Получайте вознаграждения с помощью гибкого стейкинга
Криптозаймы
0 Fees
Заложите одну криптовалюту, чтобы занять другую
Центр кредитования
Единый центр кредитования
«Сколько вычислительной мощности купить? Всё»: соучредитель OpenAI заявил, что 110 миллиардов долларов всё ещё не удовлетворяют спрос, предварительное обучение уже переходит к совместной оптимизации затрат
Согласно мониторингу 1M AI News, сооснователь OpenAI Грег Брокман в интервью вспомнил о скачкообразном улучшении AI-программирования в декабре 2025 года. Он измерял прогресс с помощью тестового промпта, который он много лет бережно сохранял: попросить AI построить сайт, на изучение программирования и создание которого в те годы у него ушло несколько месяцев. В течение всего 2025 года для выполнения этой задачи требовались многократные подсказки и около четырех часов; к декабрю это стало решаться одним промптом, и при этом качество было очень хорошим. Он сказал, что новая модель перевела AI с «способности выполнять примерно 20% задач» на «примерно 80%», и этот скачок заставил всех «обязательно перестроить рабочие процессы вокруг AI».
Относительно того, куда направляются 110 миллиардов долларов финансирования, Брокман сравнил вычислительные мощности с «наймом продавцов»: если у продукта есть масштабируемые каналы продаж, то чем больше продавцов нанимать, тем больше дохода они принесут. Вычислительные мощности — не центр затрат, а центр доходов. Он вспоминает разговор с командой накануне выхода ChatGPT: «Они спрашивали: “Сколько вычислительных мощностей нам нужно купить?” Я говорил: “Все”. Они отвечали: “Нет-нет-нет, серьезно, сколько именно?” Я говорил: “Как бы мы ни строили, мы не успеем за спросом”.» Это суждение актуально и по сей день, а закупка вычислительных мощностей требует заранее зафиксировать планы на 18–24 месяца.
Рассказывая о том, как использовать эти вычислительные мощности, Брокман сообщил, что OpenAI больше не стремится в первую очередь к максимальному масштабу предварительного обучения, а рассматривает предварительное обучение и стоимость вывода как совместно оптимизируемые цели: «Вам не обязательно делать это максимально большим, потому что вам нужно учитывать многочисленные сценарии вывода в downstream, где вы действительно хотите получить оптимальное решение — “интеллект, умноженный на стоимость”». Но он четко выступил против тезиса «предварительное обучение больше не важно»: чем умнее базовая модель, тем выше эффективность последующих этапов обучения с подкреплением и вывода, и по-прежнему «абсолютно необходимо» использовать GPU NVIDIA для поддержки масштабного централизованного обучения.