Фьючерсы
Доступ к сотням фьючерсов
TradFi
Золото
Одна платформа мировых активов
Опционы
Hot
Торги опционами Vanilla в европейском стиле
Единый счет
Увеличьте эффективность вашего капитала
Демо-торговля
Введение в торговлю фьючерсами
Подготовьтесь к торговле фьючерсами
Фьючерсные события
Получайте награды в событиях
Демо-торговля
Используйте виртуальные средства для торговли без риска
Запуск
CandyDrop
Собирайте конфеты, чтобы заработать аирдропы
Launchpool
Быстрый стейкинг, заработайте потенциальные новые токены
HODLer Airdrop
Удерживайте GT и получайте огромные аирдропы бесплатно
Launchpad
Будьте готовы к следующему крупному токен-проекту
Alpha Points
Торгуйте и получайте аирдропы
Фьючерсные баллы
Зарабатывайте баллы и получайте награды аирдропа
Инвестиции
Simple Earn
Зарабатывайте проценты с помощью неиспользуемых токенов
Автоинвест.
Автоинвестиции на регулярной основе.
Бивалютные инвестиции
Доход от волатильности рынка
Мягкий стейкинг
Получайте вознаграждения с помощью гибкого стейкинга
Криптозаймы
0 Fees
Заложите одну криптовалюту, чтобы занять другую
Центр кредитования
Единый центр кредитования
Барьеры стоимости ИИ: как экономика инфраструктуры изменит следующий этап рынка
Источник: International Business Times UK
Автор оригинала: Anastasia Matveeva |
Редакция и перевод: Gonka.ai
ИИ расширяется с поразительной скоростью, но его базовая экономическая логика гораздо более хрупка, чем кажется на первый взгляд. Когда три облачных гиганта контролируют две трети всей вычислительной мощности, когда стоимость обучения достигает сотен миллионов долларов, а счета за выводы вызывают шок у стартапов — истинная цена этой гонки за вычислительные ресурсы тихо меняет распределение ценностей всей индустрии ИИ.
Эта статья не о том, кто создаст самую передовую модель. Она поднимает более фундаментальный вопрос: является ли экономическая модель текущей инфраструктуры ИИ действительно устойчивой после масштабирования? Как изменения в механизмах распределения вычислительных ресурсов повлияют на перераспределение ценности на рынке?
Обучение передовой крупной модели стоит десятки миллионов, а порой и сотни миллионов долларов. Anthropic публично заявлял, что обучение Claude 3.5 Sonnet обошлось в «десятки миллионов долларов», а его CEO Dario Amodei ранее прогнозировал, что следующая генерация моделей может стоить около 1 миллиарда долларов. По данным отраслевых СМИ, обучение GPT-4, вероятно, превысило 100 миллионов долларов.
Однако, стоимость обучения — лишь вершина айсберга. На самом деле, структурное давление оказывает стоимость вывода — то есть расходы при каждом вызове модели. Согласно публичным ценам OpenAI, оплата за вывод идёт по миллиону токенов. Для приложений с высоким спросом это означает, что даже до масштабирования ежедневные расходы на вывод могут достигать тысяч долларов.
ИИ часто называют программным обеспечением. Но его экономическая природа всё больше напоминает капиталоемкую инфраструктуру — с большими первоначальными вложениями и постоянными операционными затратами.
Эта смена экономической модели тихо меняет конкурентный ландшафт индустрии. Те, кто может позволить себе вычислительные ресурсы, — это крупные корпорации с уже построенной инфраструктурой; а стартапы, пытающиеся выжить в условиях растущих счетов за вывод, постепенно теряют свои позиции.
По данным Holori за 2026 год, AWS занимает около 33% мирового рынка облачных услуг, Microsoft Azure — около 22%, Google Cloud — около 11%. Три гиганта контролируют примерно две трети глобальной облачной инфраструктуры, а большинство AI-работных нагрузок работают именно на их платформах.
Это означает: при сбое API OpenAI тысячи продуктов одновременно оказываются под ударом; при сбое крупного облачного провайдера — страдают услуги в разных отраслях и регионах.
Концентрация не сокращается, а расходы на инфраструктуру продолжают расти. Например, у Nvidia годовой доход от дата-центров превысил 80 миллиардов долларов, что свидетельствует о постоянном высоком спросе на высокопроизводительные GPU.
Особое внимание заслуживает скрытая структурная неравномерность. Согласно отчетам SEC и рыночным данным, ведущие лаборатории, такие как OpenAI и Anthropic, заключают соглашения на «обмен акциями на вычислительные мощности» на сотни миллионов долларов, по которым GPU-ресурсы закупаются по минимальной цене — 1,30–1,90 долларов в час. Тогда как малые и средние компании, не имеющие стратегических партнерств с Nvidia, Microsoft или Amazon, вынуждены покупать по цене свыше 14 долларов в час — с наценкой до 600%.
Этот ценовой разрыв обусловлен недавними стратегическими инвестициями Nvidia в ведущие лаборатории на сумму около 40 миллиардов долларов. Получение доступа к инфраструктуре всё больше зависит от капиталоемких закупочных соглашений, а не от открытой конкуренции на рынке.
На ранних этапах такой центрированный подход кажется «эффективным». Но после масштабирования он порождает риски ценового скачка, узких мест в поставках и зависимости от инфраструктуры — совокупность трёх уязвимостей.
Еще один часто игнорируемый фактор стоимости инфраструктуры — энергия.
По данным Международного энергетического агентства (IEA), дата-центры сейчас потребляют около 1–1,5% всей мировой электроэнергии, и рост спроса, вызванный развитием ИИ, может значительно увеличить этот показатель в ближайшие годы.
Это означает, что экономика вычислений — не только финансовая проблема, но и инфраструктурная и энергетическая. По мере расширения AI-нагрузок, геополитика энергетики станет все более важной: какая страна сможет обеспечить самую дешевую и стабильную энергию — получит стратегическое преимущество в индустрии ИИ.
Когда Jensen Huang объявил на GTC26, что заказов Nvidia на сумму свыше 1 трлн долларов, он говорил не только о коммерческом успехе компании, а о масштабном процессе превращения электроэнергии, земли и редких минералов в интеллектуальные вычислительные мощности.
Параллельно с расширением централизованных дата-центров начинают появляться альтернативные подходы — попытки кардинально переосмыслить организацию ресурсов.
Децентрализованный вывод: структурная альтернатива
Примером является протокол Gonka — одна из таких инициатив. Это децентрализованная сеть, специально созданная для AI-выводов, с целью минимизировать издержки синхронизации и консенсуса, направляя как можно больше ресурсов на реальные AI-работы.
В управлении Gonka действует принцип «один вычислительный блок — один голос» — влияние на решения определяется объемом подтвержденных вычислительных мощностей, а не долей капитала. Технически, протокол использует короткие циклы оценки производительности (Sprint), в которых участники демонстрируют реальную GPU-вычислительную мощность через механизм Proof of Work (PoW) на базе трансформеров.
Эта идея заключается в том, что почти вся сеть направлена на выполнение AI-выводов, а не на поддержание консенсуса или коммуникацию — то есть, ресурсы не расходуются на инфраструктурные издержки.
Экономика распределенной вычислительной сети
С точки зрения экономики, ценность децентрализованных сетей состоит в трех уровнях.
Первый — издержки. Ценообразование у централизованных облачных провайдеров включает амортизацию фиксированных активов, операционные расходы и прибыль. Децентрализные сети позволяют монетизировать простаивающие GPU, значительно снижая эти издержки. Например, через их платёжный шлюз GonkaGate стоимость вывода составляет около 0,0009 долларов за миллион токенов — тогда как у централизованных сервисов, таких как Together AI, цена на аналогичные модели достигает 1,50 долларов, разница в тысячу раз.
Второй — эластичность предложения. У централизованных провайдеров мощность фиксирована, расширение происходит месяцами или кварталами. В децентрализных сетях участники могут подключаться и отключаться по мере необходимости, что позволяет быстрее реагировать на пики спроса — как это было с Amazon Web Services во время праздничных распродаж, так и при колебаниях нагрузки AI-выводов.
Третий — суверенитет. Особенно важен для государств. Когда государственные услуги сильно зависят от внешних облачных провайдеров, вычислительная мощность становится стратегической уязвимостью. Децентрализованные сети позволяют локальным дата-центрам стать узлами глобальной распределенной системы, сохраняя суверенитет данных и одновременно получая коммерческую отдачу через предоставление вычислительных ресурсов на глобальном рынке.
Возвращаясь к вопросу в начале: действительно ли экономическая модель инфраструктуры ИИ после масштабирования устойчива?
Ответ — да, для лидеров рынка; для остальных — всё менее.
AWS, Azure, Google Cloud создали за десятилетия капиталовые барьеры, и их масштабное превосходство в краткосрочной перспективе практически невозможно разрушить. Но эта структура порождает высокую концентрацию власти: контроль над ценами, доступом к данным и инфраструктурой сосредоточен у немногих.
История показывает, что каждое крупное монополистическое инфраструктурное решение рано или поздно порождает альтернативные распределённые архитектуры — интернет — это протест против телекоммуникационных монополий, BitTorrent — против централизации распространения контента, а биткоин — против централизованного выпуска валют.
Децентрализация инфраструктуры ИИ — не просто идеологический выбор, а экономическая необходимость. Когда затраты на централизованные решения станут настолько высоки, что начнут вытеснять массовое использование, появятся реальные альтернативы. Как сказал Jensen Huang, «каждая финансовая кризисная ситуация толкает всё больше людей к биткоину» — этот принцип применим и к рынку вычислительных мощностей.
Появление DeepSeek уже доказало: в мире, где открытые модели приближаются к закрытым, стоимость вывода становится ключевым фактором скорости масштабирования AI-приложений. Кто сможет предложить самые низкие издержки и максимальную доступность — тот и выиграет в этой гонке.
Заключение: битва за инфраструктуру только начинается
Следующий этап конкуренции в AI не будет определяться рейтингами моделей по возможностям, а — в экономической борьбе за инфраструктуру.
Крупные централизованные игроки обладают капиталом и масштабом, но несут фиксированные издержки и давление на цены. Децентрализованные сети с минимальными издержками пытаются войти на рынок, доказывая свою стабильность, удобство и масштабируемость.
Два подхода будут сосуществовать долгое время, оказывая друг на друга давление. Напряженность между централизованными и децентрализованными решениями — одна из ключевых структурных тем развития AI в ближайшие пять лет.
Эта битва за инфраструктуру только начинается.