Ф'ючерси
Сотні безстрокових контрактів
TradFi
Золото
Одна платформа для світових активів
Опціони
Hot
Торгівля ванільними опціонами європейського зразка
Єдиний рахунок
Максимізуйте ефективність вашого капіталу
Демо торгівля
Вступ до ф'ючерсної торгівлі
Підготуйтеся до ф’ючерсної торгівлі
Ф'ючерсні події
Заробляйте, беручи участь в подіях
Демо торгівля
Використовуйте віртуальні кошти для безризикової торгівлі
Запуск
CandyDrop
Збирайте цукерки, щоб заробити аірдропи
Launchpool
Швидкий стейкінг, заробляйте нові токени
HODLer Airdrop
Утримуйте GT і отримуйте масові аірдропи безкоштовно
Pre-IPOs
Отримайте повний доступ до глобальних IPO акцій.
Alpha Поінти
Ончейн-торгівля та аірдропи
Ф'ючерсні бали
Заробляйте фʼючерсні бали та отримуйте аірдроп-винагороди
Інвестиції
Simple Earn
Заробляйте відсотки за допомогою неактивних токенів
Автоінвестування
Автоматичне інвестування на регулярній основі
Подвійні інвестиції
Прибуток від волатильності ринку
Soft Staking
Earn rewards with flexible staking
Криптопозика
0 Fees
Заставте одну криптовалюту, щоб позичити іншу
Центр кредитування
Єдиний центр кредитування
Центр багатства VIP
Преміальні плани зростання капіталу
Управління приватним капіталом
Розподіл преміальних активів
Квантовий фонд
Квантові стратегії найвищого рівня
Стейкінг
Стейкайте криптовалюту, щоб заробляти на продуктах PoS
Розумне кредитне плече
Кредитне плече без ліквідації
Випуск GUSD
Мінтинг GUSD для прибутку RWA
Акції
AI
Gate AI
Ваш універсальний AI-помічник для спілкування
Gate AI Bot
Використовуйте Gate AI безпосередньо у своєму соціальному додатку
GateClaw
Gate Блакитний Лобстер — готовий до використання
Gate for AI Agent
AI-інфраструктура, Gate MCP, Skills і CLI
Gate Skills Hub
Понад 10 000 навичок
Від офісу до трейдингу: універсальна база навичок для ефективнішої роботи з AI
GateRouter
Розумний вибір із понад 30 моделей ШІ, без додаткових витрат (0%)
DeepSeek V4 за лаштунками: Кремнієва долина «будує стіни», Китай «будує дороги»
null
Письмо | Alter
Уранці 24 квітня, запізнілий DeepSeek V4 нарешті з’явився на світ.
В цей день DeepSeek-V4-Pro одразу очолив рейтинг відкритих моделей Hugging Face, і дві “ядерні інновації” стали предметом обговорення:
по-перше, понад мільйонний довгий контекст, але KV кеш лише 10% від V3.2, що отримало похвалу інженерів Amazon за вирішення проблеми дефіциту HBM;
по-друге, адаптація під вітчизняні чіпи, у процесі розробки тісно співпрацюючи з Huawei, і першими адаптувавши чіпи з серій昇腾,寒武纪 та інші.
Випадково, друге місце у рейтингу відкритих моделей Hugging Face займає саме Kimi K2.6, випущена та відкрито з 20 квітня пізно вночі.
Якщо дивитись через Тихий океан, то “зіткнення” двох моделей з мільярдами параметрів, без сумніву, супроводжувалося б взаємною критикою щодо оцінки та бізнес-імперії, але в країні відбувається зовсім інше: без сценічних розкриттів, без підводних PR-кампаній, навіть на технічному рівні відбувається “зміна оборони”.
За “незвичайним” криється розбіжність у підходах США та Китаю до AI-технологій: Кремнієва долина шалено намагається “звести високі стіни”, щоб захистити свої інтереси закритим кодом; вітчизняні виробники моделей обирають “зруйнувати стіни”, розвиваючись на відкритому ґрунті у співпраці та спільній еволюції.
01 Кремнієва долина у пастці “ігри влади”
На відміну від внутрішнього відкритого шляху розвитку великих моделей, представлений OpenAI, Anthropic, Google Gemini, — всі вони прихильники закритого коду.
Передові технологічні інновації закриті у власних дата-центрах, і через високі витрати на обчислювальні ресурси та очікування капітального ринку, “дух Кремнієвої долини”, що славиться відкритістю та співпрацею, поступово зникає, і гравці неминуче потрапляють у “грі нульової суми” — “ігру влади”.
За останні два роки, “таємна війна” переросла у відкриту боротьбу, найпоширенішим способом якої є “змагання за увагу”: у ключові моменти випуску нових продуктів конкурентів швидко випускають свої оновлення, щоб зменшити їхній вплив — це вже стандартна операція у Кремнієвій долині.
Ще в травні 2024 року OpenAI та Google одночасно випустили нові AI-продукти: одна сторона заявила, що GPT-4o — світовий лідер, інша — що сімейство Gemini охоплює весь екосистему та шляхи. Обидва CEO не могли залишитися байдужими і публічно знущалися один з одного у соцмережах.
Не лише з Google йде “боротьба”, але й конфлікт між OpenAI та Anthropic став ще гострішим: 16 квітня Anthropic випустила нову модель Claude Opus 4.7, а через дві години OpenAI оголосила про значне оновлення Codex, проголосивши “Codex для майже всього” ()). Зрозуміло, що “зіткнення у часі” — не випадковість, а ретельно спланована “засада” OpenAI проти Anthropic.
Крім “інформаційної боротьби”, у Кремнієвій долині поширені “битви” з відкриттям “старих ракет”: Anthropic 7 квітня оголосила про річний дохід у 30 мільярдів доларів, обігнавши OpenAI з 25 мільярдами.
Через тиждень головний комерційний директор OpenAI відкрито заявив, що заявлений Anthropic дохід — перебільшення, оскільки він використовує “метод суми”, і частки, що йдуть Amazon, Google та іншим хмарним сервісам, повністю враховані у його загальний дохід, що призвело до переоцінки приблизно на 8 мільярдів доларів.
Такий “розбір польотів” у внутрішніх листах — рідкість у технологічній галузі, і має на меті показати інвесторам, що міф про зростання Anthropic — перебільшений.
Якщо ворожнеча посилюється, вона може проникнути у кожне рішення.
Після того, як Anthropic відмовилася видалити певні безпекові умови з контракту з Pentagon, через кілька годин OpenAI оголосила про співпрацю з Міноборони США.
На “супербоулі” 2026 року Anthropic витратила значні кошти на рекламу з гаслом “Реклама входить у AI, але не у Claude”. Це — пряма відповідь OpenAI, яка почала тестувати рекламу…
Чому колись “співбратські” моделі перетворилися на ворогів?
Корінь — у внутрішній логіці закритої комерційної моделі: закрите ядро існування базується на створенні захисного валу, а його передумова — блокування поширення технологій і монополізація найпередовіших виробництв. До того ж, несумісність технологічних шляхів і протилежність продуктового нарративу природно формують рівновагу Неша: хто першим “заставить припинити вогонь”, той і зруйнує свій брендовий нарратив, і в підсумку потрапить у глибоку внутрішню боротьбу.
02 Відкритий рух — “спільна еволюція”
Повертаючись до внутрішнього контексту, сценарій зовсім інший.
Більше року тому, появи DeepSeek-R1, що зупинив бурхливий розвиток великих моделей, стала першим ударом по гонитві за “шістками” у цій галузі. І першим, хто почав активізувати екосистему відкритих моделей у Китаї, стала команда “шістки малих тигрів”. На відміну від Кремнієвої долини, DeepSeek не став “акулою”, що поїдає усіх у ставку, а активізував всю китайську екосистему моделей, і всі почали підтримувати відкритий код.
Яскравий приклад — історія “Місяця темряви”, що дуже співпадає з траєкторією DeepSeek: обидві команди почали у 2023 році, мають невелику кількість співробітників, але високий рівень талановитості, і є послідовниками закону масштабування.
У липні 2025 року “Місяць темряви” випустив першу у світі відкриту модель з мільярдом параметрів — Kimi K2, і у технічному звіті прямо зазначив, що використовував MLA-архітектуру DeepSeek. Для великих моделей головною проблемою довгого тексту є “стіна пам’яті”, а революційність MLA полягає у тому, що він майстерно зменшує KV кеш до понад 93%.
Завдяки “індустріальним стандартам”, внесеним DeepSeek, команда “Місяця темряви” змогла швидко знизити витрати на обчислення без повторного винаходу колеса.
Історія не закінчується.
Переглядаючи технічну документацію DeepSeek V4, можна побачити детальний опис архітектури моделі, одним із важливих оновлень є заміна більшості оптимізаторів з AdamW на Muon, що забезпечує швидше злиття та стабільніше навчання.
У технічній документації Kimi K2.6 також згадується Muon, і при однакових обсягах тренувань він забезпечує подвоєну ефективність.
Обидві моделі згадують Muon — оптимізатор, вперше запропонований незалежним дослідником Keller Jordan наприкінці 2024 року у блозі. Команда “Місяця темряви”, яка стикнулася з проблемами AdamW, на початку 2025 року зробила ключові інженерні покращення Muon, додавши Weight Decay, RMS-контроль та інше, і назвала його MuonClip.
“Місяць темряви” першою перевірила Muon на Kimi K2, і досягла стабільного тренування без “піків втрат”. DeepSeek при тренуванні V4 також використовував перевірений оптимізатор Muon.
Варто зазначити, що “спільна еволюція” відкритих моделей не веде до однорідності, а рухається шляхом “гармонійного різноманіття”.
Наприклад, DeepSeek-V4 зосереджений на розвитку ключових можливостей базової моделі, підвищуючи її продуктивність до рівня закритих флагманів; Kimi K2.6 зосереджений на інженерії агентів, вирішуючи проблему автономного довгострокового виконання, відкриваючи шлях до реальних виробничих застосувань.
У цьому процесі не було тривалих бізнес-переговорів, не було напружених патентних баталій. У відкритому середовищі технологічні інновації вільно течуть, і хто робить краще — той і користується.
Засвоюючи знання з відкритої екосистеми, вони доповнюють один одного у технологічному шляху. Вітчизняні виробники моделей демонструють світові інший можливий шлях, окрім Кремнієвої долини.
03 США “будують стіни”, Китай “будує дороги”
Після захоплення відкритої співпраці, потрібно чесно визнати реальність бізнесу.
Зараз річний дохід OpenAI та Anthropic перевищує сотні мільярдів доларів, тоді як провідні китайські виробники моделей лише перейшли межу у 100 мільйонів доларів.
Оцінка OpenAI на вторинному ринку — близько 880 мільярдів доларів, Anthropic — приблизно 1 трильйон, а оцінки Kimi та DeepSeek у нових раундах фінансування — 18 і 20 мільярдів відповідно.
Деякі вважають, що ринкова вартість китайських моделей недооцінена, інші — що “перетворити технологічну репутацію у реальні гроші” — це життєво важливий виклик для китайських компаній. І зараз активно обговорюється “ціна-якість” відкритого коду.
Щоб зрозуміти кінцевий результат, можна розглянути етапи конкуренції у великих моделях:
перший — “параметри та бенчмарки”. До квітня 2026 року цей етап майже завершився, і результати на рейтингах вже не мають суттєвої різниці.
другий — “ефективність тренування, витрати на inference, архітектурні інновації”. Це актуальний етап, і він є наслідком зростаючих витрат на обчислювальні ресурси.
третій — “агентна система, екосистема, розробники”. Коли токени перетворюються з безкоштовного трафіку у “пального” для виконання завдань, рівень розвитку екосистеми визначить долю.
Яке місце займають у цій системі відкриті моделі в Китаї? Ми знайшли дві порівняльні групи даних.
Перша — витрати на тренування.
У серпні 2025 року GPT-5 коштував понад 500 мільйонів доларів, тоді як Kimi K2 Thinking — близько 4,6 мільйонів доларів; DeepSeek не оприлюднив витрати на тренування V4, але V3 коштував лише 5,58 мільйонів доларів… Внутрішні ресурси китайських моделей — менше ніж у OpenAI, але вони створили моделі рівня.
Друга — обсяг викликів.
З 2026 року платформа OpenRouter показує, що під впливом агентських продуктів, таких як OpenClaw, глобальне споживання токенів зросло експоненційно, і “команда мрії” відкритого коду в Китаї, завдяки “зручності та дешевизні”, вже кілька тижнів випереджає США.
Причина очевидна.
Китайська відкриття екосистема вже запустила “зворотний цикл”: компанія А відкриває базові технології, компанія Б використовує та оптимізує їх, і результати повертає у екосистему. Якщо закриті моделі зростають лінійно на основі масивних обчислювальних ресурсів, то відкритий шлях — це експоненційне поширення технологічних інновацій.
За прогнозами JPMorgan, з 2025 по 2030 рік споживання токенів для AI- inference в Китаї зросте приблизно на 330% щороку, з 10 трильйонів у 2025 до 3900 трильйонів у 2030, що у 370 разів більше.
Отже, 2026 рік ще на початку AI-спалаху, і у наступні п’ять років з’явиться сотні разів більше можливостей для зростання — ще рано ставити крапку.
Саме впевненість у довгостроковій перспективі, у той час як гіганти Кремнієвої долини намагаються звести стіни, змушує китайських виробників моделей обирати шлях співпраці та зміцнення шляхів до AGI.
04 Підсумки
Хто з цієї AI-революції вийде переможцем? Відповідь — не лише у моделях, а й у контролі над обчислювальними ресурсами. Якщо порівнювати модель із “ядерною бомбою”, то здатність країни самостійно контролювати технології — це “ракета”, що здатна вивести її на новий рівень.
Радує, що інтеграція вітчизняних моделей і обчислювальних ресурсів стає все тіснішою: у технічній документації DeepSeek V4 згадуються NPU від昇腾 і GPU від NVIDIA у списку апаратного забезпечення; у новій статті “Місяць темряви” модель передбачає запуск довгого inference та декодування на різних чіпах, відкриваючи шлях до масштабної участі вітчизняних чіпів у моделях.
На початку 2025 року DeepSeek R1 дав можливість вітчизняним моделям потрапити на ринок; а до 2026 року, китайські відкриті моделі активно співпрацюють, створюючи нові “жорсткі” правила гри.