Ф'ючерси
Сотні безстрокових контрактів
TradFi
Золото
Одна платформа для світових активів
Опціони
Hot
Торгівля ванільними опціонами європейського зразка
Єдиний рахунок
Максимізуйте ефективність вашого капіталу
Демо торгівля
Вступ до ф'ючерсної торгівлі
Підготуйтеся до ф’ючерсної торгівлі
Ф'ючерсні події
Заробляйте, беручи участь в подіях
Демо торгівля
Використовуйте віртуальні кошти для безризикової торгівлі
Запуск
CandyDrop
Збирайте цукерки, щоб заробити аірдропи
Launchpool
Швидкий стейкінг, заробляйте нові токени
HODLer Airdrop
Утримуйте GT і отримуйте масові аірдропи безкоштовно
Launchpad
Будьте першими в наступному великому проекту токенів
Alpha Поінти
Ончейн-торгівля та аірдропи
Ф'ючерсні бали
Заробляйте фʼючерсні бали та отримуйте аірдроп-винагороди
Інвестиції
Simple Earn
Заробляйте відсотки за допомогою неактивних токенів
Автоінвестування
Автоматичне інвестування на регулярній основі
Подвійні інвестиції
Прибуток від волатильності ринку
Soft Staking
Earn rewards with flexible staking
Криптопозика
0 Fees
Заставте одну криптовалюту, щоб позичити іншу
Центр кредитування
Єдиний центр кредитування
Центр багатства VIP
Преміальні плани зростання капіталу
Управління приватним капіталом
Розподіл преміальних активів
Квантовий фонд
Квантові стратегії найвищого рівня
Стейкінг
Стейкайте криптовалюту, щоб заробляти на продуктах PoS
Розумне кредитне плече
Кредитне плече без ліквідації
Випуск GUSD
Мінтинг GUSD для прибутку RWA
Кімі не має прав на DeepSeek
文|阑夕
2024
Можливо, ви ще пам’ятаєте: у далекому, але не такому вже й далекому 2024 році Kimi була головною зіркою китайського AI-світу — інвестиції на 1 мільярд доларів, акції Kimi неодноразово злітали до цінових стель, вхідні дані на 2 мільйони слів витискали GPT, а агресивна стратегія промо-платного трафіку лише підливала олії у вогонь.
Але рівень отриманої тоді публічності значно перевищував їхній технологічний вплив.
Насправді той 2-мільйонний за обсягом тексту модель пізніше змогли використати зовсім небагато людей. Згодом стало відомо, що це була експериментальна модель: вартість кожного запуску сягала близько 3-значних чисел, і вона абсолютно не підходила для масштабного сервісу для користувачів.
Тогочасне технологічне середовище ставилося до Kimi зневажливо.
Але завдяки гучному «2 мільйони слів» Kimi все ж закріпила за собою ярлик «довгих текстів» і втерлася в людську уяву користувачів.
2025
На початку 2025 року DeepSeek несподівано з’явилася на сцені й справді стала «послом» китайського AI — завдяки силі технологій.
А до середини 2025-го Kimi майже вже рік не отримувала жодного фінансування. «Похоронні» наративи стали основною мелодією: співробітники почали звільнятися, а в індустрії цей стартап загалом уже поховали.
Якщо ви, починаючи із середини 2025 року, зачинилися на 9 місяців, а в березні 2026 року побачили новини:
Швидше за все, у вас відвисне щелепа.
Усі кажуть: «AI за день — а для світу це цілий рік», і за 9 місяців у сфері AI справді відбулося дуже багато.
Але в підсумку — одна річ: змінився парадигматичний підхід в AI-технологіях. Найпоширеніше, хоча й найлінивіше узагальнення цього зміщення звучить так: від Chat до Agent.
Для 30 мільйонів програмістів у всьому світі зміна в тому, що найбільш шанований інструмент з Cursor перейшов на Claude Code.
Для early adopter’ів, які завжди першими хапають нові технології, зміна — це ще частіше відкривати ту саму чорно-білу командну лінію (як у DOS).
Для AI-компаній зміна в тому, що всі поступово з’ясували: модель, яка краще вміє просто розмовляти, аж ніяк не настільки цінна, як модель, що вміє писати код і викликати інструменти.
Найкрутіший продукт змінився з ChatGPT на Claude Code, і найкрутіші стартапи теж: з OpenAI на Anthropic.
Повернімося до китайського ринку на початку 2025 року.
DeepSeek R1 вибухнула популярністю, бо відтворила й відкрила можливість OpenAI o1 «глибокого мислення». Паралельно з’явився й інший продукт «універсальний Agent» Manus…
Тоді більшість китайських AI-компаній були зайняті відтворенням DeepSeek R1 і запуском нових моделей, які вміють «глибоке мислення». Тільки небагато компаній усвідомили: модель, прихована за Manus, є тим, що справді варто «відтворювати», вкладаючи ресурси. Або вони це розуміли, але не виділили достатньо ресурсів, або не знайшли спосіб.
Одна з найбільших цінностей Manus — це візуалізація багаторазових (multi-round) можливостей викликів інструментів у Claude-моделі. Як один технічний експерт з компанії, що працює з великими моделями, написав у власному блозі: «Переважна більшість Agent-продуктів без Claude — це ніщо».
Лише до липня 2025 року в Китаї непомітно з’явилася перша модель, що робить ставку саме на Agent-можливості. 11 липня Kimi K2 вийшла з меседжем Open Agentic Intelligence. І тут очевидно заховані їхні амбіції: відтворити Agent-можливості Claude-моделі й відкрити їх для спільноти. Як DeepSeek R1 відтворила OpenAI o1 і теж відкрила це.
Через 5 днів після релізу — 16 липня — британський журнал Nature природно (саме так) оцінив цінність цієї моделі, назвавши її «ще одним DeepSeek-моментом».
Після 10 днів релізу — 21 липня — співзасновник Anthropic Jack Clark у своєму блозі розповів про K2 та оцінив так:
На мою думку, Kimi — це непогана модель: вона відстає від найпередовіших позицій США на кілька місяців і продовжує траєкторію DeepSeek. Її оцінки за кодування та виклики інструментів уже достатньо високі, тож я очікую, що в реальному житті хтось справді її використовуватиме. Тому саме рівень її прийняття (adoption rate) відображатиме конкурентоспроможність.
Наприкінці липня Ян Чжилінь у подкаст-інтерв’ю пояснив, чому K2 не почали спершу робити «глибоке мислення», а натомість зробили акцент на можливостях програмування й викликів інструментів, які потрібні Agent’ам. Він назвав «інерційні» для глибокого мислення моделі «мозком у банці» («缸中之脑»). До речі, це інтерв’ю Ян Чжиліня варто подивитися/перечитати кілька разів: він розповів багато про технічні речі на більш сутнісному рівні — наприклад, про зв’язок між програмуванням і Agent’ами, а також про зв’язок між мисленням і викликами інструментів.
Через результати K2 та подальших моделей K2 Thinking фінансування Kimi врешті-решт відновили під кінець року: 500 мільйонів доларів, IDG та кілька давніх інвесторів продовжили підтримку.
2026
У період навколо китайського Нового року 2026 року це шалене «покоління релізів» великих моделей: Kimi стала першою, хто здала роботу. Можливо, також тією, яка змусила конкурентів найсильніше переживати, адже K2.5 з 5.5 трильйонами параметрів, мульти модальним розумінням зображень і відео та підтримкою режимів мислення і немислення. Інші стартапи-колеги випускали лише моделі з чистим текстом. Моделі від великих компаній із закритим кодом — єдині, хто має силу вбудувати мультимодальність у флагманську модель.
16 березня команда Kimi опублікувала технічну наукову роботу Attention Residuals, кинувши виклик механізму з’єднань залишкового залишку (residual connections) у «підґрунтях» нейронних мереж, який існує вже 10 років. Співзасновник OpenAI Andrej Karpathy різко розкритикував Kimi: «це змусило нас зрозуміти, що ми так і не до кінця розібралися в Attention is All You Need». Адже Attention is All You Need — це святий грааль, який відкрив еру великих моделей. Навіть з урахуванням роздування «технічних слів» у AI-середовищі, ця оцінка — безпрецедентно висока. Говорять, що перший автор статті — лише 17-річний старшокласник: геній серед юнаків — справді надихає.
17 березня Kimi-модель після релізів початку року (CES 2026) знову стала для NVIDIA «вибраною моделлю» для демонстрації наступного покоління чипів і продуктивності під час основної доповіді GTC 2026, яку проводив Хуан Ренсюнь.
18 березня, як єдиний запрошений представник китайської незалежної компанії великих моделей на щорічній конференції GTC NVIDIA, виступ Ян Чжиліня наживо складався лише з практичних речей: одразу він порівняв три ключові основні модулі — оптимізатор, механізм уваги та залишкові з’єднання — з застарілими технічними стандартами віком 8-11 років, і заявив, що це перешкода для подальшого Scaling. А нові технологічні прориви показали: «кожна базова технологія варта того, щоб її переосмислити».
А далі — історія, про яку вже всі знають ці дні, так званий «Cursor-поганий скандал» («Cursor丑闻»): хто б міг подумати, що Cursor — найбільший у світі AI-помічник програміста з оцінкою 50 млрд доларів — з тяжким (вагомим) запуском нової генерації програмної моделі Composer 2, результати бенчмарків якої перевищують Claude Opus 4.6, — насправді виявився «обгорнутим» (套) Kimi K2.5…
Будучи в ролі посередника токенів, Cursor має причину нарощувати зусилля на «власній розробці» («自研»): передусім, щоб позбутися сильної залежності від Anthropic і OpenAI. Це «перекриття кисню» не знає кордонів — Anthropic справді колись припиняла постачання таких інструментів для програмування, як Windsurf. У середовищі, де компанія одночасно і суддя, і гравець, прагнення Cursor бути незалежним — абсолютно зрозуміле.
Проте через величезну прірву між можливостями й баченням Cursor обрав варіант прибрати з назви базової моделі «підкладку» від Kimi, шукати фінансування через посередництво авторів-«ghostwriters»; зрештою все завершилося більш-менш пристойно. Співзасновник Cursor публічно вибачився. У технічному звіті він навів детальні причини вибору Kimi K2.5 як базової моделі. А офіційний Kimi-відповідь повідомив, що їм дуже приємно, що Cursor використовує Kimi K2.5 як базу, і що сторони через провайдера сервісів виведення (inference) Fireworks AI провели технічну ліцензію.
Згідно з чутками, до або після китайського Нового року 2026 Kimi послідовно завершувала фінансування з оцінкою 4.8 мільярда доларів США, 6 мільярдів доларів США, 10 мільярдів доларів США — загальна сума майже 2 мільярди доларів США. Частка раунду на 18 млрд доларів США, який стартував у березні, також ще доведеться в черзі.
Це, звісно, також стало можливим завдяки надзвичайно сильним показникам двох конкурентів на ринку Hong Kong Stock Exchange (港股), але найважливіше — це реальні результати власних K2 та подальших моделей, зокрема постійні «щедроти» («金水»), які безперервно приходили від попередньо згаданих Cursor, Cloudflare, Perplexity, Хуан Ренсюня, Маска, Марка Андерсона, Чжамаса та інших, а також фінансові показники: після релізу K2.5 за 20 днів дохід перевищив дохід за весь попередній рік.
Один із друзів Kimi у приватній розмові сказав: стримувало розвиток бізнесу лише обчислювальна потужність. Зараз, принаймні, є ще незадоволений попит у 10 разів. Скільки є чипів, стільки й дохід. За моїми відомостями від іншого друга, який працює в великій компанії, зараз деякі великі компанії, коли інтегрують Kimi-модель у свої інструменти для програмування, навіть змушені робити попереднє бронювання, щоб отримати достатній ліміт.
За ці 9 місяців Kimi, можна сказати, завершила одну «неймовірну переробку долі».
Доля
DeepSeek V3 не була створена за один день. Фантомно-квантовий (幻方) квантова-генетика, що лежить за її спиною, визначила, що вони ще з 2023 року пішли шляхом, який кардинально відрізняється від Силіконової долини: шляхом максимальної енергоефективності. Протягом більшості часу в 2023–2024 роках вони трималися осторонь від основного наративу, зосередившись на самостійній розробці MLA (механізму потенційної уваги для кількох голів) та архітектури DeepSeekMoE, намагаючись зтиснути під обмежену обчислювальну потужність показники, що виходять за фізичні межі. Лише коли в 2025 році вони домоглися власного прориву — це також додало впевненості іншим AI-стартапам.
Усі чекали, що наступне покоління моделей DeepSeek продовжить дивувати весь ринок, але «вовк прийшов» («狼来了») у медіа, який повторюють знов і знов, лише виснажує увагу людей. Технологічний прорив — хіба таке легко? Ми цілком маємо всі підстави та достатньо терпіння, щоб чекати наступного продукту від команди DeepSeek.
Kimi K2 теж не зробилася за один день. Насправді вони випустили модель K1.5, яка тоді не отримала належної уваги, в той самий день, що й DeepSeek R1. За оцінкою офіційних представників OpenAI, вони були однією з двох компаній, які першими відтворили o1. Вони у найбільш «зневажуваний» період — на початку 2025 року — випустили серію Moonlight: невеликі MoE-моделі, щоб перевірити технологію наступного покоління другого рівня оптимізаторів. А потім ці напрацювання зрештою були застосовані до моделі K2 із трильйонами параметрів. Тепер Muon замінила стандартну технологію Adam, яка працювала вже 10 років, і стала новим стандартом, який почали використовувати Kimi, GLM-5, DeepSeek Engram та інші нові моделі.
Як то кажуть: «Поки живеш у цьому світі — доведеться колись віддати борг». Kimi в 2024 році завчасно насолодилася C-позицією та публічністю, а в 2026 році більше не відтворила той трафік, який був її «власним».
У кожного — своя доля.
Будучи двома стартапами, які стартували майже одночасно, я захоплююся їхньою сміливістю: вони ніколи не вважали, що розклад на ринку вже визначений; вони вірили, що технологія — найбільша змінна; і ризикували наздоганяти AGI. Їхні молодечий запал, бойові результати — їх можна перевірити, і вони завжди вірять у «повільні гроші» — у дрібний стабільний прибуток.
Навіть якщо дивитися на точку наприкінці березня 2026 року, вся ця AI-революція, яка почалася наприкінці 2022 року, тривала лише 3 роки й пів місяця — і тільки тепер усе починається. Чому наступний OpenAI і Anthropic не можуть бути китайською компанією?
Масштабні новини та точне тлумачення — усе в застосунку Sina Finance APP
Відповідальний редактор: Ян Ці