China Securities: DeepSeek наступна генерація нової моделі має потенціал продовжити шлях відкритих моделей з високою співвідношенням ціна-якість

robot
Генерація анотацій у процесі

Сіньвэй Сек’юритіз у звіті про дослідження зазначає, що з 2026 року виробники вітчизняних великих мовних моделей зосереджуються на оновленні можливостей Agent та роботи з кодом, змагаючись у випуску нових моделей. Очікується, що наступне покоління нової моделі DeepSeek, яке незабаром буде представлено, продовжить курс на високовартісну відкриту (open-source) модель; за функціональністю воно зможе реалізувати потужніші можливості пам’яті та обробку наддовгого контексту, удосконалюючи можливості коду та Agent, одночасно доповнивши слабкі сторони в мультимодальності. Це створює нові інвестиційні можливості в напрямах: виробники моделей, застосунки AI та AI-інфраструктура.

1、виробник моделей: наступне покоління моделей DeepSeek, ймовірно, зможе працювати в парі з іншими вітчизняними моделями, прискорюючи рух китайського AI до світу. Одночасно навчання моделей просувається далі в напрямі зниження витрат: дешевші tokens стимулюють загальне зростання обсягу викликів API глобальних великих мовних моделей. 2、AI-застосунки: вирівнювання прав/доступу до моделей допомагає зменшити занепокоєння ринку щодо наративу про суперечності між моделями та застосунками, сприяє впровадженню AI Agent у тисячах галузей і є позитивним чинником для компаній із захисними бар’єрами; 3、AI-інфраструктура: зниження витрат веде до зростання обсягів використання, тож AI Infra отримує вигоду; вітчизняна AI-інфраструктура та вітчизняні моделі рухаються назустріч одна одній.

Увесь текст наведено нижче

Комп’ютери|DeepSeek: перспективи наступного покоління моделей

З 2026 року виробники вітчизняних великих мовних моделей зосереджуються на оновленні можливостей Agent та роботи з кодом, змагаючись у випуску нових моделей. Ми вважаємо, що наступне покоління нової моделі DeepSeek, яке незабаром буде представлено, може продовжити курс на високовартісну відкриту (open-source) модель. За функціональністю вона зможе реалізувати потужніші можливості пам’яті та обробку наддовгого контексту, удосконалюючи можливості коду та Agent, одночасно доповнивши слабкі сторони в мультимодальності, що принесе нові інвестиційні можливості в напрямах: виробники моделей, AI-застосунки та AI-інфраструктура.

Код, Agent та нативна мультимодальність: напрями оновлення глобальних великих мовних моделей.

У сфері AI-програмування оновлення навчальних фреймворків, використання повного коду репозиторію та інженерних траєкторій як даних для тренування, а також упровадження більш глибоких ланцюгів міркувань із багатокроковим виконанням і самовідновленням забезпечили перехід AI Coding від інструментів доповнення коду до проектного рівня автономних інтелектуальних агентів. Harness Engineer, імовірно, дозволить технічним фахівцям переходити від ролі інженера з кодом до ролі менеджера Agent, який допомагає AI розкрити максимальну ефективність. У сфері кластерів із багатьма Agent спостережний рівень продукту OpenClaw наочно демонструє потенціал систем із кількома Agent; компанії Zhipu, MiniMax, Tencent, Kimi тощо в Китаї також представили продукти «на кшталт омара» (類龙虾), вивільняючи продуктивність цифрових працівників. У сфері нативної мультимодальності нативна мультимодальна архітектура вже стала магістральним напрямом; гібридне вбудування з кодуванням швидко досягає прориву. Водночас вітчизняні моделі все ще потребують проривів у ключових етапах, зокрема в реальній взаємодії аудіо- та відеопотоків і в безперервному кросмодальному міркуванні.

▍ Вітчизняні великі мовні моделі: щільні ітерації, постійні прориви в можливостях.

1)MiniMax: можливості коду додатково оновлені; у тесті M2.7 SWE-Pro набрало 56.22%, перевищивши Gemini 3.1 Pro; у сценарії VIBE-Pro тесту з повною end-to-end доставкою цілісних проєктів набрало 55.6%, що дорівнює рівню Claude Opus 4.6; розуміння логіки роботи програмних систем посилено. Також моделі серії M2 у сценаріях на кшталт RL брали участь у тренуванні M2.7, забезпечуючи самостійну ітерацію моделі.

2)Zhipu: GLM-5 запроваджує DSA та власну архітектуру “Slime”. Вона дає змогу за мінімального втручання людини автономно виконувати системні інженерні завдання, такі як Agentic далекотривале планування та виконання, перебудова бекенду й глибоке налагодження. Її можливості в інструментальних викликах та багатокроковому виконанні завдань (MCP-Atlas 67.8%), а також у мережевому пошуку й розумінні інформації (Browse Comp 89.7%) наближаються або навіть перевищують рівень провідних моделей за кордоном.

3)Kimi: Kimi 2.5 запровадила візуальні можливості для автоматичного розкладання логіки взаємодії, відтворення коду. Вона також представила новий режим «кластера Agent». У підсумках тестів застосунків інтелектуальних агентів, зокрема HLE-Full, BrowseComp та DeepSearchQA, отримано бали для зіставлення з GPT-5.2, Claude 4.5 Opus та Gemini 3 Pro. Moonshoot застосувала стратегію зниження ціни: ціна API порівняно з K2 Turbo знижена більш ніж на 30%.

4)Xiaomi: Xiaomi MiMo-V2-Pro у наборах тестів, що вимірюють здатність моделей виконувати виклики Agent, таких як ClawEval та t2-bench, наближається або навіть випереджає деякі частини зарубіжних топових моделей. Її ранні внутрішні тестові версії з анонімним кодовим позначенням Hunter Alpha були розміщені на OpenRouter; протягом періоду розміщення кілька днів поспіль виходила на перше місце в добовому рейтингу за обсягом викликів. Ми віримо, що базис великих моделей дасть Xiaomi змогу досягти стрибка в AI-рівнях у всій екосистемі «людина-автомобіль-домашнє господарство».

▍ Перспективи DeepSeek: продовження маршруту високої цінності, удосконалення можливостей довгих текстів, коду, Agent та мультимодальності.

DeepSeek у січні 26 року випустила DeepSeek V3.2, яка використовує архітектуру sparse attention (DSA) + mixture of experts (MoE). Вона забезпечує підвищення ефективності тренування та інференсу з одночасним зниженням витрат; ціни за вхідні/вихідні tokens знижені на 60%/75%. Водночас бали в BenchMark для коду та багатьох Agent значно зросли. У поєднанні з напрямами еволюції моделей DeepSeek та статтею про модуль Engram, де брав участь Лянь Венфен (梁文峰) як підписант, ми вважаємо, що такі нові моделі, як DeepSeek V4.0, ймовірно, зможуть інтегрувати Engram у вже зрілу архітектуру DSA+MoE. Це досягатиметься шляхом багаторівневого зберігання ключової, часто використовуваної інформації, що дозволить експоненційно зменшити обсяг обчислень у шарі attention архітектури Transformer. У результаті забезпечується обробка наддовгого контексту; під час підвищення ефективності моделі одночасно буде вдосконалено можливості коду та Agent, а також закрито прогалини в мультимодальності.

▍ Фактори ризику:

Розвиток ключових AI-технологій та розширення застосувань не відповідає очікуванням; зниження витрат на обчислювальні потужності не відповідає очікуванням; серйозний суспільний вплив спричинений неналежним використанням AI; ризики безпеки даних; ризики інформаційної безпеки; посилення конкуренції в галузі.

▍ Інвестиційна стратегія: ми рекомендуємо звернути увагу на такі три інвестиційні магістралі.

1)Виробник моделей: наступне покоління моделей DeepSeek, ймовірно, зможе працювати в парі з іншими вітчизняними моделями, прискорюючи рух китайського AI до світу. Одночасно навчання моделей просувається далі в напрямі зниження витрат: дешевші tokens стимулюють загальне зростання обсягу викликів API глобальних великих мовних моделей.

2)AI-застосунки: вирівнювання прав/доступу до моделей допомагає зменшити занепокоєння ринку щодо наративу про суперечності між моделями та застосунками, сприяє впровадженню AI Agent у тисячах галузей і є позитивним чинником для компаній із захисними бар’єрами;

3)AI-інфраструктура: зниження витрат веде до зростання обсягів використання, тож AI Infra отримує вигоду; вітчизняна AI-інфраструктура та вітчизняні моделі рухаються назустріч одна одній.

(Джерело: Перша Фінансова інформація)

Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Репост
  • Поділіться
Прокоментувати
Додати коментар
Додати коментар
Немає коментарів
  • Закріпити