Ф'ючерси
Сотні безстрокових контрактів
TradFi
Золото
Одна платформа для світових активів
Опціони
Hot
Торгівля ванільними опціонами європейського зразка
Єдиний рахунок
Максимізуйте ефективність вашого капіталу
Демо торгівля
Вступ до ф'ючерсної торгівлі
Підготуйтеся до ф’ючерсної торгівлі
Ф'ючерсні події
Заробляйте, беручи участь в подіях
Демо торгівля
Використовуйте віртуальні кошти для безризикової торгівлі
Запуск
CandyDrop
Збирайте цукерки, щоб заробити аірдропи
Launchpool
Швидкий стейкінг, заробляйте нові токени
HODLer Airdrop
Утримуйте GT і отримуйте масові аірдропи безкоштовно
Pre-IPOs
Отримайте повний доступ до глобальних IPO акцій.
Alpha Поінти
Ончейн-торгівля та аірдропи
Ф'ючерсні бали
Заробляйте фʼючерсні бали та отримуйте аірдроп-винагороди
Інвестиції
Simple Earn
Заробляйте відсотки за допомогою неактивних токенів
Автоінвестування
Автоматичне інвестування на регулярній основі
Подвійні інвестиції
Прибуток від волатильності ринку
Soft Staking
Earn rewards with flexible staking
Криптопозика
0 Fees
Заставте одну криптовалюту, щоб позичити іншу
Центр кредитування
Єдиний центр кредитування
Центр багатства VIP
Преміальні плани зростання капіталу
Управління приватним капіталом
Розподіл преміальних активів
Квантовий фонд
Квантові стратегії найвищого рівня
Стейкінг
Стейкайте криптовалюту, щоб заробляти на продуктах PoS
Розумне кредитне плече
Кредитне плече без ліквідації
Випуск GUSD
Мінтинг GUSD для прибутку RWA
Акції
AI
Gate AI
Ваш універсальний AI-помічник для спілкування
Gate AI Bot
Використовуйте Gate AI безпосередньо у своєму соціальному додатку
GateClaw
Gate Блакитний Лобстер — готовий до використання
Gate for AI Agent
AI-інфраструктура, Gate MCP, Skills і CLI
Gate Skills Hub
Понад 10 000 навичок
Від офісу до трейдингу: універсальна база навичок для ефективнішої роботи з AI
GateRouter
Розумний вибір із понад 30 моделей ШІ, без додаткових витрат (0%)
DeepSeek V4 вже тут — його професійна версія коштує на 98% менше, ніж GPT 5.5 Pro
###Коротко
DeepSeek повернулася, і вона з’явилася кілька годин після того, як OpenAI випустила GPT-5.5. Випадковість? Можливо. Але якщо ви — китайська лабораторія штучного інтелекту, яку уряд США намагається сповільнити за допомогою заборон на експорт чипів протягом останніх трьох років, ваше відчуття часу стає дуже гострим. Лабораторія з Ханчжоу сьогодні випустила попередні версії DeepSeek-V4-Pro і DeepSeek-V4-Flash, обидві з відкритим вагою, обидві з контекстним вікном на мільйон токенів. Це означає, що ви можете працювати з контекстом приблизно розміром трилогії Володимирської Персні, перш ніж модель зламається. Обидві також коштують значно менше за будь-які аналоги на Заході, і обидві безкоштовні для тих, хто може запускати їх локально. Останній великий прорив DeepSeek — R1 у січні 2025 року — за один день зняв з ринку Nvidia понад $600 мільярдів, викликавши сумніви у інвесторів щодо необхідності таких великих інвестицій американських компаній для досягнення результатів, яких досягла невелика китайська лабораторія за менші кошти. V4 — це інший тип руху: тихіший, більш технічний і більш орієнтований на ефективність для тих, хто дійсно створює з AI.
Дві моделі, дуже різні задачі З двох нових моделей, DeepSeek V4-Pro — найбільша, з 1,6 трильйонами параметрів. Щоб зрозуміти це, параметри — це внутрішні «налаштування» або «мозкові клітини», які модель використовує для збереження знань і розпізнавання шаблонів — чим більше параметрів, тим складнішу інформацію вона теоретично може зберігати. Це наймасштабніша модель з відкритим кодом на ринку LLM на сьогодні. Може здатися неймовірним, але вона активує лише 49 мільярдів з них за один прохід.
Це трюк «Змішання експертів», який DeepSeek вдосконалює з V3: повна модель залишається в пам’яті, але активується лише відповідний її сегмент для кожного запиту. Більше знань — той самий обсяг обчислень. «DeepSeek-V4-Pro-Max, режим максимальної логіки DeepSeek-V4-Pro, значно розширює можливості знань відкритих моделей, міцно закріплюючись як найкраща модель з відкритим кодом на сьогодні», — написала DeepSeek у офіційній картці моделі на Huggingface. «Вона досягає високих результатів у бенчмарках кодування і суттєво зменшує розрив із провідними закритими моделями у задачах логіки та агентної роботи.» V4-Flash — практична модель: 284 мільярди параметрів, активних — 13 мільярдів. Вона розроблена бути швидшою, дешевшою і, за власними бенчмарками DeepSeek, «досягає схожих результатів у логіці з Pro-версією при більшому бюджеті на обдумування.»
Обидві підтримують контекст у мільйон токенів. Це приблизно 750 000 слів — майже весь «Володар перснів» з додатками. І це стандартна функція, а не преміум-опція. Секретний соус DeepSeek: зробити увагу менш поганою у масштабі Ось технічна частина для технарів або тих, хто цікавиться магією, що живить модель. DeepSeek не приховує своїх секретів, і все доступне безкоштовно — повний документ є на Github. Стандартна увага AI — механізм, що дозволяє моделі розуміти зв’язки між словами — має жорстку проблему масштабування. Щоразу, коли подвоюєш довжину контексту, обчислювальні витрати приблизно зростають у чотири рази. Тому запуск моделі на мільйоні токенів коштує не просто вдвічі дорожче за 500 000, а у чотири рази. Саме тому довгий контекст історично був опцією, яку лабораторії додають і потім тихо обмежують. DeepSeek винайшла два нових типи уваги, щоб обійти цю проблему. Перший — Стиснена розріджена увага (Compressed Sparse Attention), працює у два етапи. Спочатку вона стискає групи токенів — скажімо, кожні 4 — у один запис. Потім, замість уваги до всіх стиснених записів, вона використовує «Молнієвий індексатор» для вибору лише найрелевантніших результатів для запиту. Ваша модель переходить від уваги до мільйона токенів до уваги до набагато меншого набору важливих частин, ніби бібліотекар, який не читає кожну книгу, але точно знає, яку полицю перевірити. Другий — Надзвичайно стиснена увага (Heavily Compressed Attention), більш агресивна. Вона зжимає кожні 128 токенів у один запис — без розрідженого відбору, просто жорстке стиснення. Ви втрачаєте дрібні деталі, але отримуєте дуже дешевий глобальний огляд. Обидва типи уваги чергуються шарами, тому модель отримує і деталь, і огляд.
Результат, з технічного документа: при мільйоні токенів V4-Pro використовує 27% обчислень, які потрібні були його попереднику (V3.2). Кеш KV — пам’ять, необхідна для відстеження контексту — зменшується до 10% від V3.2. V4-Flash ще більше знижує це: 10% обчислень, 7% пам’яті. І це дозволило DeepSeek запропонувати набагато дешевшу ціну за токен у порівнянні з конкурентами, при цьому забезпечуючи схожі результати. У доларовому еквіваленті: GPT-5.5 запустили вчора з ціною (вхідних і )вихідних токенів за мільйон, а GPT-5.5 Pro — за $5 за мільйон вхідних і $30 за мільйон вихідних токенів.
DeepSeek V4-Pro коштує $1,74 за вхід і $3,48 за вихід. V4-Flash — $0,14 за вхід і $0,28 за вихід. Генеральний директор Cline Сауд Різван зазначив, що якби Uber використовував DeepSeek замість Claude, його AI-бюджет 2026 року — нібито достатній для чотирьох місяців роботи — вистачив би на сім років.
Бенчмарки DeepSeek робить щось незвичайне у своєму технічному звіті: вона публікує прогалини. Більшість релізів моделей вибірково показують ті бенчмарки, де вони перемагають. DeepSeek провела повне порівняння з GPT-5.4 і Gemini-3.1-Pro, виявила, що логіка V4-Pro відстає від цих моделей приблизно на три-шість місяців, і все одно опублікувала результати. Де V4-Pro-Max справді перемагає: Codeforces, бенчмарк з конкурентного програмування, оцінений як людський шаховий турнір. V4-Pro набрав 3 206, посівши приблизно 23-є місце серед учасників реальних людських змагань. На Apex Shortlist, добірці складних математичних і STEM-задач, він показав прохідний рівень і досяг 90,2% проти Opus 4.6 з 85,9% і GPT-5.4 з 78,1%. На SWE-Verified, що оцінює здатність моделі вирішувати реальні проблеми на GitHub, він набрав 80,6% — у точності з Claude Opus 4.6.
Де він поступається: тест мультизадачності MMLU-Pro (Gemini-3.1-Pro — 91,0% проти V4-Pro з 87,5%), тест експертних знань GPQA Diamond (Gemini — 94,3% проти 90,1), і іспит Humanity’s Last Exam, випробування рівня магістратури, де Gemini-3.1-Pro з 44,4% все ще перемагає V4-Pro з 37,7%.
Щодо довгого контексту, V4-Pro випереджає відкриті моделі і програє Gemini-3.1-Pro на бенчмарку CorpusQA (тест, що імітує реальний аналіз документів на мільйон токенів), але програє Claude Opus 4.6 на MRCR — тесті, що вимірює, наскільки добре модель може знайти конкретну інформацію у дуже довгому стосі.
Створена для запуску агентів, а не просто відповіді на питання Агентна частина — це те, що робить цю релізу цікавою для розробників, які дійсно впроваджують продукти.
V4-Pro може працювати у Claude Code, OpenCode та інших інструментах AI-кодування. За внутрішнім опитуванням DeepSeek 85 розробників, які використовували V4-Pro як основного агента для кодування, 52% сказали, що він готовий стати їхньою моделлю за замовчуванням, 39% — схиляються до цього, і менше 9% — ні. Внутрішні співробітники стверджують, що він перевершує Claude Sonnet і наближається до Claude Opus 4.5 у задачах агентного кодування.
Artificial Analysis, що проводить незалежну оцінку моделей AI у реальних задачах, посунула V4-Pro на перше місце серед усіх моделей з відкритим вагою у бенчмарку GDPval-AA — тесті економічно цінної роботи у фінансах, праві та дослідженнях, оцінюваному за Elo. V4-Pro-Max набрав 1 554 Elo, випереджаючи GLM-5.1 з 1 535( і MiniMax M2.7 з 1 514). Для порівняння, Claude Opus 4.6 має 1 619 на тому ж бенчмарку — все ще попереду, але різниця зменшується.
DeepSeek V4 також вводить так званий «переривчастий мислення» (interleaved thinking). У попередніх моделях, якщо ви запускали агента, що робив кілька викликів інструментів — наприклад, шукав у вебі, потім запускав код, знову шукав — контекст логіки скидався між раундами. Кожен новий крок вимагав відновлення ментальної моделі з нуля. V4 зберігає повний ланцюг думок через виклики інструментів, тому робочий процес з 20 кроків не страждає від амнезії наприкінці. Це важливо для складних автоматизованих процесів. DeepSeek і війна США з Китаєм у сфері AI З 2022 року США обмежують експорт високопродуктивних Nvidia-чипів до Китаю. Оголошена мета — сповільнити розвиток китайського AI, але заборона на чипи не зупинила DeepSeek, а навпаки — змусила їх винаходити більш ефективну архітектуру і розвивати внутрішній постачання обладнання. DeepSeek не випустила V4 у вакуумі — у сфері AI останнім часом багато активності: Anthropic випустила Claude Opus 4.7 16 квітня — модель, яку Decrypt протестував і виявив сильною у кодуванні та логіці, з високим використанням токенів. Напередодні Anthropic також тримала Claude Mythos, модель для кібербезпеки, яку не може випустити публічно, бо вона занадто добре справляється з автономними атаками у мережі. Xiaomi 22 квітня випустила MiMo V2.5 Pro — мультимодальну модель (зображення, аудіо, відео). Вартість (вхідних і )вихідних токенів за мільйон. Вона відповідає Opus 4.6 у більшості бенчмарків кодування. Три місяці тому ніхто не говорив про Xiaomi як про передову AI-компанію. Тепер вона швидко випускає конкурентні моделі. Вчора OpenAI випустила GPT-5.5 з ціною, що зросла до (за мільйон вихідних токенів у Pro-версії. Вона перевершує V4-Pro у Terminal Bench 2.0 — 82,7% проти 70,0%, що тестує складні командні сценарії. Але коштує значно дорожче за V4-Pro при однакових задачах. Того ж дня Tencent випустила Hy3 — ще одну сучасну модель, орієнтовану на ефективність. Що це означає для вас Отже, з такою кількістю нових моделей, справжнє питання для розробників: коли варто платити за преміум? Для підприємств математика могла змінитися. Модель, що лідирує у відкритих бенчмарках за $1,74 за мільйон вхідних токенів, робить обробку великих документів, юридичний огляд або генерацію коду набагато дешевшою, ніж шість місяців тому. Контекст у мільйон токенів означає, що ви можете подати цілі кодові бази або регуляторні документи в одному запиті, а не розбивати їх на кілька. Крім того, її відкритий код означає, що її можна запускати безкоштовно на локальному обладнанні, а також налаштовувати і покращувати відповідно до потреб компанії. Для розробників і незалежних створювачів V4-Flash — це модель, на яку варто звернути увагу. За $0,14 за вхід і $0,28 за вихід вона дешевша за моделі, які рік тому вважалися бюджетними, і виконує більшість задач, що й Pro. Вже існуючі API DeepSeek — deepseek-chat і deepseek-reasoner — автоматично маршрутизують запити до V4-Flash у режимах без і з мисленням, тож якщо ви використовуєте API, ви вже її використовуєте. Зараз моделі підтримують лише текст. DeepSeek заявила, що працює над мультимодальними можливостями, що дасть перевагу іншим великим лабораторіям, наприклад Xiaomi або OpenAI. Обидві моделі ліцензовані за MIT і доступні на Hugging Face вже сьогодні. Старі API deepseek-chat і deepseek-reasoner припинять роботу 24 липня 2026 року.