Ф'ючерси
Сотні безстрокових контрактів
TradFi
Золото
Одна платформа для світових активів
Опціони
Hot
Торгівля ванільними опціонами європейського зразка
Єдиний рахунок
Максимізуйте ефективність вашого капіталу
Демо торгівля
Вступ до ф'ючерсної торгівлі
Підготуйтеся до ф’ючерсної торгівлі
Ф'ючерсні події
Заробляйте, беручи участь в подіях
Демо торгівля
Використовуйте віртуальні кошти для безризикової торгівлі
Запуск
CandyDrop
Збирайте цукерки, щоб заробити аірдропи
Launchpool
Швидкий стейкінг, заробляйте нові токени
HODLer Airdrop
Утримуйте GT і отримуйте масові аірдропи безкоштовно
Launchpad
Будьте першими в наступному великому проекту токенів
Alpha Поінти
Ончейн-торгівля та аірдропи
Ф'ючерсні бали
Заробляйте фʼючерсні бали та отримуйте аірдроп-винагороди
Інвестиції
Simple Earn
Заробляйте відсотки за допомогою неактивних токенів
Автоінвестування
Автоматичне інвестування на регулярній основі
Подвійні інвестиції
Прибуток від волатильності ринку
Soft Staking
Earn rewards with flexible staking
Криптопозика
0 Fees
Заставте одну криптовалюту, щоб позичити іншу
Центр кредитування
Єдиний центр кредитування
Центр багатства VIP
Преміальні плани зростання капіталу
Управління приватним капіталом
Розподіл преміальних активів
Квантовий фонд
Квантові стратегії найвищого рівня
Стейкінг
Стейкайте криптовалюту, щоб заробляти на продуктах PoS
Розумне кредитне плече
Кредитне плече без ліквідації
Випуск GUSD
Мінтинг GUSD для прибутку RWA
Китайська компанія з штучного інтелекту, як «скопіювати домашнє завдання Claude Code»?
Джерело: Geek Park
Автор: Хуалін Уводянь Ван
Якби кілька днів тому хтось сказав мені, що Anthropic — компанія, яка начебто найбільше дбає про безпеку AI — протягом тижня двічі поспіль розсекретить ключові конфіденційні відомості, я, мабуть, подумав би, що це жарт на День дурня.
Але це сталося рівно напередодні Дня дурня.
31 березня дослідник безпеки Chaofan Shou виявив, що у версії Claude Code 2.1.88, опублікованій Anthropic у npm, є вкладений файл source map обсягом 59,8 МБ. Цей файл, який мав слугувати для внутрішнього налагодження, вказує на zip-архів у власному сховищі Anthropic Cloudflare R2 — усередині міститься повний вихідний код TypeScript для Claude Code: приблизно 1900 файлів і 512 тис. рядків коду.
За кілька годин на GitHub з’явилося кілька дзеркальних репозиторіїв. Один проєкт під назвою «claw-code» за дві години зібрав 50 тис. зірок і став найшвидшим у GitHub за історією зростання зірок. Кількість fork перевищила 41,5 тис.
А вже за п’ять днів до цього Anthropic тільки-но витекла інформація про існування наступної моделі «Mythos» через публічний кеш даних без належного захисту — моделі, яку всередині описують як «стрибкоподібне зростання можливостей» і яка в кібербезпекових здібностях «далеко перевершує всі наявні AI-моделі».
Два витоки за тиждень. Компанія, яка говорить про безпеку, отримує ляпас від власних проблем із безпекою. Оцінки розробницької спільноти дуже узгоджені — «настільки іронічно, що це не по-справжньому».
Але якою б іронією це не було, витіковане — справді має зміст. І головне питання тут: як AI-компанія має використати цей «витік», щоб списати?
01 Що всередині «оболонки» Claude Code?
Багато людей з першої реакції думають: Claude Code — це ж просто командний інструмент із обгорткою над Model API. Якщо витекли вихідні коди, то що з того? Без ваг моделі це лише «оболонка».
Це твердження влучає лише наполовину. Claude Code справді є оболонкою, але такою точного виконання, що це навіть дивує.
Спершу подивімося на систему інструментів. Claude Code використовує архітектуру, подібну до плагінів: кожна здатність — читання/запис файлів, виконання shell, захоплення вебсторінок, інтеграція LSP — це окремий модуль інструментів із власним керуванням правами. Лише на рівні визначень інструментів є 29 тис. рядків TypeScript.
Опис кожного інструмента — це не просто одне речення, а детальна інструкція, яка каже моделі «коли саме слід використовувати цей інструмент, як його використовувати, і який результат очікується після використання». Самі ці описи — це форма ретельно налаштованого prompt engineering.
Тепер — система пам’яті. Витікований код розкриває трирівневу архітектуру «самовідновлюваної пам’яті». Найнижчий рівень — MEMORY.md: легкий індексний файл, кожен рядок приблизно по 150 символів, який постійно завантажений у контекст. Конкретні знання про проєкт розподілені по «тематичних файлах» і підвантажуються за потреби. А записи початкової розмови ніколи не перечитуються цілком назад у контекст — лише коли потрібно, через grep здійснюється пошук конкретних ідентифікаторів.
Тобто інженери Anthropic витратили багато часу не на те, «як викликати API», а на те, «як у межах обмеженого вікна контексту змусити модель працювати максимально розумно».
А далі — той самий KAIROS, який приводить у захват усіх.
Цю функцію, названу за давньогрецьким словом «сприятлива мить», у вихідному коді згадують понад 150 разів. Це режим автономного захисного демона: Claude Code як always-on фоновий проксі безперервно працює. Ще цікавіше — її логіка «autoDream»: коли користувачю не зайнятий, проксі виконує «інтеграцію пам’яті» — об’єднує розрізнені спостереження, усуває логічні суперечності та перетворює нечіткі інсайти на визначені факти.
Інакше кажучи, Anthropic перетворює AI-програмного асистента з інструмента «ти питаєш — я відповідаю» на співробітника, який «постійно розуміє твій проєкт і активно виявляє проблеми».
Крім того, витікований код містить 44 ненадіслані feature flag, що охоплюють багатомодальні режими координації агентів (COORDINATOR MODE), голосову взаємодію (VOICE_MODE), віддалені сесії планування на 30 хвилин (ULTRAPLAN), а також навіть термінального «питомця в стилі топаргац (тамагочі)» (BUDDY) з 18 видами та рівнями рідкісності.
Є ще дві деталі, на які варто звернути увагу. Одна — «frustration regex»: регулярний вираз, призначений для виявлення того, чи користувач лає Claude. Регулярка визначає емоційний стан користувача значно швидше й значно дешевше, ніж моделі шляхом інференсу.
Інша — «undercover mode». Anthropic використовує Claude Code, щоб виконувати «інкогніто-зробки» (таємну участь) для відкритих open-source проєктів; у системній підказці прямо написано: «Ти запускаєшся в UNDERCOVER режимі… Твоє commit-повідомлення не може містити жодної внутрішньої інформації Anthropic. Не розкривай ідентичність».
02 Чому китайські AI-компанії можуть навчитися
Тепер повернімося до справді важливого питання.
Упродовж минулого року в Китаї напрямок AI-інструментів для програмування явно пришвидшився. Trae від ByteDance еволюціонував від початкового MarsCode до AI-native IDE, який інтегрує Agent-режим, підтримує повну автоматизацію всього циклу — від розуміння вимог до написання коду й тестування. CodeGeeX від Zhipu — з відкриттям коду та локальним розгортанням, глибоко оптимізований для розуміння китайського коду. Tongyi Lingma та також до швидких ітерацій доходять і da doubao MarsCode.
Але якщо порівняти ці продукти з архітектурою, розкритою у Claude Code, різниця полягає не в тому, «чи можна цим користуватися», а в інженерній досконалості.
Перший урок: описи інструментів — це сила продукту.
Це, ймовірно, найбільш легко проґавити і водночас — найцінніше для навчання.
Claude Code для кожного інструмента має prompt-описи, що пройшли надзвичайно точне налаштування: коли використовувати, коли не використовувати, як обробляти результат після використання, і як повторювати спробу, якщо сталася помилка. За суттю, ці описи навчають модель «як бути хорошим програмістом».
В багатьох вітчизняних інструментах реалізація tool use досі зупиняється на етапі «дати моделі сигнатуру функції, щоб вона сама вгадувала, як користуватися». Навіть якщо просто написати описи інструментів на рівні Claude Code, продуктивність тієї самої моделі зросте на один щабель.
Другий урок: архітектура пам’яті впливає на user experience більше, ніж параметри моделі.
Трирівнева система пам’яті Claude Code вирішує дуже практичну проблему — контекстне вікно моделі обмежене, і ви не можете запхати туди всі історичні розмови.
Підхід Anthropic — розшаровувати пам’ять: гарячі дані завжди онлайн, холодні підвантажуються за потреби, а холодні дані зводяться лише до індексу. Ця ідея не є новою, але в інструментах AI для програмування інженерна реалізація на такому рівні, як правило, ще не досягнута більшістю китайських команд.
Третій урок: емоційне сприйняття — не магія, а інженерна задача.
Використовують регулярний вираз, щоб визначити, чи користувач розлючений, а потім коригують стратегію відповіді.
Це рішення просте до грубості, але вкрай практичне. Воно підказує одну істину: хорошому AI-продукту не кожну проблему треба вирішувати за допомогою моделі; інколи досить одного regex.
Команди, які роблять AI-інструменти в Китаї, часто впадають у інерцію мислення «усе віддавати великій моделі». Це марнотратство.
Четвертий урок: напрям, на який вказує KAIROS, важливіший за сам KAIROS.
Автономний (always-on) фоновий проксі: коли користувач не використовує інструмент, він автоматично впорядковує пам’ять і знаходить проблеми.
Цей продуктовий напрям означає, що наступний крок AI-асистента для програмування — не «відповідати на питання швидше», а «працювати вже тоді, коли ти ще не поставив жодного запиту».
Наразі в Китаї майже всі AI-інструменти є реактивними: користувач віддає команду — інструмент виконує.
Хто першим зробить модель режиму демона-наглядача, той і може визначити наступну форму продукту.
03 Де проходить межа «копіювання»
Звісно, є межа між навчанням і плагіатом.
Юридично це не відкритий код, а комерційне програмне забезпечення, що випадково витекло. Пряме створення продукту на основі витікованого коду означає, що ризик порушення авторських прав є очевидним. На GitHub «claw-code» заявляє, що перепише все на Rust, але якщо ключова логіка просто скопійована, юридична межа все одно розмивається.
Для китайських компаній, з огляду на те, що експортний тиск зростає, ці ризики потрібно серйозно оцінювати.
Технічно багато дизайнерських рішень Claude Code глибоко підлаштовані під можливості моделі Claude. Наприклад, її описи інструментів такі довгі й такі детальні, бо Claude має достатньо сильну обробку довгого контексту і не «збивається» через занадто довгі системні підказки. Якщо ж перенести на модель із коротшим контекстним вікном і слабшим дотриманням інструкцій, просте повторення тієї самої prompt-стратегії може дати протилежний ефект.
Справді розумний підхід — не форкнути ці 512 тис. рядків коду, а зрозуміти кожен компроміс (tradeoff), що стоїть за кожним дизайнерським рішенням, і потім реалізувати це заново, врахувавши особливості власної моделі.
Можна переймати архітектурну ідею, можна переймати моделі компонування інструментів, можна переймати стратегію розшарування пам’яті — але реалізація має бути власною.
Є ще одна реальність, яку легко проігнорувати: Anthropic витекла «знімок» стану, тоді як їхня інженерна команда працює ітеративно щодня. 44 feature flag означають, що щонайменше десяток-декілька ключових функцій уже стоять у черзі на реліз.
Код, який ти форкнув сьогодні, через місяць буде застарілим версіями. Якщо гнатися за копіюванням, ти ніколи не наздоженеш; якщо ж ти зрозумів принципи, то зможеш прокласти власний шлях.
Найбільше значення цього витоку, можливо, не в технічних деталях, а в тому, що він зриває ще один шар таємничості: виявляється, найкритичніший AI-інструмент Anthropic насправді знизу — це лише ретельно спроєктоване компонування prompt’ів плюс інженерна диспетчеризація інструментів.
Немає чорної магії — лише величезна кількість відточених деталей.
Для китайських AI-компаній це, по суті, добра новина. Це означає, що розрив можна подолати. Умовою є те, що у вас має вистачити терпіння відточувати ці деталі — а не думати, що достатньо просто взяти чужий код, змінити назву й видати це за своє.