Американський гігант штучного інтелекту злило 510 000 рядків вихідного коду! Розробники безпосередньо «крадуть роботу»? Юридичні експерти попереджають про ризики

Оскільки один співробітник необережно допустив витік 512 тис. рядків вихідного коду Claude Code, цілий індустріальний сектор отримав змогу зазирнути в продуктову внутрішню архітектуру нового лідера в галузі штучного інтелекту (AI) Anthropic, а також завчасно побачити плани щодо її електронних домашніх тварин і персистентного AI-допоміжника.

За місцевим часом 31 березня через помилку під час пакування npm-пакета витік вихідного коду Claude Code стався. Впродовж кількох годин витеклий код сформував на GitHub хвилю поширення: зірок понад 10 тис. і резервних копій понад 20 тис.

У відповідь на це Anthropic повідомила кореспондента «Щоденної економічної газети» (далі — кореспондент «Щоденної економічної газети») та відповіла, що це проблема пакування під час релізу, спричинена людською помилкою (human error), а не вразливістю безпеки.

Експерти зазначили, що цей витік дає можливість «переписати домашнє завдання» для малих і середніх розробників, щоб підвищити можливості своїх продуктів, однак комерційне використання відповідного коду стикається з юридичними ризиками.

** «У відкритий доступ» вивели 512 тис. рядків вихідного коду Claude Code**

За місцевим часом 31 березня інтерн-дослідник компанії з кібербезпеки Web3 FuzzLand Chaofan Shou у соцмережі X повідомив, що вихідний код інструмента для програмування на основі AI Claude Code, що належить Anthropic, випадково витекло.

За його описом, коли він перевіряв npm-пакет Claude Code, то виявив файл cli.js.map обсягом 57MB, який вказував на посилання на storage bucket. Усередині містилося 1900 файлів TypeScript, загалом понад 512 тис. рядків повного вихідного коду без обфускації та де-компіляції. Це означає, що розробники можуть легко підглянути — і навіть відновити — внутрішню структуру Claude Code.

Корінь проблеми не складний: файл source map, який мав бути вилучений на етапі production-збірки, через недогляд у конфігурації .npmignore або неправильні налаштування в процесі збірки був разом опублікований у відкриту платформу npm registry. Протягом кількох годин відповідний код було завантажено на GitHub і широко поширено; навіть з’явилися розробники, які повністю відтворили Claude Code на основі витоку.

Після того як подія набула розголосу, Anthropic терміново оновила npm-пакет і видалила відповідні файли, а також видалила ранні версії. Але було вже пізно.

Кореспондент «Щоденної економічної газети» звернувся до Anthropic, щоб уточнити обставини. Компанія відповіла: «Сьогодні раніше в одному з релізів Claude Code було включено частину внутрішнього вихідного коду. Ця подія не стосується і не розкриває жодних конфіденційних даних клієнтів або облікових даних. Це проблема пакування під час релізу, спричинена людською помилкою, а не вразливістю безпеки. Ми впроваджуємо заходи, щоб запобігти подібним ситуаціям у майбутньому».

Це вже другий великий випадок витоку, який стався в межах тижня в Anthropic. 26 березня компанія щойно витекла через помилку в налаштуваннях CMS (система керування контентом) інформацію про модель під назвою Claude Mythos і приблизно 3000 непублічних активів. Раніше, у лютому 2025 року та в грудні 2024 року, проблема витоку вихідного коду та системних підказок також траплялася з Claude Code. Часті «людські помилки» постійно підривають довіру ринку до її можливостей безпеки.

«Витік рівня production»: завчасно показали електронних домашніх тварин і персистентного AI-допоміжника, який не був релізований

У міру того як розробники глибше аналізували витеклий код, поступово ставало зрозумілим внутрішнє «ядро» Claude Code, значно ширше за очікування з боку зовнішнього світу. Це не просто інструмент-обгортка для API, а повноцінне production-середовище розробки.

Згідно з аналізом репозиторію GitHub, у витеклій кодовій базі міститься понад 40 інструментів керування правами, пошуковий/запитувальний рушій із 46 тис. рядків коду, система координації для багатьох агентів, функції IDE-мосту та механізми персистентної пам’яті тощо. У коді також виявили 35 прапорів функцій на етапі компіляції та понад 120 невідомих наперед змінних середовища: через змінну середовища USER_TYPE=ant співробітники Anthropic можуть розблокувати всі внутрішні функції.

Один програміст зазначив, що зміст витоку Claude вказує на те, що це не просто AI-помічник для програмування, а радше схожий на операційну систему продукт.

Ще більш привертає увагу те, що це можуть бути кілька експериментальних функцій, які ще не були випущені.

Перше — термінальна електронна домашня тварина-система під назвою BUDDY.

З коду видно, що BUDDY — це система AI-компаньйона, схожа на електронну домашню тварину «Тамагочі» (Tamagotchi), яка набула всесвітньої популярності ще в 90-х роках. Її ключовий механізм поєднує user ID і псевдовипадковий алгоритм для генерації унікального персонажа: включно з видом, рідкістю, зовнішністю та характеристиками. Система також підтримує налаштування на кшталт «витягування карт» і мерехтливих/сяючих різновидів, а модель автоматично генерує «опис душі». Варто зазначити, що ключові параметри домашньої тварини не зберігаються напряму: вони динамічно обчислюються на основі user ID, тож забезпечують стабільну та незмінну унікальність.

Друге — персистентний AI-допоміжник під назвою KAIROS.

KAIROS прихований за компіляційними прапорами та в публічних версіях не видно. Після активації ця система може безперервно моніторити поведінку користувачів, записувати інформацію та самостійно виконувати завдання, а також підтримувати детальний журнал операцій. У поєднанні із механізмом бекенду під назвою autoDream, система ще й у періоди низької активності автоматично впорядковує пам’ять, перетворюючи короткострокові фрагменти діалогу на довгострокові структуровані знання. Такий підхід вважають дуже подібним до процесу консолідації пам’яті людини під час сну.

Дослідник Byte AI Agent зазначив, що найбільше вражає режим KAIROS — GitHub Webhook + Cron + MCP Channel + бекендове Dream-упорядкування пам’яті: по суті, це переносить агента з рівня інструмента на рівень цифрового працівника.

Крім того, щоб запобігти витоку внутрішньої інформації, Anthropic також розробила «підпільний режим» (Undercover Mode), обмежуючи співробітників у відкритих внесках згадувати внутрішні коди назв моделей або назви інструментів. Також у її API вбудовано механізм «отруєння даних» (data poisoning): шляхом ін’єкції фальшивих визначень інструментів (fake_tools) перешкоджають потенційному захопленню даних і поведінці дистиляції моделей, знижуючи продуктивність конкурентних моделей.

Ці рішення демонструють, що Anthropic уже доклала значних зусиль у технічний захист і конкурентну стратегію, але «людська помилка» цього разу оголила слабке місце на рівні виконання процесів.

** За святом розробників ховається: «передрук» може обернутися юридичними ризиками **

Будучи продуктом, що дорівнює OpenAI за призначенням, Claude Code тривалий час конкурує з такими інструментами, як GitHub Copilot. Хоча цей випадковий витік не є офіційним «open source», багато розробників сприйняли його як рідкісну можливість для навчання.

Позаштатний/спеціальний запрошений професор Шанхайського університету фінансів і економіки Ху Яньпін у розмові з кореспондентом «Щоденної економічної газети» сказав, що головний вплив цього витоку на екосистему AI полягає в тому, що він допомагає іншим командам агентів підвищити рівень своїх продуктів і дає розробникам змогу краще розуміти технічну дорожню карту. Він розповів, що деякі технічні фахівці справді аналізували, відновлювали, змінювали, тестували — аж до спроб розгортання та відтворення — і проводили системні дослідження файлів, що витекли. «Для розробників, які раніше мали загалом посередні навички в AI Agent, це без сумніву можливість “переписати домашнє завдання”, щоб швидко підтягнути рівень продукту. Навіть у процесі “переписування” можна змінювати роботу, а після локальної оптимізації деякі аспекти можуть бути кращими за структуру Claude Code».

На думку Ху Яньпіна, витік коду справді корисний для малих розробників, але не обов’язково для великих компаній. «Бо великі компанії або вже займаються реверс-інжинірингом, або в процесі формування більш системної продуктової рамки. Щоб продукт на кшталт Claude Code досяг успіху, крім сильних сторін окремого продукту, вирішальним стає ще й побудова всієї екосистеми застосунків, включно з екосистемою Skills (skills), екосистемою розробників і партнерів, а також тим, як забезпечити повностекові AI-послуги, щоб відповідати великій екосистемі, що складається з сотень мільйонів пристроїв і сотень мільйонів користувачів».

Ху Яньпін вважає, що те, як витік вихідного коду Claude Code викликав широкий інтерес і дискусії, пов’язане з тим, що Anthropic — одна з двох AI-компаній у глобальному масштабі, особливо в сегменті To B та за можливостями в написанні коду, які мають найсильніші повностекові можливості; друга — OpenAI. Ба більше, у цій категорії продуктів Anthropic просунулася далі, ніж OpenAI, і має сильнішу продуктову базу. «**Як видно з витеклого коду, система практик і органічна інтеграція Claude Code поєднує Prompt Engineering, Context Engineering і Harness Engineering — теми, які зараз активно обговорюються в галузі. Особливо Harness Engineering і функція, що дозволяє керувати комп’ютером після оновлення, — давали індустрії можливість через Claude Code побачити напрям наступного етапу розвитку. **Агенти, які перехоплюють управління, як прикладні операційні системи та виконавці дій, стають універсальними; у майбутньому це перетвориться на цифрову універсальність, що відрізняється від втіленого загального інтелекту».

Однак під час інтерв’ю кореспонденту «Щоденної економічної газети» адвокат Ву Цзюньлінь з юридичної фірми «ГоХао» нагадала, що цю подію більш доречно кваліфікувати як ненавмисне розкриття source map, через що частину вихідного коду можна відновити, а не як ініціативне авторське дозвіл-сприяння власника на публікацію вихідного коду. Тому отримання вихідного коду ззовні не означає автоматично, що будь-хто має законне право на копіювання, переробку, інтеграцію або комерційне використання.

Вона проаналізувала: для компаній і розробників якщо після завантаження відповідного коду його використовують для копіювання, переробки, вбудовування у власні продукти або на його основі оптимізують чи тренують подібні конкуруючі продукти, це зазвичай може спричинити сукупні ризики з точки зору авторського права, комерційної таємниці та навіть недобросовісної конкуренції. Хоча за умови, що відповідний вихідний код вже широко поширений, власнику буде помітно складніше постфактум повністю заявляти про комерційну таємницю щодо всього коду, це не означає автоматично, що він не може надалі вимагати права на ще не розкриті деталі або на ситуації з раннім неналежним отриманням, розповсюдженням чи використанням. Для наявних користувачів Anthropic її офіційні умови також чітко обмежують використання її сервісів для розробки конкурентів, тренування конкурентного AI, а також забороняють де-компіляцію, реверс або копіювальні сервіси, тож таке використання може додатково створювати ризики порушення договору.

Вона також сказала, що порівняно з цим “перегляд” відповідного коду лише з метою дослідження або безпекового аналізу зазвичай має менші ризики; але щойно це переходить у розробку, комерційні сценарії тощо, юридичні ризики суттєво зростають.

Наразі кілька GitHub-репозиторіїв, які розміщують витекший вихідний код, уже отримали повідомлення про видалення на підставі «Digital Millennium Copyright Act» і були зняті. Це додатково вказує, що триває юридична боротьба навколо цієї події.

(Джерело: «Щоденна економічна газета»)

Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Репост
  • Поділіться
Прокоментувати
Додати коментар
Додати коментар
Немає коментарів
  • Закріпити