Кодовий помічник Anthropic з 510 000 рядків вихідного коду був викрадений, включаючи багато невипущених функцій

robot
Генерація анотацій у процесі

AI(штучний інтелект) несподівано “відкрила код” свого помічника для програмування Claude Code від гіганта-новачка Anthropic — 510 000 рядків вихідного коду.

Місцевий час 31 березня, через помилку під час пакування npm (менеджера пакетів), витікла частина вихідного коду популярного AI-інструменту для програмування Claude Code, що належить Anthropic; загалом приблизно 512 тис. рядків, включно з 4756 файлами з вихідним кодом, понад 40 модулів інструментів та кількома функціями, які ще не були опубліковані, змусивши компанію “відкрити код” для розробників по всьому світу. Хоча компанія швидко відреагувала, розробники вже масово діляться цими кодами в спільнотах на кшталт GitHub.

У відповідь представники Anthropic заявили: “Ця подія не стосується і не розкриває жодних чутливих даних клієнтів або облікових даних. Це проблема пакування, спричинена людською помилкою, а не вразливістю безпеки. Ми вживаємо заходів, щоб подібні ситуації не повторювалися”.

Публічно відомо, що Anthropic була заснована у 2021 році колишніми співробітниками OpenAI; до її продуктів належать великі мовні моделі серії Claude. Від моменту заснування компанія отримувала інвестиції від технологічних гігантів — зокрема Amazon, Google, Nvidia, Salesforce тощо.

Для такої стартап-компанії, як Anthropic, яка робить акцент на “безпеці” та активно прагне вийти на IPO, витік вихідного коду безперечно є серйозним ударом: це дозволяє конкурентам компанії та розробникам ПЗ детальніше розібратися в процесі розробки її продуктів і викликає занепокоєння користувачів та інвесторів щодо безпеки даних Anthropic.

Загальносвітові медіа зазначають, що інформація, розкрита внаслідок цього витоку, показує, як Anthropic вирішує одну з ключових проблем, з якою стикаються AI-інструменти: як зберігати точність під час обробки тривалих або складних завдань. Що несподівано, Claude Code не покладається напряму на раніше згенерований контент; натомість він постійно сумнівається та перевіряє власні результати, щоб уникнути проблеми “галюцинацій”.

Крім того, навіть без дій користувача Claude Code продовжує працювати у фоновому режимі: заново систематизує набуту інформацію, встановлює зв’язки між різним контентом, виправляє суперечності “до і після” та відкидає хибні припущення. Коли користувач повертається, Claude Code здатен сформувати чіткіше й точніше розуміння завдання.

Цей витік також демонструє, що Anthropic уже пробувала залучати AI до розробки проєктів із відкритим кодом, але не позначала явно у відповідних внесках контент, згенерований AI. Водночас компанія досліджує, як зробити свої AI-інструменти більш “запам’ятовуваними” (викликаючими звикання) та складнішими для користувачів, щоб ті могли відмовитися від використання. Anthropic розглядає запуск автономного інструмента-помічника із кодовою назвою “Kairos”, а також “Buddy System (система партнерів)”, у якій вбудована повна система електронних домашніх тварин.

Варто зазначити, що це вже другий випадок витоку для Anthropic менш ніж за тиждень. 26 березня один із розробників помітив, що опис майбутньої AI-моделі Anthropic і деякі пов’язані документи з’явилися в публічному кеші даних.

У лютому цього року Anthropic завершила фінансування на 30 млрд доларів США за участі MGX (технологічна інвестиційна компанія з ОАЕ) як головного інвестора, а оцінка компанії досягла 380 млрд доларів США. 27 березня, за повідомленнями закордонних медіа, Anthropic обговорює плани першого публічного розміщення акцій (IPO) і, найшвидше, вийде на біржу в США вже в жовтні цього року.

(Джерело: The Paper)

Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Репост
  • Поділіться
Прокоментувати
Додати коментар
Додати коментар
Немає коментарів
  • Закріпити