Ф'ючерси
Сотні безстрокових контрактів
TradFi
Золото
Одна платформа для світових активів
Опціони
Hot
Торгівля ванільними опціонами європейського зразка
Єдиний рахунок
Максимізуйте ефективність вашого капіталу
Демо торгівля
Вступ до ф'ючерсної торгівлі
Підготуйтеся до ф’ючерсної торгівлі
Ф'ючерсні події
Заробляйте, беручи участь в подіях
Демо торгівля
Використовуйте віртуальні кошти для безризикової торгівлі
Запуск
CandyDrop
Збирайте цукерки, щоб заробити аірдропи
Launchpool
Швидкий стейкінг, заробляйте нові токени
HODLer Airdrop
Утримуйте GT і отримуйте масові аірдропи безкоштовно
Launchpad
Будьте першими в наступному великому проекту токенів
Alpha Поінти
Ончейн-торгівля та аірдропи
Ф'ючерсні бали
Заробляйте фʼючерсні бали та отримуйте аірдроп-винагороди
Інвестиції
Simple Earn
Заробляйте відсотки за допомогою неактивних токенів
Автоінвестування
Автоматичне інвестування на регулярній основі
Подвійні інвестиції
Прибуток від волатильності ринку
Soft Staking
Earn rewards with flexible staking
Криптопозика
0 Fees
Заставте одну криптовалюту, щоб позичити іншу
Центр кредитування
Єдиний центр кредитування
Центр багатства VIP
Преміальні плани зростання капіталу
Управління приватним капіталом
Розподіл преміальних активів
Квантовий фонд
Квантові стратегії найвищого рівня
Стейкінг
Стейкайте криптовалюту, щоб заробляти на продуктах PoS
Розумне кредитне плече
Кредитне плече без ліквідації
Випуск GUSD
Мінтинг GUSD для прибутку RWA
Кодовий помічник Anthropic з 510 000 рядків вихідного коду був викрадений, включаючи багато невипущених функцій
AI(штучний інтелект) несподівано “відкрила код” свого помічника для програмування Claude Code від гіганта-новачка Anthropic — 510 000 рядків вихідного коду.
Місцевий час 31 березня, через помилку під час пакування npm (менеджера пакетів), витікла частина вихідного коду популярного AI-інструменту для програмування Claude Code, що належить Anthropic; загалом приблизно 512 тис. рядків, включно з 4756 файлами з вихідним кодом, понад 40 модулів інструментів та кількома функціями, які ще не були опубліковані, змусивши компанію “відкрити код” для розробників по всьому світу. Хоча компанія швидко відреагувала, розробники вже масово діляться цими кодами в спільнотах на кшталт GitHub.
У відповідь представники Anthropic заявили: “Ця подія не стосується і не розкриває жодних чутливих даних клієнтів або облікових даних. Це проблема пакування, спричинена людською помилкою, а не вразливістю безпеки. Ми вживаємо заходів, щоб подібні ситуації не повторювалися”.
Публічно відомо, що Anthropic була заснована у 2021 році колишніми співробітниками OpenAI; до її продуктів належать великі мовні моделі серії Claude. Від моменту заснування компанія отримувала інвестиції від технологічних гігантів — зокрема Amazon, Google, Nvidia, Salesforce тощо.
Для такої стартап-компанії, як Anthropic, яка робить акцент на “безпеці” та активно прагне вийти на IPO, витік вихідного коду безперечно є серйозним ударом: це дозволяє конкурентам компанії та розробникам ПЗ детальніше розібратися в процесі розробки її продуктів і викликає занепокоєння користувачів та інвесторів щодо безпеки даних Anthropic.
Загальносвітові медіа зазначають, що інформація, розкрита внаслідок цього витоку, показує, як Anthropic вирішує одну з ключових проблем, з якою стикаються AI-інструменти: як зберігати точність під час обробки тривалих або складних завдань. Що несподівано, Claude Code не покладається напряму на раніше згенерований контент; натомість він постійно сумнівається та перевіряє власні результати, щоб уникнути проблеми “галюцинацій”.
Крім того, навіть без дій користувача Claude Code продовжує працювати у фоновому режимі: заново систематизує набуту інформацію, встановлює зв’язки між різним контентом, виправляє суперечності “до і після” та відкидає хибні припущення. Коли користувач повертається, Claude Code здатен сформувати чіткіше й точніше розуміння завдання.
Цей витік також демонструє, що Anthropic уже пробувала залучати AI до розробки проєктів із відкритим кодом, але не позначала явно у відповідних внесках контент, згенерований AI. Водночас компанія досліджує, як зробити свої AI-інструменти більш “запам’ятовуваними” (викликаючими звикання) та складнішими для користувачів, щоб ті могли відмовитися від використання. Anthropic розглядає запуск автономного інструмента-помічника із кодовою назвою “Kairos”, а також “Buddy System (система партнерів)”, у якій вбудована повна система електронних домашніх тварин.
Варто зазначити, що це вже другий випадок витоку для Anthropic менш ніж за тиждень. 26 березня один із розробників помітив, що опис майбутньої AI-моделі Anthropic і деякі пов’язані документи з’явилися в публічному кеші даних.
У лютому цього року Anthropic завершила фінансування на 30 млрд доларів США за участі MGX (технологічна інвестиційна компанія з ОАЕ) як головного інвестора, а оцінка компанії досягла 380 млрд доларів США. 27 березня, за повідомленнями закордонних медіа, Anthropic обговорює плани першого публічного розміщення акцій (IPO) і, найшвидше, вийде на біржу в США вже в жовтні цього року.
(Джерело: The Paper)