AI丨Anthropic серйозно витекли понад 510 000 вихідних кодів, функція електронного улюбленця розкрилася раніше часу

robot
Генерація анотацій у процесі

Розробник Claude Anthropic зазнав серйозної інцидентної події. Як повідомляється, термінальний проксі-інструмент, який компанія щойно випустила вчора, «Claude Code», став причиною найбільш масштабного в історії повного витоку вихідного коду, включно з понад 510 000 рядків коду TypeScript, понад 40 модулів інструментів, а також кількома позиціями ключових функцій, які ще не були опубліковані, зокрема «електронним вихованцем», «сном» тощо; усе це було завантажено, що привернуло увагу ринку.

Прес-секретар: людська помилка, а не вразливість безпеки

У повідомленні, на яке посилається медіа, прес-секретар зазначив, що цей витік не стосується будь-яких чутливих даних клієнтів або облікових даних, і не спричинив жодних втрат: «Це лише пакувальна проблема, спричинена людською помилкою, а не вразливість безпеки. Ми вживаємо заходів, щоб запобігти повторенню таких інцидентів». Також Anthropic одразу зняла з продажу проблемну версію та прибрала старий пакет, але не надсилала офіційного повідомлення про відкликання дзеркальних репозиторіїв, які вже розповсюдилися на GitHub.

За тиждень двічі поспіль

Втім, є припущення, що ця «несподіванка» може дати іншим розробникам програмного забезпечення та конкурентам Anthropic змогу розібратися в процесі розробки цього інструмента для кодування. Згідно з публікацією в соціальній мережі, доповненою посиланням на відповідний код, з моменту публікації у вівторок о 4:00 ранку перегляди вже перевищили 21 млн разів. Водночас Anthropic за тиждень двічі поспіль зазнала великих інцидентів з витоком даних. Як повідомляє Fortune днями, описи моделей штучного інтелекту (AI), які компанія має намір випустити, а також близько 3000 внутрішніх документів нещодавно були виявлені в публічно доступному кеші даних.

Є аналітики, які зазначають, що подія підкреслює ризики для AI-інструментів між швидкими ітераціями та відкритою екосистемою. Вихідний код широко розійшовся, але Anthropic не здійснювала проактивного відкритого ліцензування; компанія все ще володіє повними авторськими правами, і розробники можуть використовувати код лише як дослідницький матеріал. Якщо ж хтось самовільно змінить код і комерціалізує його, це може призвести до зняття з розповсюдження або до юридичної відповідальності. А «випадкове» розкриття технічних деталей Claude Code також відображає, що в умовах високої конкуренції AI стикається з багатьма викликами одночасно — щодо можливостей інструментів, ефективності розробки та безпечного контролю, — і водночас вплив на індустрію та дискусії щодо регулювання триватимуть і посилюватимуться.

Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Репост
  • Поділіться
Прокоментувати
Додати коментар
Додати коментар
Немає коментарів
  • Закріпити