Кодовая база из 510 000 строк, разработанная помощником по кодированию Anthropic, была утечена, включая множество неанонсированных функций

robot
Генерация тезисов в процессе

AI(искусственный интеллект)неожиданно “открыла исходный код” для своего кодирующего помощника Claude Code, гигант-стартап в сфере ИИ, — и опубликовала 510 тысяч строк исходного кода.

По местному времени 31 марта из‑за ошибки при упаковке (пакетировании) в npm (менеджер пакетов) утекла часть исходного кода популярного инструмента для программирования на базе ИИ Claude Code, принадлежащего Anthropic. Примерно 512 тысяч строк, включая 4756 исходных файлов, более 40 модулей инструментов и несколько функций, которые еще не были выпущены, — компании пришлось “открыть исходный код” для разработчиков по всему миру. Хотя компания быстро отреагировала, разработчики уже массово делятся этими кодами в сообществах вроде GitHub.

В ответ на это в Anthropic заявили: “В ходе этого инцидента не были затронуты или раскрыты какие‑либо конфиденциальные данные клиентов либо учетные данные. Это проблема публикации, вызванная человеческой ошибкой при пакетировании, а не уязвимость безопасности. Мы принимаем меры, чтобы предотвратить повторение подобных случаев”.

Согласно открытым данным, Anthropic была основана в 2021 году бывшими сотрудниками OpenAI. В линейку продуктов компании входят крупномасштабные модели серии Claude. С момента основания компания последовательно получила инвестиции от технологических гигантов, включая Amazon, Google, Nvidia и Salesforce.

Для такого стартапа, как Anthropic, которая делает акцент на “безопасности” и при этом активно ищет проведение IPO, утечка исходного кода — безусловно, серьезный удар. Это дает конкурентам компании и разработчикам ПО возможность глубже понять процесс разработки ее продуктов, а также вызывает у пользователей и инвесторов беспокойство относительно безопасности данных Anthropic.

Зарубежные СМИ отмечают, что утечка раскрыла, как Anthropic решает одну из ключевых проблем, с которой сталкиваются ИИ‑инструменты: как сохранять точность при обработке длительных или сложных задач. Удивительно то, что Claude Code не полагается напрямую на ранее сгенерированное содержимое, а вместо этого постоянно сомневается и проверяет собственные результаты, чтобы избежать проблем с “галлюцинациями”.

Кроме того, даже без действий пользователя, Claude Code продолжает работать в фоновом режиме: заново упорядочивает выученную информацию, выстраивает связи между различными фрагментами контента, исправляет противоречия до и после и отбрасывает ошибочные предположения. Когда пользователь возвращается, Claude Code может сформировать более ясное и точное понимание задачи.

Данная утечка также показывает, что Anthropic уже пыталась привлекать ИИ к разработке проектов с открытым исходным кодом, но в соответствующих вкладах не помечала явно контент, сгенерированный ИИ. При этом компания изучает, как сделать свои ИИ‑инструменты более “завлекающими”, более трудноотказуемыми для пользователей. Anthropic рассматривает запуск автономного помощника по охране с кодовым названием “Kairos”, а также “Buddy System (система партнеров)”, в которой встроена полноценная система электронных питомцев.

Стоит отметить, что это уже второй случай утечки у Anthropic менее чем за неделю. 26 марта один из разработчиков заметил, что описание ИИ‑модели, которую Anthropic вот‑вот выпустит, и некоторые связанные документы появились в публичном кэше данных.

В феврале этого года Anthropic завершила раунд финансирования на 30 млрд долларов, в котором ведущим инвестором выступила технологическая инвестиционная компания MGX из ОАЭ; оценка компании достигла 380 млрд долларов. 27 марта, по сообщению зарубежных СМИ, Anthropic обсуждает планы по первичному публичному размещению акций (IPO) и, как ожидается, самое раннее может выйти на биржу в США уже в октябре этого года.

(Источник: The Paper)

Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Репост
  • Поделиться
комментарий
Добавить комментарий
Добавить комментарий
Нет комментариев
  • Закрепить