Расширение прав автономного принятия решений ИИ, Anthropic вводит автоматический режим для Claude Code

robot
Генерация тезисов в процессе

Anthropic придает своим инструментам программирования на базе ИИ большую автономию, одновременно пытаясь найти баланс между эффективностью и безопасностью.

24 марта Anthropic объявила о запуске “автоматического режима” (auto mode) для Claude Code, позволяющего ИИ самостоятельно определять, какие операции можно выполнять напрямую, без ожидания подтверждения пользователя по каждой из них.

Эта функция в настоящее время доступна в исследовательской предварительной версии для пользователей командных планов, в ближайшие дни она будет расширена на корпоративную версию и API-пользователей.

Ключевая особенность новой функции — встроенный механизм безопасности, при котором каждая операция перед выполнением проходит проверку на уровне безопасности ИИ, система автоматически разрешает безопасные действия и блокирует потенциально рискованные.

Anthropic заявляет, что этот уровень безопасности также способен обнаруживать атаки с внедрением подсказок (prompt injection), когда злоумышленник скрывает вредоносные команды внутри обрабатываемого ИИ контента, пытаясь спровоцировать модель выполнить непредвиденные действия.

Компания рекомендует пользователям использовать эту новую функцию в изолированной песочнице, чтобы предотвратить распространение потенциальных рисков в производственные системы.

Итерации продукта, основанные на проблемах разработчиков

Для разработчиков, использующих инструменты программирования на базе ИИ, распространенной проблемой является необходимость либо полностью контролировать каждое действие ИИ, либо полностью доверять модели, что сопряжено с непредсказуемыми рисками.

По сути, автоматический режим Anthropic — это развитие существующей команды Claude Code “больше не запрашивать подтверждение у пользователя” (dangerously-skip-permissions).

Изначально эта команда полностью передавала все решения ИИ, а новая версия добавляет к этому слой безопасности.

Позволяя ИИ, а не пользователю, решать, когда необходимо запрашивать разрешение, Anthropic стремится обеспечить более высокий уровень безопасности без ущерба для скорости выполнения.

Компании, такие как GitHub и OpenAI, уже выпустили автономные инструменты программирования, способные выполнять задачи вместо разработчиков. В этом контексте шаг Anthropic — дальнейшее продвижение, при котором контроль за принятием решений о разрешениях переносится с пользователя на ИИ.

Запуск автоматического режима последовал за недавними обновлениями продуктов Anthropic, включая Claude Code Review — автоматический поиск дефектов перед слиянием кода, и Dispatch for Cowork — возможность делегировать задачи ИИ-агентам.

Эта серия инициатив демонстрирует системное построение компанией Anthropic матрицы продуктов для автоматизированных рабочих процессов ИИ, ориентированных на корпоративных разработчиков.

Ключевые детали требуют уточнения

Тем не менее, эта функция все еще вызывает вопросы и неопределенности.

Anthropic пока не раскрыла конкретные стандарты оценки уровня риска операций, что является именно той информацией, которую разработчики наиболее остро нуждаются узнать перед массовым внедрением этой функции.

Кроме того, автоматический режим в настоящее время поддерживает только модели Claude Sonnet 4.6 и Opus 4.6, и находится в стадии исследовательской предварительной версии, что означает, что продукт еще не окончательно сформирован.

Для компаний, рассматривающих внедрение этой функции в производственной среде, вышеуказанные ограничения и недостаток прозрачности могут стать важными факторами для осторожной оценки.

Предупреждение о рисках и отказ от ответственности

Рынок подвержен рискам, инвестиции требуют осторожности. Настоящий материал не является индивидуальной инвестиционной рекомендацией и не учитывает конкретные цели, финансовое положение или потребности каждого пользователя. Пользователи должны самостоятельно оценить, соответствуют ли любые мнения, взгляды или выводы, изложенные в этом материале, их конкретной ситуации. Инвестируя на основе этой информации, ответственность лежит на них.

Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Репост
  • Поделиться
комментарий
Добавить комментарий
Добавить комментарий
Нет комментариев
  • Закрепить