Фьючерсы
Доступ к сотням фьючерсов
TradFi
Золото
Одна платформа мировых активов
Опционы
Hot
Торги опционами Vanilla в европейском стиле
Единый счет
Увеличьте эффективность вашего капитала
Демо-торговля
Введение в торговлю фьючерсами
Подготовьтесь к торговле фьючерсами
Фьючерсные события
Получайте награды в событиях
Демо-торговля
Используйте виртуальные средства для торговли без риска
Запуск
CandyDrop
Собирайте конфеты, чтобы заработать аирдропы
Launchpool
Быстрый стейкинг, заработайте потенциальные новые токены
HODLer Airdrop
Удерживайте GT и получайте огромные аирдропы бесплатно
Launchpad
Будьте готовы к следующему крупному токен-проекту
Alpha Points
Торгуйте и получайте аирдропы
Фьючерсные баллы
Зарабатывайте баллы и получайте награды аирдропа
Инвестиции
Simple Earn
Зарабатывайте проценты с помощью неиспользуемых токенов
Автоинвест.
Автоинвестиции на регулярной основе.
Бивалютные инвестиции
Доход от волатильности рынка
Мягкий стейкинг
Получайте вознаграждения с помощью гибкого стейкинга
Криптозаймы
0 Fees
Заложите одну криптовалюту, чтобы занять другую
Центр кредитования
Единый центр кредитования
Расширение прав автономного принятия решений ИИ, Anthropic вводит автоматический режим для Claude Code
Anthropic придает своим инструментам программирования на базе ИИ большую автономию, одновременно пытаясь найти баланс между эффективностью и безопасностью.
24 марта Anthropic объявила о запуске “автоматического режима” (auto mode) для Claude Code, позволяющего ИИ самостоятельно определять, какие операции можно выполнять напрямую, без ожидания подтверждения пользователя по каждой из них.
Эта функция в настоящее время доступна в исследовательской предварительной версии для пользователей командных планов, в ближайшие дни она будет расширена на корпоративную версию и API-пользователей.
Ключевая особенность новой функции — встроенный механизм безопасности, при котором каждая операция перед выполнением проходит проверку на уровне безопасности ИИ, система автоматически разрешает безопасные действия и блокирует потенциально рискованные.
Anthropic заявляет, что этот уровень безопасности также способен обнаруживать атаки с внедрением подсказок (prompt injection), когда злоумышленник скрывает вредоносные команды внутри обрабатываемого ИИ контента, пытаясь спровоцировать модель выполнить непредвиденные действия.
Компания рекомендует пользователям использовать эту новую функцию в изолированной песочнице, чтобы предотвратить распространение потенциальных рисков в производственные системы.
Итерации продукта, основанные на проблемах разработчиков
Для разработчиков, использующих инструменты программирования на базе ИИ, распространенной проблемой является необходимость либо полностью контролировать каждое действие ИИ, либо полностью доверять модели, что сопряжено с непредсказуемыми рисками.
По сути, автоматический режим Anthropic — это развитие существующей команды Claude Code “больше не запрашивать подтверждение у пользователя” (dangerously-skip-permissions).
Изначально эта команда полностью передавала все решения ИИ, а новая версия добавляет к этому слой безопасности.
Позволяя ИИ, а не пользователю, решать, когда необходимо запрашивать разрешение, Anthropic стремится обеспечить более высокий уровень безопасности без ущерба для скорости выполнения.
Компании, такие как GitHub и OpenAI, уже выпустили автономные инструменты программирования, способные выполнять задачи вместо разработчиков. В этом контексте шаг Anthropic — дальнейшее продвижение, при котором контроль за принятием решений о разрешениях переносится с пользователя на ИИ.
Запуск автоматического режима последовал за недавними обновлениями продуктов Anthropic, включая Claude Code Review — автоматический поиск дефектов перед слиянием кода, и Dispatch for Cowork — возможность делегировать задачи ИИ-агентам.
Эта серия инициатив демонстрирует системное построение компанией Anthropic матрицы продуктов для автоматизированных рабочих процессов ИИ, ориентированных на корпоративных разработчиков.
Ключевые детали требуют уточнения
Тем не менее, эта функция все еще вызывает вопросы и неопределенности.
Anthropic пока не раскрыла конкретные стандарты оценки уровня риска операций, что является именно той информацией, которую разработчики наиболее остро нуждаются узнать перед массовым внедрением этой функции.
Кроме того, автоматический режим в настоящее время поддерживает только модели Claude Sonnet 4.6 и Opus 4.6, и находится в стадии исследовательской предварительной версии, что означает, что продукт еще не окончательно сформирован.
Для компаний, рассматривающих внедрение этой функции в производственной среде, вышеуказанные ограничения и недостаток прозрачности могут стать важными факторами для осторожной оценки.
Предупреждение о рисках и отказ от ответственности
Рынок подвержен рискам, инвестиции требуют осторожности. Настоящий материал не является индивидуальной инвестиционной рекомендацией и не учитывает конкретные цели, финансовое положение или потребности каждого пользователя. Пользователи должны самостоятельно оценить, соответствуют ли любые мнения, взгляды или выводы, изложенные в этом материале, их конкретной ситуации. Инвестируя на основе этой информации, ответственность лежит на них.