OpenClaw 2026.4.2 сосредоточено на ужесточении цепочки безопасности HTTP поставщиков, подключение к Google Assistant.

robot
Генерация тезисов в процессе

Согласно мониторингу 1M AI News, платформа с открытым исходным кодом для AI-агентов OpenClaw выпустила версию от 2026.4.2. В этой версии — 2 пункта breaking changes, около 15 улучшений функциональности и более 30 исправлений.

Оба breaking changes продолжают внешнее вынесение архитектуры плагинов, запущенной 2026.3.31: конфигурация x_search от xAI и конфигурация web_fetch от Firecrawl были перенесены из основного пути в собственные пути плагинов; старые конфигурации могут быть автоматически перенесены через openclaw doctor --fix.

Самая плотная по единой теме часть этого релиза — централизация безопасности HTTP-цепочек у поставщиков: участник vincentkoc внес 8 связанных исправлений. Ранее проверка подлинности запросов, настройки прокси, стратегии TLS и обработка заголовков для общих HTTP, потоковой передачи и WebSocket путей были разрозненными по адаптерам под каждого поставщика; теперь все сведено и унифицировано: стратегии нативных/прокси-запросов для эндпоинтов GitHub Copilot, Anthropic и совместимых с OpenAI централизованы, чтобы предотвратить подделку или наследование нативных значений по умолчанию прокси-эндпоинтами; маршрутизация медиа-запросов (аудио, изображения и т.п.) выполняется через общий HTTP-путь; эндпоинты генерации изображений больше не выводят права доступа к приватной сети на основании настроенного base URL; сравнение ключей webhook по разным каналам унифицировано с использованием функции безопасного по времени сравнения. Для пользователей с самохостингом или подключением сразу нескольких сторонних поставщиков эти изменения закрывают целый ряд уязвимостей, связанных с подделкой запросов и наследованием стратегий.

В части новых функций на Android добавлена интеграция с Google Assistant: пользователи могут запускать OpenClaw прямо из голосового помощника и отправлять подсказку в интерфейс диалога. Изменились настройки по умолчанию: для шлюза и узла теперь выполняется security=full и ask=off, то есть применяется принудительная стратегия безопасности, но без подтверждения всплывающими окнами на каждом шаге. В системе плагинов добавлен хук before_agent_reply, который позволяет плагину перед ответом LLM выполнять сквозное короткое замыкание всего процесса с помощью составленного ответа. Task Flow продолжает совершенствоваться: добавлены генерация управляемых подзадач и липкие намерения отмены; внешний оркестратор может сразу остановить диспетчеризацию и дождаться естественного завершения активных подзадач.

Другие исправления: внутренние теги рассуждений antml:thinking в модели Anthropic ранее могли утекать в текст, видимый пользователям; теперь они фильтруются на стороне вывода; вызов инструмента Kimi Coding терял параметры из‑за несовместимости форматов Anthropic и OpenAI, выполнена нормализация; при потоковой передаче в MS Teams, если превышается лимит 4000 символов, больше не происходит повторный вывод уже переданного содержимого.

Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Репост
  • Поделиться
комментарий
Добавить комментарий
Добавить комментарий
Нет комментариев
  • Закрепить