Век Лабс: Может ли ИИ столкнуться с рисками? Три железных правила построения безопасных Multi-Agent систем



Сейчас агенты ИИ начинают брать на себя всё больше рабочих процессов, и одна проблема, о которой многие не задумываются, выходит на передний план: когда ИИ получает возможность управлять компьютером, обращаться к API и даже выполнять сделки, как обеспечить, чтобы его не использовали в злонамеренных целях?

В практической деятельности Век Лабс мы уделяем внимание не только «интеллекту», но и «иммунитету» ИИ. Исходя из крайнего стремления к безопасности активов и информационной безопасности, мы сформулировали три обязательных правила безопасности при построении системы с несколькими агентами.

Железное правило 1: Физическая и логическая изоляция — отказ от «голого» ИИ

Многие разработчики ради удобства запускают скрипты ИИ-агентов прямо на личных компьютерах или частных серверах. На взгляд Век Лабс, это равноценно оставлению задней двери.

· Работа в изолированной среде: все экземпляры OpenClaw должны развертываться в отдельной, управляемой облачной виртуальной среде (VM).
· Запрет на использование личных устройств: строго запрещается использовать личные устройства или предоставлять основные учетные записи для доступа ИИ. Потому что, если возникнет проблема с вызовом стороннего API, это может привести к утечке личных данных или токенов (Token) в локальной среде.
· Принцип: запереть ИИ в «цифровой песочнице», чтобы он мог проявлять себя только в ограниченной среде.

Железное правило 2: Принцип минимальных привилегий — он «стажёр», а не «генеральный директор»

При назначении прав агенту ИИ необходимо соблюдать принцип минимальных привилегий (Least Privilege).

· Запрет на доступ к приватным ключам: в рамках правил безопасности Век Лабс, ИИ-агенты могут осуществлять мониторинг рынка, анализ общественного мнения, писать тексты, но категорически запрещается трогать любые операции, связанные с ключевыми активами, мнемоническими фразами или приватными ключами.
· Контроль доступа к API: если ИИ нужно обращаться к API, разрешается только режим Read-Only (только чтение) или ограниченные операции. Даже при ошибках логики ИИ потенциальный ущерб будет ограничен минимальной зоной.
· Принцип: никогда не доверяйте «ключи к сейфу» интеллекту, который всё ещё учится и развивается.

Железное правило 3: Установка «безопасной тормозной системы»: блокировка потенциальных аномалий правилами

ИИ обладает высокой способностью к самовосстановлению логики, но также может попасть в странные «цикл команд».

· Мониторинг и торможение: как мы упоминали в статье о контроле затрат, Век Лабс установил максимальный порог повторных попыток (например, при 3 неудачах — остановка). Это не только для экономии, но и для предотвращения катастрофических ошибок ИИ при возникновении аномалий или уязвимостей.
· Предупреждающие слова бюджета: в базовые подсказки (Prompt) встроены инструкции по безопасности, требующие от ИИ немедленно уведомлять человека-оператора при обнаружении аномальных команд или попыток нарушения прав.
· Принцип: человек должен сохранять «кнопку отключения» с правом немедленного завершения работы.

В глубине пересечения Web3 и ИИ безопасность — не опция, а условие выживания. Век Лабс убеждён, что только автоматизация, построенная на прочной базе безопасности, является настоящей революцией в производительности. Мы продолжим совершенствовать эту архитектуру AI с «Security-First», чтобы открыть пользователям и индустрии более надёжный путь к инновациям.
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Репост
  • Поделиться
комментарий
Добавить комментарий
Добавить комментарий
Нет комментариев
  • Закрепить