Виталик поделился решением локальной частной LLM, подчеркнув приоритет конфиденциальности и безопасности

robot
Генерация тезисов в процессе

ME News сообщение, 2 апреля (UTC+8), Виталик Бутерин опубликовал пост, в котором поделился своей локальной, приватной схемой развертывания LLM на основе контекста по состоянию на апрель 2026 года; ключевая цель — исходить из того, что во главу угла поставлены конфиденциальность, безопасность и самостоятельный контроль, по возможности сокращая шансы на контакт удалённых моделей и внешних сервисов с персональными данными, и снижая риски утечек данных, «джейлбрейка» модели и эксплуатации вредоносного контента за счёт локального вывода, локального хранения файлов и изоляции в песочнице. В части оборудования он протестировал варианты, включая ноутбук с GPU NVIDIA 5090, устройства с AMD Ryzen AI Max Pro и унифицированной памятью 128 GB, а также DGX Spark и другие решения, и выполнил локальный вывод с моделями Qwen3.5 35B и 122B. В частности, ноутбук с 5090 в сценарии для 35B модели обеспечивает примерно 90 tokens/s, AMD-схема — около 51 tokens/s, а DGX Spark — около 60 tokens/s. Виталик отметил, что ему более предпочтительно строить локальную AI-среду на базе высокопроизводительных ноутбуков, при этом используя такие инструменты, как llama-server, llama-swap и NixOS, чтобы собрать целостный рабочий процесс. (Источник: ODAILY)

Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Репост
  • Поделиться
комментарий
Добавить комментарий
Добавить комментарий
Нет комментариев
  • Закрепить