Виталик поделился решением локальных приватных LLM, подчеркнув приоритет конфиденциальности и безопасности

robot
Генерация тезисов в процессе

Сообщение ChainCatcher: Vitalik Buterin опубликовал пост, в котором поделился планом локального и приватного развертывания LLM на конец апреля 2026 года. Его ключевая цель — исходить из предпосылок конфиденциальности, безопасности и самостоятельного контролируемого управления, максимально сократив возможности для контакта удаленных моделей и внешних сервисов с персональными данными, а также снижая риски утечки данных, взлома модели (jailbreak) и эксплуатации вредоносного контента за счет локального вывода, локального хранения файлов и изоляции в песочнице.

Что касается аппаратной части, он протестировал ноутбуки с NVIDIA 5090 GPU, устройства с AMD Ryzen AI Max Pro и объемом единой памяти 128 GB, а также решения вроде DGX Spark, и использовал модели Qwen3.5 35B и 122B для локального вывода.

В частности, ноутбук на 5090 GPU с моделью 35B обеспечивает примерно 90 tokens/s, AMD — около 51 tokens/s, DGX Spark — около 60 tokens/s. Vitalik заявил, что он больше склоняется к созданию локальной AI-среды на основе высокопроизводительных ноутбуков, одновременно используя инструменты вроде llama-server, llama-swap и NixOS для построения целостного рабочего процесса.

Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Репост
  • Поделиться
комментарий
Добавить комментарий
Добавить комментарий
Нет комментариев
  • Закрепить