Vitalik partage une solution LLM privée locale, en mettant l'accent sur la confidentialité et la sécurité prioritaires

robot
Création du résumé en cours

Nouvelles ME, le 2 avril (UTC+8) : Vitalik Buterin a publié un message dans lequel il partage sa stratégie de déploiement de LLM localisés et privatisés, à partir des données locales jusqu’en avril 2026. L’objectif central est de partir du principe que la confidentialité, la sécurité et la maîtrise autonome sont prioritaires : il s’agit de réduire autant que possible les occasions pour que des modèles distants et des services externes entrent en contact avec des données personnelles, et de diminuer les risques de fuite de données, de jailbreak du modèle et d’exploitation de contenus malveillants grâce à l’inférence locale, au stockage local des fichiers et à l’isolation par bac à sable. Sur le plan matériel, il a testé des options comme un ordinateur portable équipé d’un GPU NVIDIA 5090, un appareil à mémoire unifiée AMD Ryzen AI Max Pro de 128 GB et des solutions du type DGX Spark, et a effectué une inférence locale avec les modèles Qwen3.5 35B et 122B. Parmi celles-ci, l’ordinateur portable 5090 atteint environ 90 tokens/s avec le modèle 35B, la solution AMD environ 51 tokens/s et DGX Spark environ 60 tokens/s. Vitalik indique qu’il préfère construire un environnement d’IA local à partir d’un ordinateur portable hautes performances, tout en utilisant des outils comme llama-server, llama-swap et NixOS pour mettre en place l’ensemble du flux de travail. (Source : ME News)

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
Aucun commentaire
  • Épingler