Vitalik partage une solution LLM privée locale, en mettant l'accent sur la confidentialité et la sécurité prioritaires

robot
Création du résumé en cours

Nouvelles ME, message du 2 avril (UTC+8) : Vitalik Buterin a publié un billet dans lequel il partage sa solution de déploiement d’LLM localisé et privatisé, telle qu’elle en est à avril 2026. Son objectif central est de poser la confidentialité, la sécurité et la maîtrise autonome comme prérequis, de réduire autant que possible les occasions d’exposer des données personnelles en sollicitant des modèles distants et des services externes, et de diminuer les risques de fuite de données, de “jailbreak” du modèle et d’exploitation de contenus malveillants grâce à l’inférence locale, au stockage local de fichiers et à l’isolation par bac à sable. En matière de matériel, il a testé des ordinateurs portables équipés de GPU NVIDIA 5090, des appareils à mémoire unifiée AMD Ryzen AI Max Pro 128 GB et des solutions comme DGX Spark, et a effectué une inférence locale avec les modèles Qwen3.5 35B et 122B. Parmi ceux-ci, l’ordinateur portable 5090 atteint environ 90 tokens/s avec le modèle 35B, la solution AMD environ 51 tokens/s, et DGX Spark environ 60 tokens/s. Vitalik indique qu’il préfère construire un environnement d’IA local à partir d’ordinateurs portables hautes performances, tout en utilisant des outils comme llama-server, llama-swap et NixOS pour mettre en place l’ensemble du flux de travail. (Source : ODAILY)

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
Aucun commentaire
  • Épingler