Comment comprendre le nouvel article de Vitalik sur la mise à l’échelle d’Ethereum ?

Comment comprendre le nouvel article de Vitalik Buterin sur les pensées de mise à l’échelle d’Ethereum ? Certaines personnes disent que Vitalik crie des ordres pour des inscriptions Blob, ce qui est scandaleux. Alors, comment fonctionnent les paquets d’objets blob ? Pourquoi l’espace d’objets blob ne peut-il pas être utilisé efficacement après la mise à niveau de Cancún ?L’échantillonnage de la disponibilité des données DAS est-il en préparation du partitionnement ?

À mon avis, Cancun est prêt à l’emploi après la mise à niveau, et Vitalik s’inquiète du développement de Rollup. Ensuite, permettez-moi de parler de ce que j’ai compris :

  1. Comme expliqué à plusieurs reprises auparavant, Blob est un paquet de données temporaire qui peut être directement récupéré par la couche de consensus en se découplant des données d’appel EVM, et l’avantage direct est que l’EVM ne peut pas accéder aux données Blob lors de l’exécution de transactions, il ne peut donc pas générer de coûts de calcul élevés de la couche d’exécution.

En équilibrant actuellement une série de facteurs, la taille d’un objet blob est de 128 Ko, une transaction de lot vers le réseau principal transporte un maximum de deux objets blob, idéalement, l’objectif final d’un bloc de réseau principal est de transporter 16 Mo d’environ 128 paquets d’objets blob.

Par conséquent, l’équipe du projet de cumul doit équilibrer autant que possible le nombre de blocs d’objets blob, la capacité de transaction TPS et le coût de stockage des nœuds du réseau principal d’objets blob, et viser à utiliser l’espace d’objets blob avec les meilleures performances en termes de coûts.

Si l’on prend l’exemple d’Optimism, il y a actuellement environ 500 000 transactions par jour, avec une moyenne d’une transaction sur le réseau principal toutes les deux minutes, transportant un paquet blob à la fois. Pourquoi en apporter un, car TPS est tellement que vous ne pouvez pas l’utiliser, bien sûr, vous pouvez aussi en transporter deux, alors la capacité de chaque blob ne sera pas pleine, mais cela ajoute des coûts de stockage supplémentaires, ce qui n’est pas nécessaire.

Que devons-nous faire lorsque le volume de transactions de Rollup off-chain augmente, par exemple, 50 millions de transactions sont traitées par jour ?1. Compresser et compresser le volume de transaction de chaque lot pour effectuer un grand nombre de transactions dans l’espace blob autant que possible, 2. Augmenter le nombre d’objets blob, et 3. Raccourcir la fréquence des transactions par lots.

  1. Étant donné que la quantité de données transportées par le bloc du réseau principal est affectée par la limite de gaz et le coût de stockage, 128 blobs dans 1 bloc d’emplacement est l’état idéal, qui n’est pas tellement utilisé à l’heure actuelle, et Optimism n’en utilise que 1 toutes les 2 minutes, ce qui laisse beaucoup de place aux projets de couche 2 pour améliorer le TPS, augmenter le nombre d’utilisateurs du marché et la prospérité écologique.

Par conséquent, pendant un certain temps après la mise à niveau de Cancún, les cumuls n’ont pas « généré de volume » en termes de nombre et de fréquence d’utilisation des objets blob utilisés, ni d’utilisation des enchères d’espace d’objets blob.

La raison pour laquelle Vitalik mentionne l’inscription Blobscription est que ce type d’inscription peut temporairement augmenter le volume des transactions et conduire à une augmentation de la demande d’utilisation de Blob, de sorte qu’il augmentera le volume, et l’utilisation de l’inscription comme exemple peut donner une compréhension plus profonde du mécanisme de fonctionnement du Blob, et ce que Vitalik veut vraiment exprimer n’a pas grand-chose à voir avec l’inscription.

Parce que théoriquement, s’il y a une partie de projet de couche 2 qui effectue des transactions à haute fréquence et à haute capacité vers le lot du réseau principal et remplit le bloc Blob à chaque fois, tant qu’elle est prête à supporter le coût élevé de la falsification du lot de transactions, cela affectera l’utilisation normale du Blob par d’autres couches 2, mais dans la situation actuelle, c’est théoriquement faisable, tout comme quelqu’un qui achète de la puissance de calcul pour mener une attaque hard fork de 51% sur BTC, mais en pratique, cela manque de motivation.

L’objectif de l’introduction de Blob est de réduire la charge sur EVM et d’améliorer les capacités d’exploitation et de maintenance des nœuds, ce qui est sans aucun doute une solution sur mesure pour le Rollup. De toute évidence, il n’est pas utilisé efficacement pour le moment, et les frais de gaz pour l’utilisation de la couche 2 resteront stables dans la fourchette « basse » pendant longtemps. Cela donnera au marché de la couche 2 une fenêtre de développement dorée à long terme pour « augmenter les troupes et stocker des céréales ».

  1. Alors, que se passerait-il si un jour le marché de la couche 2 prospérait dans une certaine mesure, et que le nombre de transactions de Batch à Mainnet devenait énorme chaque jour, et qu’il n’y avait pas assez de paquets blob à l’heure actuelle ? Ethereum a déjà donné une solution : en utilisant l’échantillonnage de la disponibilité des données (DAS) :

Par exemple, chaque nœud stocke 1/8 de toutes les données d’objets blob et 8 nœuds forment une équipe pour répondre à la capacité DA, ce qui équivaut à multiplier par 8 la capacité de stockage d’objets blob actuels. C’est d’ailleurs ce qui sera fait à l’étape du sharding à l’avenir.

Mais à l’heure actuelle, Vitalik l’a répété à plusieurs reprises, ce qui est plein de charme, et semble avertir la majorité des parties du projet de couche 2 : ne vous plaignez pas toujours de la capacité élevée d’Ethereum DA, avec votre capacité TPS actuelle, vous n’avez pas développé la capacité des paquets de données Blob à l’extrême, dépêchez-vous et augmentez la puissance de feu pour vous engager dans l’écologie, augmenter les utilisateurs et le volume des transactions, et ne pensez pas toujours à l’évasion DA et engagez-vous dans un travail en chaîne en un clic.

Plus tard, Vitalik a ajouté que seul Arbitrum a atteint l’étape 1 parmi les rollups de base, et bien que DeGate, Fuel, etc. aient atteint l’étape 2, ils ne sont pas encore familiers à la communauté au sens large. L’étape 2 est l’objectif ultime de la sécurité des rollups, très peu de rollups ont atteint l’étape 1, et la plupart des rollups sont à l’étape 0, ce qui montre que le développement de l’industrie des rollups inquiète vraiment Vitalik.

  1. En fait, en termes de goulots d’étranglement de mise à l’échelle, il y a encore beaucoup de place pour que la solution Rollup layer2 améliore les performances.
  1. L’espace Blob est utilisé plus efficacement grâce à la compression des données, OP-Rollup dispose actuellement d’un composant Compressor spécial pour le faire, et ZK-Rollup lui-même compresse SNARK/STARK hors chaîne pour prouver que la soumission au réseau principal est une « compression » ;

  2. Réduisez autant que possible la dépendance de la couche 2 sur le réseau principal et n’utilisez la technologie de preuve optimiste pour assurer la sécurité L2 que dans des circonstances particulières, par exemple, la plupart des données de Plasma se trouvent sur la chaîne, mais dans les scénarios de dépôt et de retrait, elles se produisent sur le réseau principal, de sorte que le réseau principal peut promettre sa sécurité.

Cela signifie que la couche 2 ne doit considérer que les opérations importantes telles que les dépôts et les retraits comme fortement associées au réseau principal, ce qui non seulement réduit la charge sur le réseau principal, mais améliore également les performances de L2 lui-même. La capacité de « traitement parallèle » du séquenceur mentionnée dans la discussion précédente sur l’EVM parallèle, qui filtre, classe et prétraite un grand nombre de transactions hors chaîne, ainsi que le cumul hybride mis en œuvre par Metis, qui utilise OP-Rollup pour les transactions normales et ZK Route pour les demandes de retrait spéciales, ont tous des considérations similaires.

Ci-dessus.

Dans l’ensemble, l’article de Vitalik sur le futur plan de mise à l’échelle d’Ethereum est très instructif. En particulier, il n’est pas satisfait de l’état de développement de la couche 2, optimiste quant à l’espace de performance de Blob et à la perspective d’une future technologie de sharding, et souligne même certaines directions qui méritent d’être optimisées pour la couche 2.

En fait, la seule incertitude est laissée à la couche 2 elle-même, comment accélérer le développement ?

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
Aucun commentaire
  • Épingler