Futures
Accédez à des centaines de contrats perpétuels
TradFi
Or
Une plateforme pour les actifs mondiaux
Options
Hot
Tradez des options classiques de style européen
Compte unifié
Maximiser l'efficacité de votre capital
Trading démo
Introduction au trading futures
Préparez-vous à trader des contrats futurs
Événements futures
Participez aux événements et gagnez
Demo Trading
Utiliser des fonds virtuels pour faire l'expérience du trading sans risque
Lancer
CandyDrop
Collecte des candies pour obtenir des airdrops
Launchpool
Staking rapide, Gagnez de potentiels nouveaux jetons
HODLer Airdrop
Conservez des GT et recevez d'énormes airdrops gratuitement
Launchpad
Soyez les premiers à participer au prochain grand projet de jetons
Points Alpha
Tradez on-chain et gagnez des airdrops
Points Futures
Gagnez des points Futures et réclamez vos récompenses d’airdrop.
Investissement
Simple Earn
Gagner des intérêts avec des jetons inutilisés
Investissement automatique
Auto-invest régulier
Double investissement
Profitez de la volatilité du marché
Staking souple
Gagnez des récompenses grâce au staking flexible
Prêt Crypto
0 Fees
Mettre en gage un crypto pour en emprunter une autre
Centre de prêts
Centre de prêts intégré
Comment comprendre le nouvel article de Vitalik sur la mise à l’échelle d’Ethereum ?
Comment comprendre le nouvel article de Vitalik Buterin sur les pensées de mise à l’échelle d’Ethereum ? Certaines personnes disent que Vitalik crie des ordres pour des inscriptions Blob, ce qui est scandaleux. Alors, comment fonctionnent les paquets d’objets blob ? Pourquoi l’espace d’objets blob ne peut-il pas être utilisé efficacement après la mise à niveau de Cancún ?L’échantillonnage de la disponibilité des données DAS est-il en préparation du partitionnement ?
À mon avis, Cancun est prêt à l’emploi après la mise à niveau, et Vitalik s’inquiète du développement de Rollup. Ensuite, permettez-moi de parler de ce que j’ai compris :
En équilibrant actuellement une série de facteurs, la taille d’un objet blob est de 128 Ko, une transaction de lot vers le réseau principal transporte un maximum de deux objets blob, idéalement, l’objectif final d’un bloc de réseau principal est de transporter 16 Mo d’environ 128 paquets d’objets blob.
Par conséquent, l’équipe du projet de cumul doit équilibrer autant que possible le nombre de blocs d’objets blob, la capacité de transaction TPS et le coût de stockage des nœuds du réseau principal d’objets blob, et viser à utiliser l’espace d’objets blob avec les meilleures performances en termes de coûts.
Si l’on prend l’exemple d’Optimism, il y a actuellement environ 500 000 transactions par jour, avec une moyenne d’une transaction sur le réseau principal toutes les deux minutes, transportant un paquet blob à la fois. Pourquoi en apporter un, car TPS est tellement que vous ne pouvez pas l’utiliser, bien sûr, vous pouvez aussi en transporter deux, alors la capacité de chaque blob ne sera pas pleine, mais cela ajoute des coûts de stockage supplémentaires, ce qui n’est pas nécessaire.
Que devons-nous faire lorsque le volume de transactions de Rollup off-chain augmente, par exemple, 50 millions de transactions sont traitées par jour ?1. Compresser et compresser le volume de transaction de chaque lot pour effectuer un grand nombre de transactions dans l’espace blob autant que possible, 2. Augmenter le nombre d’objets blob, et 3. Raccourcir la fréquence des transactions par lots.
Par conséquent, pendant un certain temps après la mise à niveau de Cancún, les cumuls n’ont pas « généré de volume » en termes de nombre et de fréquence d’utilisation des objets blob utilisés, ni d’utilisation des enchères d’espace d’objets blob.
La raison pour laquelle Vitalik mentionne l’inscription Blobscription est que ce type d’inscription peut temporairement augmenter le volume des transactions et conduire à une augmentation de la demande d’utilisation de Blob, de sorte qu’il augmentera le volume, et l’utilisation de l’inscription comme exemple peut donner une compréhension plus profonde du mécanisme de fonctionnement du Blob, et ce que Vitalik veut vraiment exprimer n’a pas grand-chose à voir avec l’inscription.
Parce que théoriquement, s’il y a une partie de projet de couche 2 qui effectue des transactions à haute fréquence et à haute capacité vers le lot du réseau principal et remplit le bloc Blob à chaque fois, tant qu’elle est prête à supporter le coût élevé de la falsification du lot de transactions, cela affectera l’utilisation normale du Blob par d’autres couches 2, mais dans la situation actuelle, c’est théoriquement faisable, tout comme quelqu’un qui achète de la puissance de calcul pour mener une attaque hard fork de 51% sur BTC, mais en pratique, cela manque de motivation.
L’objectif de l’introduction de Blob est de réduire la charge sur EVM et d’améliorer les capacités d’exploitation et de maintenance des nœuds, ce qui est sans aucun doute une solution sur mesure pour le Rollup. De toute évidence, il n’est pas utilisé efficacement pour le moment, et les frais de gaz pour l’utilisation de la couche 2 resteront stables dans la fourchette « basse » pendant longtemps. Cela donnera au marché de la couche 2 une fenêtre de développement dorée à long terme pour « augmenter les troupes et stocker des céréales ».
Par exemple, chaque nœud stocke 1/8 de toutes les données d’objets blob et 8 nœuds forment une équipe pour répondre à la capacité DA, ce qui équivaut à multiplier par 8 la capacité de stockage d’objets blob actuels. C’est d’ailleurs ce qui sera fait à l’étape du sharding à l’avenir.
Mais à l’heure actuelle, Vitalik l’a répété à plusieurs reprises, ce qui est plein de charme, et semble avertir la majorité des parties du projet de couche 2 : ne vous plaignez pas toujours de la capacité élevée d’Ethereum DA, avec votre capacité TPS actuelle, vous n’avez pas développé la capacité des paquets de données Blob à l’extrême, dépêchez-vous et augmentez la puissance de feu pour vous engager dans l’écologie, augmenter les utilisateurs et le volume des transactions, et ne pensez pas toujours à l’évasion DA et engagez-vous dans un travail en chaîne en un clic.
Plus tard, Vitalik a ajouté que seul Arbitrum a atteint l’étape 1 parmi les rollups de base, et bien que DeGate, Fuel, etc. aient atteint l’étape 2, ils ne sont pas encore familiers à la communauté au sens large. L’étape 2 est l’objectif ultime de la sécurité des rollups, très peu de rollups ont atteint l’étape 1, et la plupart des rollups sont à l’étape 0, ce qui montre que le développement de l’industrie des rollups inquiète vraiment Vitalik.
L’espace Blob est utilisé plus efficacement grâce à la compression des données, OP-Rollup dispose actuellement d’un composant Compressor spécial pour le faire, et ZK-Rollup lui-même compresse SNARK/STARK hors chaîne pour prouver que la soumission au réseau principal est une « compression » ;
Réduisez autant que possible la dépendance de la couche 2 sur le réseau principal et n’utilisez la technologie de preuve optimiste pour assurer la sécurité L2 que dans des circonstances particulières, par exemple, la plupart des données de Plasma se trouvent sur la chaîne, mais dans les scénarios de dépôt et de retrait, elles se produisent sur le réseau principal, de sorte que le réseau principal peut promettre sa sécurité.
Cela signifie que la couche 2 ne doit considérer que les opérations importantes telles que les dépôts et les retraits comme fortement associées au réseau principal, ce qui non seulement réduit la charge sur le réseau principal, mais améliore également les performances de L2 lui-même. La capacité de « traitement parallèle » du séquenceur mentionnée dans la discussion précédente sur l’EVM parallèle, qui filtre, classe et prétraite un grand nombre de transactions hors chaîne, ainsi que le cumul hybride mis en œuvre par Metis, qui utilise OP-Rollup pour les transactions normales et ZK Route pour les demandes de retrait spéciales, ont tous des considérations similaires.
Ci-dessus.
Dans l’ensemble, l’article de Vitalik sur le futur plan de mise à l’échelle d’Ethereum est très instructif. En particulier, il n’est pas satisfait de l’état de développement de la couche 2, optimiste quant à l’espace de performance de Blob et à la perspective d’une future technologie de sharding, et souligne même certaines directions qui méritent d’être optimisées pour la couche 2.
En fait, la seule incertitude est laissée à la couche 2 elle-même, comment accélérer le développement ?