Muitas pessoas ao verem o Walrus, a primeira reação é que ele tem uma relação um pouco apertada com a Sui. Mas isso não é uma falha, pelo contrário, é uma parte do design engenhoso.
A própria Sui já é bastante agressiva na execução paralela. Assim que o modelo de objetos é separado, objetos independentes são processados de forma concorrente, e objetos compartilhados podem alcançar finalidade em menos de um segundo graças ao esquema de otimização Mysticeti. O que isso significa? Significa que toda a camada de metadados e coordenação do Walrus é executada na Sui, o que não se torna um gargalo. Em contraste com outras cadeias de armazenamento, cujo mecanismo de consenso é serial, basta fazer upload de um arquivo grande para que toda a rede espere, tornando a experiência do usuário extremamente frustrante.
A verdadeira inovação está na segmentação. O Walrus usa código de correção de erros, com parâmetros ajustados de forma bastante interessante — conservador e flexível. Conservador no sentido de que a taxa de redundância é muito baixa, começando em 1,5x, garantindo alta disponibilidade, e flexível porque a votação de governança pode ser ajustada para até 3x conforme necessário. Por que se atrever a aumentar a redundância? Porque a alta taxa de transferência da Sui reduz bastante o custo de coordenação de transações.
O processo funciona assim: o usuário inicia uma solicitação de armazenamento, o sistema divide o arquivo em várias centenas de partes, ao mesmo tempo gerando provas de correção de erros. Essas provas são verificadas em paralelo na Sui, depois as instruções são distribuídas e transmitidas de forma concorrente para os nós. Os nós armazenam as partes ao receberem, enviam confirmações ao concluir, e essas confirmações são agregadas na cadeia. Todo o processo é concluído em segundos.
Concluir em segundos significa o quê? Para cenários de migração de datasets de GB ou TB, como no caso de IA, é possível avançar na velocidade máxima, sem precisar esperar por lotes ou janelas de tempo. Isso é algo que o armazenamento centralizado simplesmente não consegue fazer.
Vamos pensar em um cenário de aplicação — inferência em tempo real com agentes de IA. Os agentes precisam puxar dinamicamente os pesos do modelo e os dados históricos para realizar cálculos de inferência. Se a latência de armazenamento for alta, todo o ciclo de inferência fica travado. Com o Walrus, dados de alta demanda são automaticamente cacheados em múltiplas cópias, e o caminho de leitura paralelo é maximizado. O modelo de objetos da Sui permite que a coordenação entre as cópias do cache também seja executada de forma concorrente. Para aplicações que exigem alta reatividade, isso representa uma verdadeira inovação de desempenho.
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
12 gostos
Recompensa
12
4
Republicar
Partilhar
Comentar
0/400
WhaleMistaker
· 7h atrás
O armazenamento em segundos é realmente impressionante, mas o design paralelo do Sui consegue suportar, e essa configuração de parâmetros do código de correção de erros tem seu valor.
Ver originalResponder0
GateUser-addcaaf7
· 7h atrás
Ai, as características de paralelismo do Sui foram realmente compreendidas. A solução de código de correção de erros Walrus completa em segundos, mas a eficiência comparável ao armazenamento centralizado ainda não consegue se sustentar
Ver originalResponder0
WenMoon
· 7h atrás
Armazenamento de nível de segundos? Sério mesmo? Isto é realmente o que um sistema distribuído deve ser assim.
Ver originalResponder0
LidoStakeAddict
· 7h atrás
O armazenamento de nível de segundos é realmente excelente, o modelo de objetos do Sui combinado com o código de correção de erros funciona muito bem.
Muitas pessoas ao verem o Walrus, a primeira reação é que ele tem uma relação um pouco apertada com a Sui. Mas isso não é uma falha, pelo contrário, é uma parte do design engenhoso.
A própria Sui já é bastante agressiva na execução paralela. Assim que o modelo de objetos é separado, objetos independentes são processados de forma concorrente, e objetos compartilhados podem alcançar finalidade em menos de um segundo graças ao esquema de otimização Mysticeti. O que isso significa? Significa que toda a camada de metadados e coordenação do Walrus é executada na Sui, o que não se torna um gargalo. Em contraste com outras cadeias de armazenamento, cujo mecanismo de consenso é serial, basta fazer upload de um arquivo grande para que toda a rede espere, tornando a experiência do usuário extremamente frustrante.
A verdadeira inovação está na segmentação. O Walrus usa código de correção de erros, com parâmetros ajustados de forma bastante interessante — conservador e flexível. Conservador no sentido de que a taxa de redundância é muito baixa, começando em 1,5x, garantindo alta disponibilidade, e flexível porque a votação de governança pode ser ajustada para até 3x conforme necessário. Por que se atrever a aumentar a redundância? Porque a alta taxa de transferência da Sui reduz bastante o custo de coordenação de transações.
O processo funciona assim: o usuário inicia uma solicitação de armazenamento, o sistema divide o arquivo em várias centenas de partes, ao mesmo tempo gerando provas de correção de erros. Essas provas são verificadas em paralelo na Sui, depois as instruções são distribuídas e transmitidas de forma concorrente para os nós. Os nós armazenam as partes ao receberem, enviam confirmações ao concluir, e essas confirmações são agregadas na cadeia. Todo o processo é concluído em segundos.
Concluir em segundos significa o quê? Para cenários de migração de datasets de GB ou TB, como no caso de IA, é possível avançar na velocidade máxima, sem precisar esperar por lotes ou janelas de tempo. Isso é algo que o armazenamento centralizado simplesmente não consegue fazer.
Vamos pensar em um cenário de aplicação — inferência em tempo real com agentes de IA. Os agentes precisam puxar dinamicamente os pesos do modelo e os dados históricos para realizar cálculos de inferência. Se a latência de armazenamento for alta, todo o ciclo de inferência fica travado. Com o Walrus, dados de alta demanda são automaticamente cacheados em múltiplas cópias, e o caminho de leitura paralelo é maximizado. O modelo de objetos da Sui permite que a coordenação entre as cópias do cache também seja executada de forma concorrente. Para aplicações que exigem alta reatividade, isso representa uma verdadeira inovação de desempenho.