Futuros
Aceda a centenas de contratos perpétuos
TradFi
Ouro
Plataforma de ativos tradicionais globais
Opções
Hot
Negoceie Opções Vanilla ao estilo europeu
Conta Unificada
Maximize a eficiência do seu capital
Negociação de demonstração
Introdução à negociação de futuros
Prepare-se para a sua negociação de futuros
Eventos de futuros
Participe em eventos para recompensas
Negociação de demonstração
Utilize fundos virtuais para experimentar uma negociação sem riscos
Lançamento
CandyDrop
Recolher doces para ganhar airdrops
Launchpool
Faça staking rapidamente, ganhe potenciais novos tokens
HODLer Airdrop
Detenha GT e obtenha airdrops maciços de graça
Pre-IPOs
Desbloquear acesso completo a IPO de ações globais
Pontos Alpha
Negoceie ativos on-chain para airdrops
Pontos de futuros
Ganhe pontos de futuros e receba recompensas de airdrop
Investimento
Simple Earn
Ganhe juros com tokens inativos
Investimento automático
Invista automaticamente de forma regular.
Investimento Duplo
Aproveite a volatilidade do mercado
Soft Staking
Ganhe recompensas com staking flexível
Empréstimo de criptomoedas
0 Fees
Dê em garantia uma criptomoeda para pedir outra emprestada
Centro de empréstimos
Centro de empréstimos integrado
Acabou de descobrir algo interessante no universo do reconhecimento de voz. Sierra acaba de lançar como código aberto o μ-Bench, um benchmark multilíngue para o ASR que aborda um problema real: a maioria dos benchmarks existentes são centrados no inglês, o que limita seriamente a avaliação dos sistemas em ambientes de clientes reais.
O que é particularmente relevante com μ-Bench é que ele propõe uma abordagem mais nuanceada do que os métodos tradicionais. Em vez do tradicional Word Error Rate (WER), eles introduziram a Taxa de Erro na Frase (UER), que distingue os erros que realmente mudam o significado da mensagem daqueles que não afetam a compreensão. É uma evolução significativa para avaliar a qualidade real.
O conjunto de dados inclui 250 gravações autênticas de atendimento ao cliente e 4.270 trechos de áudio anotados cobrindo cinco línguas: inglês, espanhol, turco, vietnamita e mandarim. Isso já é muito mais representativo do que tínhamos antes.
Em termos de desempenho, o Google Chirp-3 domina claramente em precisão, enquanto o Deepgram Nova-3 se destaca pela velocidade, mas fica atrás na precisão multilíngue. É interessante ver como os diferentes fornecedores se posicionam de acordo com os critérios.
O benchmark completo e as classificações já estão disponíveis no Hugging Face, o que abre espaço para maior participação dos fornecedores. É o tipo de iniciativa open source que realmente impulsiona a indústria a avançar, especialmente quando se trata de melhorar o reconhecimento de voz para casos de uso reais em várias línguas.