Acabei de perceber algo que vale a pena prestar atenção se estiver a acompanhar onde estão a acontecer as verdadeiras mudanças na infraestrutura. O espaço da computação quântica teve um 2024 incomumente agitado — e quero dizer realmente agitado, não o ciclo habitual de hype. Três avanços distintos de empresas diferentes, usando abordagens completamente diferentes, ocorreram em meses de distância. Esse tipo de padrão geralmente indica que um campo está realmente a avançar, em vez de reciclar a mesma narrativa.



Deixe-me explicar o que realmente aconteceu e por que isso importa para quem acompanha a convergência da tecnologia quântica e da infraestrutura digital.

A Google lançou o Willow em dezembro — um processador supercondutor de 105 qubits, construído na UC Santa Barbara. A manchete soa padrão até você entender o que eles realmente demonstraram. À medida que adicionavam mais qubits, a taxa de erro diminuía em vez de aumentar. Esse tem sido o problema central dos sistemas quânticos há quase 30 anos. Mais qubits sempre significavam mais ruído, erros em cascata, menos fiabilidade. O Willow invertou essa relação. Chamaram-lhe operação "abaixo do limiar" — o ponto de prova arquitetural de que escalar realmente ajuda, em vez de prejudicar.

O benchmark que publicaram ao lado chamou atenção instantânea: uma computação de amostragem de circuitos aleatórios concluída em menos de cinco minutos, que levaria supercomputadores clássicos 10 septilhões de anos. Mas aqui vai a parte honesta — ainda é um caso de teste estreito. Provou que certos cálculos são intratáveis classicamente neste chip. Não significa que o Willow já esteja a rodar descoberta de drogas ou modelos climáticos. O que mostra é que a computação quântica de grande escala com correção de erros não é mais teórica. É um caminho de engenharia que funciona.

Entretanto, a Microsoft e a Quantinuum já tinham avançado em abril com algo que recebeu menos atenção na imprensa, mas mais atenção dos investigadores. Demonstraram qubits lógicos com taxas de erro 800 vezes menores do que os qubits físicos de que foram construídos. Essa é a verdadeira linha divisória no progresso quântico. Os qubits físicos são unidades de hardware ruidosas. Os qubits lógicos combinam múltiplos qubits físicos para codificar informações de forma redundante, de modo que erros possam ser detectados e corrigidos. A sobrecarga sempre tornou isso impraticável. Uma melhoria de 800x muda completamente esse cálculo.

Depois, a Microsoft estendeu ainda mais em novembro, trabalhando com a Atom Computing para criar e entrelaçar 24 qubits lógicos usando átomos de itérbio neutros ultrafrios. Uma arquitetura de hardware totalmente diferente da abordagem do Google. Fidelidades de portas de um qubit atingiram 99,963%. Operações de dois qubits a 99,56%. Em dezembro, a Quantinuum elevou isso para 50 qubits lógicos entrelaçados. Esse padrão de progresso importa — múltiplos caminhos viáveis avançando simultaneamente, em vez de o campo apostar tudo numa única abordagem.

A contribuição da IBM foi mais discreta, mas igualmente significativa se pensarmos onde a computação quântica prática realmente surge. Processador Heron R2 em novembro: 156 qubits, erros de portas de 2 qubits reduzidos para 8×10⁻⁴, execução de circuitos com até 5.000 portas de 2 qubits. Cargas de trabalho que levavam mais de 120 horas passaram a rodar em 2,4 horas. É um progresso medido, reproduzível — do tipo que realmente é implantado em clientes empresariais.

Mas o resultado mais tecnicamente relevante da IBM foi o novo código de correção de erros. A correção de erros quânticos convencional requer aproximadamente 3.000 qubits físicos para codificar um único qubit lógico confiável. O código bivariado bicycle qLDPC da IBM consegue uma supressão de erros comparável com apenas 288 qubits no total. Um ganho de eficiência de 10x. De repente, a computação quântica tolerante a falhas parece menos um objetivo distante e mais um problema de engenharia com uma solução definida.

O que tornou 2024 realmente diferente foi: o campo deixou de avançar numa direção e começou a avançar em todas as direções simultaneamente. Melhorias de hardware, avanços em correção de erros, marcos em qubits lógicos, eficiência de software, padrões criptográficos. Passou de uma física teórica para uma disciplina de engenharia.

Na área da criptografia — e isto é diretamente relevante para a infraestrutura blockchain — a NIST publicou formalmente os padrões de criptografia pós-quântica em agosto de 2024. Algoritmos ML-KEM e ML-DSA projetados para resistir a ataques quânticos. Isto não foi um exercício académico. Foi o primeiro reconhecimento concreto de que computadores quânticos capazes de quebrar a criptografia atual já não são apenas teóricos. Governos e empresas precisam começar a transição agora. O cronograma de implantação, desde a publicação do padrão até a adoção generalizada, normalmente leva uma década ou mais. A NIST efetivamente iniciou esse relógio em 2024.

Para a segurança de ativos digitais especificamente, isto importa. A criptografia assimétrica atual que protege carteiras, transações e contratos inteligentes eventualmente precisará de alternativas resistentes a quânticos. Não estamos a falar de uma ameaça imediata — mas a transição da infraestrutura já está oficialmente em andamento.

A avaliação honesta: a computação quântica não "chegou" em 2024. O Willow ainda não roda aplicações comerciais. Os qubits lógicos podem detectar erros, mas a correção completa ainda está a ser trabalhada. Sistemas de átomos neutros requerem infraestrutura laser sofisticada que não existe em escala. Mas o que 2024 provou é mais importante do que o que não provou. Os últimos avanços em computação quântica em 2024 estabeleceram que sistemas quânticos de correção de erros em grande escala são possíveis através de múltiplas abordagens de hardware. A questão mudou de "é possível?" para "qual abordagem escala mais rápido e quando as aplicações justificam o investimento?"

Olhando para a trajetória, o próximo marco da Google é alcançar operação tolerante a falhas além das demonstrações de benchmark. A Microsoft mira 50-100 qubits lógicos entrelaçados em implantações comerciais dentro de alguns anos. O processador Starling da IBM, projetado para 2029, visa 100 milhões de portas em 200 qubits corrigidos. A direção consistente entre os três: já passámos da fase teórica. A fase de engenharia é o que importa agora.

Para quem acompanha a convergência entre computação quântica e infraestrutura digital, 2024 foi o ano em que o campo passou de especulação para progresso mensurável. Isso vale a pena acompanhar de perto.
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
Adicionar um comentário
Adicionar um comentário
Nenhum comentário
  • Fixar