Então, tenho investigado os últimos avanços em computação quântica em 2024 e, honestamente, este ano pareceu diferente do ciclo habitual de hype. Em vez de um anúncio massivo que desaparece no nada, tivemos três desenvolvimentos principais completamente separados de diferentes empresas, usando abordagens de hardware totalmente distintas. Esse é o tipo de padrão que realmente indica que um campo está avançando, em vez de simplesmente girar em círculos.



Deixe-me explicar o que realmente aconteceu, porque os detalhes importam mais do que os títulos. A Google lançou o Willow em dezembro — um chip supercondutor de 105 qubits que fez algo que o campo vinha perseguindo há cerca de 30 anos. Quando adicionaram mais qubits, a taxa de erro diminuiu em vez de aumentar. Isso parece óbvio até você perceber que é o oposto do que a computação quântica vinha fazendo para sempre. Mais qubits sempre significaram mais ruído, erros em cascata, menos confiabilidade. Willow mudou essa equação usando sua arquitetura de correção de erros. Eles executaram um cálculo em menos de cinco minutos que levaria supercomputadores clássicos 10 septilhões de anos para terminar. Sim, 10 elevado a 25. A publicação na Nature também importa — reivindicações anteriores de supremacia quântica foram criticadas de forma legítima, então ter uma metodologia revisada por pares é realmente significativo.

Mas aqui está o ponto: o teste do Willow ainda é limitado. Ele prova que certos cálculos são intratáveis classicamente, não que estamos resolvendo descoberta de drogas ou modelagem climática amanhã. O valor real é arquitetônico — prova que a computação quântica de grande escala com correção de erros não é mais apenas teórica.

Depois, há o trabalho da Microsoft e da Quantinuum de abril, que recebeu menos atenção da imprensa, mas provavelmente mais dos pesquisadores de verdade. Eles construíram qubits lógicos com taxas de erro 800 vezes menores do que os qubits físicos subjacentes. Essa é a verdadeira linha divisória na computação quântica — qubits físicos são barulhentos e frágeis, enquanto qubits lógicos codificam informações de forma redundante para que erros possam ser detectados e corrigidos. O problema sempre foi que era preciso tantos qubits físicos para construir um lógico que a sobrecarga matava todo o conceito. Uma melhoria de 800x muda completamente esse cálculo.

A Microsoft avançou ainda mais em novembro, trabalhando com a Atom Computing para criar e entrelaçar 24 qubits lógicos usando átomos de itérbio ultrafrios e neutros. 99,963% de fidelidade em operações de um único qubit. Uma arquitetura de hardware completamente diferente, o que importa porque significa que múltiplos caminhos viáveis estão funcionando simultaneamente, em vez de apostar tudo em uma única abordagem. Depois, a Quantinuum chegou a 50 qubits lógicos entrelaçados em dezembro. Isso não é mais uma visão de futuro — é o presente.

A contribuição da IBM foi mais discreta, mas vale a pena prestar atenção. Seu processador Heron R2 atingiu 156 qubits em novembro, com uma aceleração de 50x em cargas de trabalho que anteriormente levavam 120 horas. Mais importante foi seu novo código de correção de erros — o código bivariado bicycle qLDPC — que alcança a mesma supressão de erros que códigos convencionais, mas com 10 vezes menos sobrecarga. Esse ganho de eficiência é o que faz a computação quântica tolerante a falhas parecer um problema de engenharia com uma solução, e não uma impossibilidade teórica.

Aqui está o que muitas vezes passa despercebido: o NIST publicou os primeiros padrões de criptografia pós-quântica em agosto. Isso importa porque é a primeira vez que um órgão de padrões importante reconhece oficialmente que computadores quânticos capazes de quebrar a criptografia atual não são mais apenas teóricos. Governos e empresas precisam começar a fazer a transição agora. O cronograma desde a publicação do padrão até a implantação generalizada costuma ser de uma década ou mais, então o relógio começou em 2024.

Observando os últimos avanços em computação quântica em 2024 de forma coletiva, o campo basicamente provou que parou de avançar em uma direção e começou a progredir em todas as dimensões simultaneamente — hardware, correção de erros, qubits lógicos, eficiência de software. Passou de agir como física teórica para agir como engenharia, com marcos verificáveis de forma independente.

Isso significa que a computação quântica chegou? Não exatamente. Willow ainda não está rodando aplicações de descoberta de drogas. Os qubits lógicos da Quantinuum podem detectar erros, mas a correção de erros completa ainda está sendo desenvolvida. Os sistemas de átomos neutros da Microsoft precisam de infraestrutura que ainda não existe em escala. O processador Starling totalmente corrigido da IBM não está previsto até 2029.

Mas o que realmente importou em 2024 foi provar que o campo poderia avançar em múltiplas abordagens simultaneamente. A questão mudou de se a computação quântica de grande escala com correção de erros é possível para qual abordagem escala mais rápido e quando aplicações práticas justificam o investimento. Essa é uma conversa fundamentalmente diferente daquela que tínhamos há alguns anos.
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
Adicionar um comentário
Adicionar um comentário
Nenhum comentário
  • Fixar