Así que he estado investigando los últimos avances en computación cuántica en 2024 y, honestamente, este año se sintió diferente del ciclo habitual de hype. En lugar de un anuncio masivo que se desvanece en nada, obtuvimos tres desarrollos principales completamente separados de diferentes empresas que utilizan enfoques de hardware totalmente distintos. Ese tipo de patrón realmente indica que un campo avanza en lugar de simplemente girar en círculos.



Permíteme desglosar lo que realmente sucedió porque los detalles importan más que los titulares. Google lanzó Willow en diciembre—una pieza superconductora de 105 qubits que hizo algo que el campo había estado persiguiendo durante unos 30 años. Cuando añadieron más qubits, la tasa de error bajó en lugar de subir. Eso suena obvio hasta que te das cuenta de que es lo opuesto a lo que la computación cuántica ha estado haciendo siempre. Más qubits siempre significaban más ruido, errores en cascada, menos fiabilidad. Willow cambió esa ecuación usando su arquitectura de corrección de errores. Ejecutaron un cálculo en menos de cinco minutos que a los supercomputadores clásicos les tomaría 10 septillones de años terminar. Sí, 10 a la 25ª potencia. La publicación en Nature también importa—las afirmaciones previas de supremacía cuántica fueron legítimamente criticadas, así que tener una metodología revisada por pares es realmente significativo.

Pero aquí está la cosa: la prueba de Willow todavía es limitada. Demuestra que ciertos cálculos son intratables clásicamente, no que de repente estemos resolviendo descubrimiento de fármacos o modelado climático mañana. El valor real es arquitectónico—demuestra que la computación cuántica corregida a gran escala ya no es solo teórica.

Luego está el trabajo de Microsoft y Quantinuum de abril que recibió menos prensa pero probablemente más atención de los investigadores reales. Construyeron qubits lógicos con tasas de error 800 veces menores que los qubits físicos que los sustentan. Esta es la verdadera línea divisoria en la computación cuántica—los qubits físicos son ruidosos y frágiles, los qubits lógicos codifican la información de forma redundante para que los errores puedan ser detectados y corregidos. El problema siempre fue que necesitabas tantos qubits físicos para construir uno lógico que la sobrecarga mataba todo el concepto. Una mejora de 800x cambia completamente ese cálculo.

Microsoft avanzó aún más en noviembre, trabajando con Atom Computing para crear y entrelazar 24 qubits lógicos usando átomos de iterbio neutros ultrafríos. 99.963% de fidelidad en operaciones de un solo qubit. Arquitectura de hardware completamente diferente, lo cual importa porque significa que múltiples caminos viables están funcionando simultáneamente en lugar de apostar todo a un solo enfoque. Luego, Quantinuum llegó a 50 qubits lógicos entrelazados en diciembre. Eso ya no es futuro—es presente.

La contribución de IBM fue más discreta pero digna de atención. Su procesador Heron R2 alcanzó 156 qubits en noviembre con una aceleración de 50 veces en cargas de trabajo que anteriormente tomaban 120 horas. Lo más importante fue su nuevo código de corrección de errores—el código bivariante bicycle qLDPC—que logra la misma supresión de errores que los códigos convencionales pero con 10 veces menos sobrecarga. Esa ganancia en eficiencia es lo que hace que la computación cuántica tolerante a fallos parezca un problema de ingeniería con una solución en lugar de una imposibilidad teórica.

Aquí es donde se pasa por alto: NIST publicó en agosto los primeros estándares de criptografía post-cuántica. Esto importa porque es la primera vez que un organismo de estándares importante reconoce oficialmente que las computadoras cuánticas capaces de romper la encriptación actual ya no son solo teóricas. Los gobiernos y las empresas necesitan comenzar a hacer la transición ahora. El plazo desde la publicación del estándar hasta su despliegue general suele ser de una década o más, así que el reloj empezó en 2024.

Al observar los últimos avances en computación cuántica en 2024 en conjunto, el campo básicamente demostró que dejó de avanzar en una sola dirección y empezó a progresar en todas las dimensiones simultáneamente—hardware, corrección de errores, qubits lógicos, eficiencia del software. Pasó de actuar como física teórica a actuar como ingeniería con hitos verificables de forma independiente.

¿Significa esto que la computación cuántica ha llegado? No exactamente. Willow aún no está ejecutando aplicaciones de descubrimiento de fármacos. Los qubits lógicos de Quantinuum pueden detectar errores, pero la corrección de errores completa todavía está en proceso. Los sistemas de átomos neutros de Microsoft necesitan infraestructura que aún no existe a escala. El procesador Starling completamente corregido de IBM no se proyecta hasta 2029.

Pero lo que realmente importó en 2024 fue demostrar que el campo podía progresar en múltiples enfoques simultáneamente. La pregunta dejó de ser si la computación cuántica corregida a gran escala es posible, para pasar a cuál enfoque escala más rápido y cuándo las aplicaciones prácticas justifican la inversión. Esa es una conversación fundamentalmente diferente a la que teníamos hace unos años.
Ver original
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado