Acabo de darme cuenta de algo que vale la pena prestar atención si estás siguiendo dónde están ocurriendo los cambios reales en infraestructura. El espacio de la computación cuántica tuvo un 2024 inusualmente ocupado — y hablo de verdad, no del ciclo habitual de hype. Tres avances separados de diferentes empresas usando enfoques completamente distintos se produjeron en meses unos de otros. Ese tipo de patrón suele indicar que un campo realmente está avanzando en lugar de reciclar la misma narrativa.



Permíteme desglosar qué sucedió realmente y por qué importa para cualquiera que observe la convergencia de la tecnología cuántica y la infraestructura digital.

Google lanzó Willow en diciembre — un procesador superconductivo de 105 qubits, construido en la Universidad de California en Santa Bárbara. El titular suena estándar hasta que entiendes lo que realmente demostraron. A medida que añadían más qubits, la tasa de error bajaba en lugar de subir. Ese ha sido el problema central de los sistemas cuánticos durante casi 30 años. Más qubits siempre significaban más ruido, errores en cascada, menos fiabilidad. Willow invirtió esa relación. Lo llamaron operación "por debajo del umbral" — el punto de prueba arquitectónica de que escalar en realidad ayuda en lugar de perjudicar.

El punto de referencia que publicaron junto a esto llamó la atención instantáneamente: una computación de muestreo de circuitos aleatorios completada en menos de cinco minutos que tomaría a los supercomputadores clásicos 10 septillones de años. Pero aquí está la parte honesta — eso sigue siendo un caso de prueba limitado. Demuestra que ciertos cálculos son intratables clásicamente en este chip. No significa que Willow esté ejecutando descubrimiento de fármacos o modelos climáticos todavía. Lo que muestra es que la computación cuántica a gran escala con corrección de errores ya no es teórica. Es un camino de ingeniería que funciona.

Mientras tanto, Microsoft y Quantinuum ya habían movido la aguja en abril con algo que recibió menos prensa pero más atención de los investigadores. Demostraron qubits lógicos con tasas de error 800 veces menores que los qubits físicos de los que estaban construidos. Esta es la verdadera línea divisoria en el progreso cuántico. Los qubits físicos son unidades de hardware ruidosas. Los qubits lógicos combinan múltiples qubits físicos para codificar información de forma redundante, de modo que los errores puedan ser detectados y corregidos. La sobrecarga siempre lo hacía poco práctico. Una mejora de 800x cambia por completo ese cálculo.

Luego, en noviembre, Microsoft lo extendió aún más, trabajando con Atom Computing para crear y entrelazar 24 qubits lógicos usando átomos de iterbio neutros ultrafríos. Arquitectura de hardware completamente diferente a la de Google. La fidelidad de las puertas de un solo qubit alcanzó el 99.963%. Operaciones de dos qubits al 99.56%. Para diciembre, Quantinuum lo llevó a 50 qubits lógicos entrelazados. Ese patrón de progreso que importa — múltiples caminos viables avanzando simultáneamente en lugar de que el campo apueste todo a un solo enfoque.

La contribución de IBM fue más discreta pero igualmente significativa si piensas en dónde surge realmente la computación cuántica práctica. Procesador Heron R2 en noviembre: 156 qubits, errores en puertas de 2 qubits bajados a 8×10⁻⁴, ejecución de circuitos con hasta 5,000 puertas de 2 qubits. Cargas de trabajo que tomaban más de 120 horas ahora se ejecutaban en 2.4 horas. Es un progreso medido, reproducible — del tipo que realmente se despliega a clientes empresariales.

Pero el resultado más técnicamente significativo de IBM fue su nuevo código de corrección de errores. La corrección de errores cuánticos convencional requiere aproximadamente 3,000 qubits físicos para codificar un solo qubit lógico confiable. El código bivariante bicycle qLDPC de IBM logra una supresión de errores comparable con solo 288 qubits en total. Eso es una ganancia de eficiencia de 10x. De repente, la computación cuántica tolerante a fallos parece menos un objetivo lejano y más un problema de ingeniería con una solución definida.

Esto es lo que hizo que 2024 fuera verdaderamente diferente: el campo dejó de avanzar en una sola dirección y empezó a progresar en todas simultáneamente. Mejoras en hardware, avances en corrección de errores, hitos en qubits lógicos, eficiencia en software, estándares criptográficos. Pasó de la física teórica a la disciplina de ingeniería.

En el lado de la criptografía — y esto es directamente relevante para la infraestructura blockchain — NIST publicó formalmente en agosto de 2024 los estándares de criptografía post-cuántica. Algoritmos ML-KEM y ML-DSA diseñados para resistir ataques cuánticos. Esto no fue un ejercicio académico. Fue el primer reconocimiento concreto de que las computadoras cuánticas capaces de romper la encriptación actual ya no son solo teóricas. Gobiernos y empresas necesitan comenzar a hacer la transición ahora. La línea de tiempo de despliegue desde la publicación del estándar hasta la adopción general suele ser de una década o más. NIST efectivamente empezó ese reloj en 2024.

Para la seguridad de activos digitales específicamente, esto importa. La encriptación asimétrica actual que protege billeteras, transacciones y contratos inteligentes eventualmente necesitará alternativas resistentes a los qubits cuánticos. No estamos hablando de una amenaza inmediata — pero la transición de infraestructura ya está oficialmente en marcha.

La evaluación honesta: la computación cuántica no "llegó" en 2024. Willow aún no ejecuta aplicaciones comerciales. Los qubits lógicos pueden detectar errores, pero la corrección completa de errores todavía se está perfeccionando. Los sistemas de átomos neutros requieren infraestructura láser sofisticada que no existe a escala. Pero lo que 2024 demostró es más importante que lo que no. Los últimos avances en computación cuántica en 2024 establecieron que los sistemas cuánticos con corrección de errores a gran escala son posibles en múltiples enfoques de hardware. La pregunta cambió de "¿es esto posible?" a "¿qué enfoque escala más rápido y cuándo justifican las aplicaciones la inversión?"

Mirando la trayectoria, el próximo hito de Google es lograr una operación tolerante a fallos más allá de las demostraciones de referencia. Microsoft apunta a 50-100 qubits lógicos entrelazados en despliegues comerciales en unos pocos años. El procesador Starling de IBM, proyectado para 2029, busca 100 millones de puertas en 200 qubits corregidos. La dirección constante en los tres: ya pasamos la fase teórica. La fase de ingeniería es lo que importa ahora.

Para cualquiera que siga cómo convergen la computación cuántica y la infraestructura digital, 2024 fue el año en que el campo pasó de la especulación al progreso medible. Eso vale la pena seguir de cerca.
Ver original
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado