Así que he estado observando el espacio de la computación cuántica bastante de cerca, y honestamente 2024 se sintió diferente del ciclo habitual de hype. Normalmente obtienes un gran anuncio, alguna cifra astronómica que no significa mucho, y luego silencio por otro año. Esta vez fue realmente diferente — obtuvimos tres avances importantes de empresas completamente distintas usando enfoques totalmente diferentes, todos en cuestión de meses. Ese tipo de patrón indica que un campo realmente está avanzando.



Permíteme desglosar lo que realmente sucedió porque los últimos avances en computación cuántica 2024 no fueron solo incrementales. Google lanzó Willow en diciembre — un procesador superconductivo de 105 qubits que hizo algo que el campo había estado persiguiendo durante unos 30 años. Añadieron más qubits y la tasa de error bajó en lugar de subir. Sé que eso suena obvio, pero en realidad es un gran logro. Todo el problema con los sistemas cuánticos ha sido que escalar significaba más ruido, más inestabilidad, todo se volvía más caótico. Willow rompió ese patrón. Demostraron lo que los investigadores llaman operación "por debajo del umbral", lo que básicamente significa que escalar ahora ayuda en lugar de perjudicar.

El punto de referencia que realizaron junto a esto recibió mucha atención — Willow realizó un muestreo de circuitos aleatorios en menos de cinco minutos que a los supercomputadores clásicos les tomaría 10 septillones de años. Eso es un número real publicado en Nature con toda la metodología disponible, lo cual importa porque las afirmaciones cuánticas anteriores han recibido críticas legítimas. Pero aquí está lo honesto: ese benchmark todavía es bastante limitado. Demuestra que ciertos cálculos son intratables clásicamente, pero no significa que Willow esté ejecutando descubrimiento de fármacos o modelado climático todavía. Lo que muestra es que la computación cuántica a gran escala con corrección de errores ya no es solo teórica — es un camino de ingeniería real.

Luego estuvo el trabajo de Microsoft y Quantinuum, que honestamente recibió menos cobertura mainstream pero mucho más atención de investigadores reales. En abril de 2024, demostraron qubits lógicos con tasas de error 800 veces menores que los qubits físicos de los que estaban construidos. Esa distinción importa: los qubits físicos son las unidades de hardware ruidosas, los qubits lógicos se construyen combinando múltiples qubits físicos para que los errores puedan ser detectados y corregidos. El problema siempre fue que necesitabas tantos qubits físicos para construir uno lógico que todo parecía poco práctico. Una reducción de errores de 800x cambia ese cálculo.

Microsoft lo llevó más lejos en noviembre con Atom Computing — crearon y entrelazaron 24 qubits lógicos usando átomos de iterbio neutros ultracold. Arquitectura de hardware completamente diferente al enfoque de Google. Luego, Quantinuum llegó a 50 qubits lógicos en diciembre. La importancia aquí es que múltiples caminos viables hacia la computación cuántica tolerante a fallos están avanzando simultáneamente. Eso ya no es un campo que apuesta todo a un solo enfoque.

La contribución de IBM fue más discreta pero igualmente importante para pensar de dónde realmente proviene la computación cuántica práctica. El procesador Heron R2 se lanzó en noviembre con 156 qubits y algunas ganancias de rendimiento realmente impresionantes. Sus tasas de error en puertas de 2 qubits cayeron a 8×10⁻⁴, y cargas de trabajo que solían tomar más de 120 horas ahora se ejecutaban en aproximadamente 2.4 horas. Eso es una aceleración de 50x en cálculos de utilidad real. También publicaron un nuevo código de corrección de errores llamado código qLDPC bicovariable que logra una supresión de errores comparable usando solo 144 qubits de datos en lugar de 3,000 — una reducción de 10x en la sobrecarga. Esa es la clase de ganancia de eficiencia que hace que la computación cuántica tolerante a fallos parezca menos un sueño lejano y más un problema de ingeniería con una solución.

Pero aquí está lo que la gente pasa por alto: los últimos avances en computación cuántica 2024 también incluyeron algo que no involucró un procesador cuántico en absoluto. NIST publicó los primeros estándares de criptografía post-cuántica en agosto. Dos de los tres algoritmos provienen de IBM Research. Esto importa porque es la primera vez que un organismo de estándares global básicamente dice "las computadoras cuánticas capaces de romper la encriptación actual ya no son solo teóricas." Los gobiernos y las empresas necesitan comenzar a hacer la transición ahora, antes de que las computadoras cuánticas criptográficamente relevantes realmente lleguen. Esa línea de tiempo suele ser de una década o más desde la publicación del estándar hasta su despliegue generalizado.

Permíteme ser real sobre lo que 2024 probó y no probó. No probó que la computación cuántica haya "llegado" para aplicaciones prácticas. Willow todavía no realiza descubrimiento de fármacos. Esos 50 qubits lógicos pueden detectar errores, pero la corrección completa de errores todavía está en proceso. El enfoque de átomos neutros de Microsoft requiere infraestructura láser que aún no existe a escala. El procesador Starling de IBM, su primer sistema completamente corregido, no se proyecta hasta 2029.

Lo que 2024 realmente demostró es más importante: el campo dejó de avanzar en una sola dirección y empezó a avanzar en todas las direcciones simultáneamente. Hardware, corrección de errores, qubits lógicos, eficiencia de software, estándares criptográficos — todos en movimiento al mismo tiempo. La comunidad de investigación empezó a actuar menos como físicos teóricos y más como ingenieros con hitos que se pueden verificar y reproducir.

Mirando hacia 2025 y más allá, los últimos avances en computación cuántica 2024 básicamente preparan la próxima fase. Google trabaja hacia una operación completamente tolerante a fallos. Microsoft apunta a 50-100 qubits lógicos entrelazados en despliegues comerciales en unos pocos años. IBM apuesta por Starling para finalmente conectar la utilidad cuántica con la ventaja cuántica para problemas comercialmente valiosos. La trayectoria es coherente: la pregunta ya no es si la computación cuántica a gran escala con corrección de errores es posible. 2024 estableció que es posible a través de múltiples enfoques. Ahora se trata de qué enfoque escala más rápido y cuándo las aplicaciones que justifican la inversión realmente se materializan.
Ver original
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado