IBM reveló hoy sus procesadores cuánticos de próxima generación, acelerando su cronograma para construir una computadora cuántica útil.
En su evento anual para desarrolladores el martes, la compañía presentó el procesador Nighthawk de 120 qubit, diseñado para resolver problemas más complejos. También reveló el chip experimental Loon, un paso clave hacia sistemas a prueba de errores.
Estas mejoras de hardware, además de nuevos avances en la corrección de errores, mantienen a IBM en el camino hacia una “ventaja cuántica” para 2026 y una máquina tolerante a fallas para 2029. La noticia calienta la carrera cuántica, luego de un importante avance reciente de su rival Google.
Nighthawk y Loon: un salto doble en el diseño de procesadores
Con su último hardware, IBM apuesta a que una conectividad intrincada y una sólida corrección de errores superarán los recuentos de qubits brutos de sus rivales. IBM presentó dos procesadores distintos, cada uno abordando una parte diferente del desafío cuántico.
En primer lugar, IBM Quantum Nighthawk está diseñado para ofrecer una ventaja cuántica en los próximos dos años. Se espera que para fines de 2025, contará con 120 qubits conectados por 218 acopladores sintonizables de próxima generación.
Procesador IBM Nighthawk Quantum (Fuente: IBM)
Según IBM, esta arquitectura permitirá a los usuarios ejecutar circuitos con un 30 por ciento más de complejidad que su actual procesador Heron, manteniendo bajas tasas de error.
IBM también presentó una ambiciosa hoja de ruta de rendimiento para los sistemas basados en Nighthawk, apuntando a la capacidad para manejar hasta 7.500 puertas de dos qubits para 2026 y 15.000 para 2028.
Mientras Nighthawk amplía los límites de la utilidad a corto plazo, el procesador experimental Loon sienta las bases para el futuro de la computación tolerante a fallas.
Loon presenta una arquitectura novedosa en la que cada qubit se conecta a otros seis, incluso verticalmente, una capacidad que ningún otro ordenador cuántico superconductor tiene. ha demostrado. Una conectividad tridimensional tan densa es fundamental para implementar los códigos eficientes de corrección de errores necesarios para máquinas verdaderamente escalables.
IBM Procesador Loon Quantum (Fuente: IBM)
Durante años, algunos investigadores cuestionaron si conexiones tan complejas eran viables. Jay Gambetta de IBM notó el escepticismo, declarando a New Scientist que era como si la gente dijera: “’Estás en el terreno teórico, no puedes darte cuenta de eso’. Y [ahora] vamos a demostrarlo [estar] equivocado.”
Acelerar la hoja de ruta: corrección de errores y fabricación a escala industrial
Detrás de los anuncios de procesadores se encuentra un hito de fabricación crítico. IBM ha trasladado su producción principal de obleas cuánticas a una instalación de fabricación avanzada de 300 mm en el Albany NanoTech Complex.
El cambio a herramientas estándar de la industria ya ha duplicado la velocidad de sus ciclos de I+D. Permite diseños de chips más complejos y señala un paso del trabajo de laboratorio especializado a la fabricación a escala industrial, un paso clave para construir sistemas más grandes.
Implicar este ritmo industrial supone un importante avance en software y corrección de errores. IBM anunció que ha demostrado con éxito la decodificación en tiempo real de errores cuánticos utilizando códigos qLDPC avanzados en hardware clásico, un paso crucial para la tolerancia a fallas que se logró un año antes de lo previsto.
Para que estas mejoras de hardware sean accesibles, IBM está mejorando su pila de software Qiskit. Una nueva interfaz C++ ayudará a cerrar la brecha entre los entornos de computación cuántica y de alto rendimiento (HPC).
Además, las nuevas técnicas de mitigación de errores basadas en HPC pueden reducir el costo de extraer resultados precisos en más de 100 veces. Centrarse en una pila completa de hardware y software es fundamental para la visión de la empresa.
Como afirmó Jay Gambetta, director de investigación de IBM y miembro de IBM,”Creemos que IBM es la única empresa que está posicionada para inventar y escalar rápidamente software, hardware, fabricación y corrección de errores cuánticos para desbloquear aplicaciones transformadoras”.
La carrera cuántica se calienta: la estrategia de IBM en un campo abarrotado
En un campo abarrotado de arquitecturas competitivas, el enfoque modular de IBM tiene como objetivo construir primero una base confiable. Los anuncios de IBM aterrizan en un entorno ferozmente competitivo.
El mes pasado, Google afirmó que había logrado una “ventaja cuántica verificable”, mientras que su competidor Quantinuum presentó recientemente su sistema Helios de 98 qubit. que llama la computadora cuántica comercial más precisa del mundo.
La estrategia de IBM contrasta marcadamente con estos rivales y otros como Microsoft y Amazon, que están buscando tecnologías de qubits completamente diferentes.
Big Blue se centra en perfeccionar sus qubits superconductores diseñando una mejor conectividad y desarrollando un marco robusto de corrección de errores que pueda ejecutarse en sistemas híbridos cuánticos clásicos.
Afrontar el desafío fundamental de los qubits la inestabilidad es un esfuerzo de toda la industria. Un avance reciente de la Universidad de Princeton, no relacionado con el trabajo de IBM, ilustra la importancia de este problema.
Los investigadores desarrollaron un nuevo diseño de qubit que permanece estable 15 veces más que los estándares actuales de la industria.
Andrew Houck de Princeton comentó sobre el progreso general y dijo:”Este avance lleva la computación cuántica del ámbito de lo meramente posible al ámbito de lo práctico. Ahora podemos comenzar a progresar mucho más rápidamente”.
En última instancia, lo último de IBM El éxito reformula una parte clave de la competencia cuántica. La atención se está desplazando del recuento de qubits en bruto a la ingeniería de sistemas verificables, repetibles y prácticos. Stephen Bartlett de la Universidad de Sydney ofreció una perspectiva mesurada sobre los nuevos procesadores, afirmando:”No es una solución milagrosa que resuelva todos los problemas… pero, no obstante, es un paso importante hacia esto.”
Al demostrar que los componentes centrales para un futuro tolerante a fallas se pueden construir y escalar, IBM ha acercado ese futuro significativamente.