No todos los científicos confían a pies juntillas en las capacidades de los ordenadores cuánticos. Algunos, como el matemático israelí Gil Kalai, que da clase en la Universidad Yale (Estados Unidos), defienden que nunca funcionarán bien. Este académico en particular cree que el aumento de la complejidad de los sistemas cuánticos provocará que acaben comportándose como los ordenadores clásicos, por lo que la superioridad de los primeros acabará evaporándose.
Otros investigadores, sin embargo, son mucho más optimistas. Ignacio Cirac, el físico español considerado de forma unánime junto a Peter Zoller el padre fundacional de la computación cuántica, sostiene que «desarrollar un ordenador cuántico que no tenga errores es muy complicado. No tengo ninguna duda de que va a pasar (en este ámbito no estoy de acuerdo con lo que dice Gil Kalai), pero creo que va a tardar mucho tiempo».
El centro de este debate está ocupado por la corrección de errores. Los científicos que investigan en el ámbito de la computación cuántica lidian también con otros desafíos, pero la necesidad de implementar un sistema de corrección capaz de garantizar que los resultados que devuelven los sistemas cuánticos son correctos es fundamental. De lo contrario no podrán enfrentarse a la resolución de problemas realmente significativos. O esto creían los expertos hasta ahora.
Y es que un equipo de investigadores de IBM acaba de entregarnos evidencias muy sólidas que defienden que los ordenadores cuánticos pueden resolver problemas complejos sin necesidad de contar con un sistema de corrección de errores. Su trabajo acaba de ser publicado en Nature, y es extraordinariamente esperanzador debido a que pone sobre la mesa con argumentos tangibles la posibilidad de que los ordenadores cuánticos puedan ser utilizados para resolver problemas significativos antes de que llegue la tan ansiada corrección de errores.
Hasta que llegue la corrección la mitigación va a marcar la diferencia
Este hallazgo no significa que la corrección de errores ya no es importante. Por supuesto que lo es. De hecho, sigue siendo la meta final de buena parte de los investigadores en computación cuántica debido a que cuando llegue presumiblemente estas máquinas podrán intervenir en la resolución de un abanico muy amplio de problemas. En esencia lo que han demostrado estos investigadores de IBM es que por el camino los sistemas cuánticos van a ser capaces de funcionar correctamente y resolver algunos problemas relevantes sin contar con este recurso.
El artículo que han publicado en Nature recoge con todo lujo de detalles cómo han llevado a cabo su experimento. No es necesario que indaguemos en él a fondo debido a que su complejidad excede el alcance de este artículo, pero merece la pena que nos detengamos un momento en él para hacernos una idea certera acerca de la estrategia que han diseñado. A grandes rasgos lo que han hecho ha sido implementar un sistema de mitigación de errores, que no de corrección, tomando como base un ordenador cuántico equipado con un procesador Eagle de 127 cúbits.
Los ingenieros de IBM involucrados en este experimento han contado con la ayuda de varios investigadores de la Universidad de California en Berkeley y del Laboratorio Nacional Lawrence Berkeley. Trabajando juntos han logrado refinar la calibración de los cúbits superconductores de este procesador cuántico con el propósito de minimizar el ruido al que está expuesto e incrementar su coherencia.
Su objetivo era dilatar el tiempo durante el que los cúbits preservan los efectos cuánticos, que es lo que permite utilizarlos para llevar a cabo cálculos aprovechando las ventajas que conlleva operar con un sistema cuántico y no con uno clásico. Cuando desaparecen los efectos cuánticos surge un fenómeno conocido como decoherencia cuántica, y a partir de ese instante el ordenador cuántico pierde su ventaja y pasa a comportarse como un ordenador clásico.
No obstante, esto no es todo. Para poner a prueba su estrategia y averiguar si realmente su tecnología de calibración de los cúbits superconductores y reducción del ruido es eficaz compararon su salida con la de un circuito verificable. Y concluyeron su experimento con un último reto: el ordenador cuántico de 127 cúbits se enfrentó a un superordenador clásico de última generación. Lo sorprendente es que en al menos uno de los cálculos el ordenador cuántico entregó los resultados correctos, pero el superordenador clásico fracasó en el intento.
Aún queda mucho trabajo por hacer en este ámbito, pero estos científicos han llegado a una conclusión muy importante: un procesador cuántico de poco más de 100 cúbits que no cuenta con corrección de errores puede ser utilizado para resolver problemas científicos significativos. Eso sí, para que sea capaz de entregar resultados fiables es necesario mitigar los errores calibrando los cúbits con un procedimiento extraordinariamente avanzado y riguroso.
Algunos algoritmos cuánticos, como la factorización o la estimación de fase, entre otros, no podrán ser resueltos con un ordenador cuántico hasta que cuente con un sistema de corrección de errores eficaz, pero otros problemas del mundo real un poco más sencillos sí podrán ser abordados con los ordenadores cuánticos actuales. Esta declaración de Sajant Anand, uno de los autores del experimento, nos invita a ser razonablemente optimistas: «Nos estamos adentrando en un terreno en el que los ordenadores cuánticos serán capaces de hacer cosas que los algoritmos actuales no pueden hacer cuando los ejecutamos sobre un ordenador clásico».