Google anuncia nuevo hito en la computación cuántica

Investigadores de Google celebran haber superado uno de los mayores escollos para que en el futuro la humanidad pueda utilizar la computación cuántica. Lo han logrado gracias al desarrollo de un nuevo sistema que mantiene bajo control la gran tasa de errores inherentes a esta tecnología debido a que los bits cuánticos sólo mantienen su estado y fase durante un instante de tiempo. Además de lo susceptibles que son sus componentes físicos a cualquier injerencia ambiental.

Aunque la tecnología es posible únicamente en la teoría o en situaciones muy limitadas y controladas en un laboratorio, Google acaba de encontrar la forma de acotar la tasa de errores a medida que se aumenta el tamaño del sistema. Algo que hasta ahora era imposible.

En la informática clásica, todo son unos y ceros. Cada bit solo puede ser “0” o “1”, verdadero o falso. Y con ese almacenamiento y modo de operar, hemos logrado crear desde lenguajes de programación a videojuegos. Sin embargo, existe otra forma de hacer informática, al menos sobre el papel: la computación cuántica, donde los bits no son binarios.

El funcionamiento de la computación cuántica

Un bit cuántico (qubit) puede ser “0” o “1”, pero también ser los dos estados a la vez. Esto permite que se opere con nuevos tipos de puertas lógicas que permiten el desarrollo de nuevos algoritmos. Estos harían posible abordar tareas que, hasta ahora, son imposibles de ser tratadas por la computación clásica. De ahí que el planteamiento haya suscitado una gran expectación en las universidades, compañías y prensa.

Pero hay un problema: los ordenadores cuánticos no son capaces de operar correctamente a escala porque los qubits sólo mantienen su estado cuántico durante un instante. Es decir, para cuando el ordenador está realizando un cálculo, el estado de esos qubits ya ha cambiado y generan errores. Corregir esto es el desafío más importante de la industria.

La sensibilidad de los qubits es tan alta que, incluso la luz parásita, puede provocar errores de cálculo, y para ejecutar aplicaciones útiles se requiere que las tasas de error sean mucho más bajas que las actuales.

Por eso se usan métodos de corrección cuántica para limpiar el “ruido” generado codificando la información almacenada mientras el ordenador realiza la operación matemática. Varias startups y grandes compañías han intentado atajar el problema sin grandes éxitos, lo que he provocado un entusiasmo cada vez más comedido.

Un pequeño gran hito para la computación cuántica

Google probó las mejoras realizando un experimento para comparar la tasa de errores lógicos del código sobre una matriz de 17 qubits y una de 49 qubits. El resultado fue que la matriz más grande sea un 4 % menos propensa al error. Podría parecer una mejora ínfima, pero es la primera vez que se logra disminuir la tasa de errores al aumentar el número de qubits empleado.

El próximo paso es crear qubits lógicos de 1.000 unidades, y el próximo es enlazar 1.000 qubits lógicos en un sistema único. El camino será complicado, largo y tal vez, aunque prometa, no sea el correcto hasta lograr la tan deseada y abstracta computación cuántica, que podría permitirnos realizar operaciones que todavía, a día de hoy, no podemos siquiera plantear.

Con información de Hipertextual