La computación cuántica ya es una realidad.
Actualmente, desarrollamos tecnologías informáticas basadas en conceptos exclusivamente cuánticos que en el futuro marcarán un cambio de paradigma en nuestras sociedades.
Para cerrar nuestra trilogía de artículos sobre Física Cuántica, en el marco del Año Internacional de la Ciencia y Tecnología Cuánticas, resumiremos los hitos clave de la computación cuántica, los desafíos actuales en su desarrollo y su impacto en la sociedad presente y futura. Antes de continuar, te invitamos a leer los dos artículos anteriores si aún no lo has hecho: “Estructura Microscópica de la Materia y Radiación” y “El Orden Disuelto: Interpretación de Copenhague”.
En las últimas décadas, las tecnologías cuánticas han despertado un enorme interés tanto en potencias globales como Estados Unidos, China y la Unión Europea, como en gigantes tecnológicos del sector privado, entre ellos Google, Microsoft, IBM y Alibaba. Este auge se debe al salto que estas innovaciones han dado desde los centros académicos y de investigación hacia la industria. Sin embargo, la computación cuántica surge como concepto en la década de 1980 y se basa en una idea fundamental que Richard Feynman expresó de forma contundente: “La naturaleza no es clásica, ¡maldita sea! Si quieres hacer un simulador de la naturaleza, sería mejor que lo hicieras cuántico […]”.
A diferencia de la computación clásica, que opera con dispositivos electrónicos y un sistema binario, la computación cuántica codifica la información en sistemas cuánticos de dos niveles, como pueden ser átomos, moléculas o superconductores, y la manipula utilizando las leyes de la mecánica cuántica. Estos sistemas cuánticos con dos estados propios son lo que denominamos qubits (del inglés quantum bit).
Fue en la década de 1990 cuando los físicos comenzaron a estudiar la física cuántica como una teoría de la información. A partir de entonces, el campo experimentó un desarrollo acelerado tanto en hardware, con los primeros ordenadores cuánticos de pocos qubits, como en software, con la creación de algoritmos capaces de resolver problemas inaccesibles para la computación clásica. Algunos de los algoritmos cuánticos más destacados son el de Shor [2] , diseñado para la factorización de números en sus primos, y el de Grover [1], optimizado para la búsqueda eficiente en bases de datos desordenadas.
Para que entendamos mejor cómo funcionan estos algoritmos, consideremos el siguiente ejemplo: imaginemos que tenemos 1000 llaves y necesitamos encontrar la que abre una cerradura. Un ordenador tradicional tiene dos opciones: probar cada llave una por una hasta dar con la correcta, lo que es muy ineficiente en tiempo, o utilizar computación paralela, creando 1000 copias de la cerradura y probar todas las llaves a la vez, lo que requiere un gasto de memoria inviable. En cambio, un ordenador cuántico pone en superposición la cerradura y prueba simultáneamente las 1000 llaves.
Esta capacidad única de poner registros computacionales en superposición o fortalecer las correlaciones de los sistemas mediante el entrelazamiento cuántico optimiza la resolución de numerosos problemas de cálculo. Esto tiene implicaciones en la seguridad nacional, especialmente en criptografía. Un ejemplo claro es la factorización (i. e. 12 = 2·2·3) de un número de 617 dígitos, un estándar de alta seguridad en criptografía, que ni con el mejor computador clásico se tardaría menos de 315 trillones de años (más que la edad del universo) en resolver. Por el contrario, corriendo el algoritmo de Shor en un ordenador cuántico tardaríamos aproximadamente 8 horas, poniendo en riesgo muchos de los sistemas de encriptación actuales.
Además, si consideramos el ritmo al que escala el consumo energético necesario para entrenar y mantener la Inteligencia Artificial con computación clásica, queda en evidencia su falta de sostenibilidad a largo plazo. Reforzando así la necesidad urgente de desarrollar ordenadores cuánticos cada vez más potentes.
En cuanto a la construcción de un ordenador cuántico hoy día es bastante compleja y hasta podríamos decir que “aparatosa”. Los ejemplos más destacables de plataformas de hardware son:
- Superconductores: en estos ordenadores cuánticos la mayor parte de su arquitectura se dedicada a un refrigerador de dilución para enfriar la temperatura del chip hecho con circuitos superconductores. En este caso la unidad básica de información está asociada con la dirección de la corriente.
- Iones atrapados: mediante una trampa de iones, los átomos que actúan como qubits se confinan utilizando campos electromagnéticos, permitiendo su manipulación y control con gran precisión. Se pueden construir con decenas de iones y acoplarlos con los modos de vibración de la red, con los fonones. Estas trampas de iones son instaladas en chips diminutos.
- Fotones: La principal ventaja de los ordenadores cuánticos fotónicos basados en láseres es que operan a temperatura ambiente y su tecnología ha sido miniaturizada a un chip.
Hay muchas más propuestas de hardware y todas ellas están desarrollándose, sin embargo, hoy por hoy los mayores retos a los que se enfrenta la computación cuántica son la escalabilidad, es decir aumentar el número de qubits, y mitigar el acoplamiento con el ruido externo, conocido como decoherencia, que afecta a la estabilidad y precisión de los cálculos.
Con todo esto, algunos físicos como Alain Aspect, laureado con el Premio Nobel de Física de 2022 por sus experimentos con fotones entrelazados, sostienen que estamos al inicio de una segunda revolución tecnológica impulsada por la mecánica cuántica. Sin embargo, en el momento de su formulación, hace ahora un siglo, científicos de la talla de Albert Einstein o Niels Bohr no podían imaginar las repercusiones que tendría la Física Cuántica en nuestra vida cotidiana, al igual que hoy resulta incierto prever cómo lo hará dentro de otros cien años.
Referencias:
[1] Grover, L. K. (1996). A fast quantum mechanical algorithm for database search. Retrieved Mar 13, 2025, http://arxiv.org/abs/quant-ph/9605043.
[2] Shor, P. W. (1999). Polynomial-time algorithms for prime factorization and discrete logarithms on a quantum computer. SIAM review. https://epubs.siam.org/doi/10.1137/S0036144598347011.
- Conferencia de Román Orús Lacort (5 dic. 2024). “Computación cuántica a día de hoy”. Fac. de Ciencias Física UCM. https://www.youtube.com/watch?v=_-SbyZHdWTQ.
- Conferencia de Francisco García Herrero (6 feb. 2025). “De los qubits físicos a los qubits lógicos: propuestas para una computación cuántica fiable y escalable”. Fac. de Ciencias Físicas UCM. https://www.youtube.com/watch?v=oFtZgZlxnTE.
Todas las imágenes que aparecen tienen Licencias Creative Commons.
Si te ha interesado este artículo puedes encontrar más pinchando aquí.