Desde que en 1949 el transistor iniciara su camino en los laboratorios Bell de AT&T gracias a William Bradford Shockley (nobel de física en 1956), su número en un microprocesador se ha venido duplicando cada dos años; se ha cumplido así la ley enunciada en 1965 por el ingeniero Gordon Moore, recientemente fallecido.

Desarrollar ordenadores cuánticos supone dejar atrás las leyes de la física clásica para acceder al mundo atómico

Esto significa mayor potencia de proceso en menor espacio, precios que se reducen a la mitad cada año y dispositivos que quedan obsoletos en dos años. En 1968 Moore creaba Intel. Aún no había ordenadores personales ni teléfonos móviles.

En 1971 nacía el primer microprocesador, el Intel 4004, con tecnología de diez micras y 2300 transistores, que ejecutaba 60.000 operaciones por segundo. Desde entonces hemos pasado por muchas fases, hasta que, en 2021, se integraron 2500 millones de transistores en el Intel Core i7 de 5 nm.

La función de ese pequeño milagro, el transistor, es generar una señal de salida como respuesta a otra de entrada, es decir, permitir o denegar el paso de la electricidad ante un voltaje aplicado (conducir o aislar): 1, pasa corriente; 0, no pasa. Los transistores se agrupan en puertas lógicas, que son las que realizan las operaciones matemáticas. El conjunto de estas puertas lógicas conforma el procesador.

Por visualizar el nivel de miniaturización logrado, un virus como el causante de la COVID-19 tiene un tamaño de unos 100 nm; una proteína, 10 nm; y la espiral con nuestro ADN, 1 nm.

El límite físico

Estamos cercanos a la máxima encapsulación en procesadores de silicio y próximos a los límites del diámetro atómico, que está entre 0,1 y 0,5 nm. ¿Por qué esta carrera hacia la miniaturización? Porque así puedo poner más transistores por unidad de superficie, aumentando la potencia del chip y reduciendo su consumo energético. El paso de 7 nm a 5 nm supone un aumento del rendimiento del 10% al 15%, y una reducción del consumo de energía del 25% al 30%.

Esto hace que la industria de los microprocesadores sea enormemente cara y cada vez más competitiva con cada avance en la miniaturización. Como resultado, de la treintena de compañías que había en el año 2000, solo quedaban tres que los diseñen y fabriquen en 2020: Intel, Samsung y TSMC. Apple diseña, pero no fabrica; SMIC fabrica, pero no diseña; y Microsoft trabaja en su código abierto QDK (Kit de Desarrollo Cuántico) con lenguaje Q#, para ofrecer a los programadores cuánticos una base para desarrollar algoritmos.

“Cualquier tecnología suficientemente avanzada es indistinguible de la magia”, Arthur C. Clarke

Una vez llegados al límite físico en el encapsulado con la actual tecnología, ¿cómo seguir aumentando la capacidad de cálculo de los procesadores? Veo dos alternativas:

El primer camino, más continuista, es seguir miniaturizando hacia 1 nm con la misma tecnología, aunque con otros materiales. Acabará el reinado del silicio, que podría sustituirse por GaAs (arseniuro de galio) o por grafeno, ya que los átomos de carbono son menores que los del silicio. Aquí, la compañía TSMC planea el asalto a la tecnología de 1 nm. Por su parte, Intel ha plantado cara a TSMC (que le sobrepasa en los procesos de fotolitografía e integración), apostando a que, para el año 2030, encapsulará en un chip ¡un billón de transistores!

El segundo camino, más disruptivo, es adentrarnos en el mundo —más complejo y nada intuitivo— de la física cuántica. A partir de ahora, olvidémonos de la ley de Moore.

Ordenadores cuánticos

Desarrollar ordenadores cuánticos supone dejar atrás las leyes de la física clásica para acceder al mundo atómico, donde las reglas de juego son diferentes. Por ejemplo, las partículas atómicas no emiten energía de forma continua, sino a saltos: los cuantos de energía, descubiertos en 1841 por Max Planck (nobel de física en 1918).

Un ordenador convencional funciona en el estado binario de 0 y 1: si está en un estado no puede estar en el otro. La ambivalencia sería señal de mal funcionamiento. Así, 2= 2; con 2 bits: 2= 4; con 4 bits: 2= 16; con 8 bits: 2= 256; con 16 bits: 216 = 65.536, etc.

Del bit a cúbitUn ordenador cuántico usa el cúbit o qubit (bit cuántico) como unidad básica. Si la luz puede comportarse como una partícula, un electrón puede comportarse como una onda. ¿Por qué no aprovechar esa dualidad onda-corpúsculo estudiada por Louis De Broglie (nobel de física en 1929)? Aquí crece la complejidad. Mientras que un bit toma valores de 0 o 1, un cúbit puede ser 0, 1 y, además, cualquier combinación de estos estados, con sus probabilidades, o superposición de estados. En un ordenador clásico hay que multiplicar por 2 para pasar de 4 a 8 operaciones, pero en uno cuántico hay que multiplicar por 16 (de 24 a 28). Pasamos de crecimiento lineal a exponencial.

Pero no todo es tan fácil. Algunos de los enormes y costosos inconvenientes que presenta su construcción son la necesidad de trabajar en vacío y a bajísimas temperaturas (−273 °C) para poder minimizar interferencias y perturbaciones. Los estados cuánticos son muy frágiles y breves, cualquier interacción indebida con el entorno los destruye.

Además, hay que crear algoritmos propios, pues, al operar con múltiples estados intermedios, debes eliminar errores: la denominada incoherencia cuántica. Según el principio de indeterminación o incertidumbre de Heisenberg, el simple hecho de ver qué sucede con los electrones a nivel cuántico implica iluminar o dar energía, con lo que se obtienen cálculos erróneos.

Tecnología o magia

IBM comercializa hoy ordenadores cuánticos experimentales de 127 cúbits. De hecho, tal y como sucedió con sus modelos Host 3090 y 4381 refrigerados por agua, con los que trabajé en 1990, hay que desarrollar la programación para sacarles partido.

Esta nueva revolución nos tomará tiempo y la incorporaremos en nuestras vidas sin necesidad de saber cómo funciona, tal y como hicimos con el ordenador o el teléfono móvil. Ya lo dijo el escritor Arthur C. Clarke: “Cualquier tecnología suficientemente avanzada es indistinguible de la magia”. Y llevamos mucho tiempo haciendo magia.

En 1958 Werner Heisenberg (nobel de física en 1932) recordaba sus apasionadas discusiones con Niels Bohr (nobel de física en 1922), sin dejar de repetirse: “¿Puede realmente la naturaleza ser tan absurda…?”.

Desarrollar ordenadores cuánticos supone dejar atrás las leyes de la física clásica para acceder al mundo atómico

Nada es intuitivo ni razonable. Esa aleatoriedad molestaba también a Albert Einstein (nobel de física en 1921), tanto que escribió lo siguiente a su colega Max Born (nobel de física en 1954): “La mecánica cuántica resulta imponente, pero una voz interior me dice que, así y todo, no es verdadera”. Y eso le producía un enorme malestar, ya que, si la naturaleza es determinista, ¿por qué la mecánica cuántica iba a ser lo contrario, probabilista?

Por último, en 1964, el investigador, profesor y gran divulgador Richard Feynman (nobel de física en 1965) pronunciaba una de sus jocosas frases, cuando aconsejaba a los asistentes a una conferencia en la Universidad de Cornell: “Creo que puedo decir con seguridad que nadie entiende la mecánica cuántica. Simplemente relájense y disfruten”.

Así pues, disfrutemos con lo que viene y sigamos creyendo en la magia. Usaremos la tecnología, como hasta ahora, sin comprenderla bien. En este punto, y abusando de la paciencia de Einstein, parece ser que Dios sí juega a los dados.