En 2019, Google anunciaba a bombo y platillo que su chip cuántico Sycamore era capaz de resolver en 200 segundos una tarea en la que el mejor superordenador del momento habría invertido 10.000 años. Se trataba de la demostración práctica -aunque polémica y muy rebatida después – de que el gigante de Mountain View había conseguido la llamada « supremacía cuántica » o la primera prueba de que los ordenadores cuánticos eran capaces de realizar casi en un pestañeo operaciones en las que los ordenadores clásicos tardarían miles o millones de años. Ahora, Google vuelve a dar un golpe sobre la mesa con su nuevo chip cuántico Willow, la evolución de Sycamore. Willow es tan eficiente que, según cuentan sus creadores, es capaz de realizar en 5 minutos una tarea que al hasta hace unos días mejor superordenador del mundo, Frontier, le costaría la friolera de 10 cuatrillones de años. O lo que es lo mismo: 10.000.000.000.000.000.000.000.000 (un 1 seguido de 25 ceros). Una cifra que supera con creces la edad no ya del planeta Tierra (4.600 millones de años), sino del universo entero, que está estimada en 13.800 millones de años. Los resultados acaban de publicarse en la revista ‘ Nature ‘,Con Willow la brecha es tan grande que, según explican los investigadores, la humanidad podría dejar de crear nuevos procesadores cuánticos a la vez que sigue mejorando los superordenadores clásicos y aún así los segundos serían incapaces de alcanzar a los primeros en potencia de cálculo. «Es una carrera que los ordenadores clásicos no pueden ganar porque son sistemas fundamentalmente diferentes», señaló en rueda de prensa online Hartmut Nathan, fundador del equipo Google Quantum AI y su actual responsable. Porque la principal diferencia es que nuestros ordenadores se comunican con bits, piezas básicas del lenguaje computacional, que opera en unos y ceros. Por el contrario, los ordenadores cuánticos utilizan cúbits, bits cuánticos que, al igual que ocurre en el mundo atómico en el que las cosas pueden tener dos estados a la vez (como el famoso gato de Schrödinger, vivo y muerto al mismo tiempo), en este caso pueden ser unos y ceros de forma simultánea, lo que incrementa exponencialmente el número de operaciones que se pueden realizar. Esta increíble capacidad computacional abre la puerta al descubrimiento de nuevos fármacos, a fábricas con procesos optimizados al milímetro, a revolucionar los sistemas financieros o incluso a que los trenes leviten . Es por ello que grandes empresas como Google o IBM, amén de gobiernos de países y coaliciones como EE.UU., China o Europa, están pugnando por llevarse el gato de Schrödinger al agua, ya que el primero que consiga hacerse con esta tecnología tendrá una clara ventaja.Los frágiles cúbitsEl gran problema: los cúbits son muy frágiles . Partiendo de la base de que físicamente los chips tienen que estar diseñados y construidos de una forma milimétricamente perfecta, estos dispositivos necesitan además de temperaturas muy bajas, cercanas al cero absoluto (-273,15 ºC) y estar confinados para que nada les perturbe, pues tienen la particularidad de perder su condición cuántica (esa que les permite, entre otras cosas, estar entrelazados aún a miles de kilómetros de distancia, instantáneamente) de forma tremendamente rápida. No acaban ahí sus requisitos. «Incluso los rayos cósmicos (partículas subatómicas procedentes del espacio exterior) o la radiación ionizante en general puede molestarlos», expuso por su parte Michael Newman, investigador de Google Quantum AI. «Y en un sistema que hace miles de operaciones en segundos, cualquier mínima intromisión supone unas tasas de error muy elevadas». En los 90, un grupo de científicos planteó para solucionar este problema una idea un poco contraintuitiva: cuantos más cúbits ingresaran en el sistema, más fácil sería que entre ellos se corrigieran. Estaba basado en la idea de redundancia: supongamos que un ordenador hace tres copias de cada bit. Entonces, aún si uno de los tres bits se ‘equivoca’, los otros dos seguirán con la configuración correcta. Y cuantos más bits se copien, mayor será la fiabilidad del equipo, ya que el ordenador mismo podrá ‘autocorregirse’. Es decir, a mayor redundancia, menor cantidad de errores. Pero esto que ocurre sin problemas en la computación clásica está siendo un quebradero de cabeza en el terreno de la cuántica, en el que la teoría dice que incluyendo cada vez más cúbits físicos, estos trabajando como uno solo, podrían crear un cúbit lógico, una suerte de ‘supercúbit’ tolerante a fallos. «Pero existe el problema de que a medida de que introduces más cúbits físicos, tienes más posibilidades de introducir errores», prosigue Newman. Porque esos cúbits pueden tener desde fallos de diseño a que les ‘interrumpan’ en su trabajo los mencionados rayos cósmicos. «Sin embargo, hay un límite, llamado el umbral de corrección de error (threshold en inglés), por el que estas dos fuerzas opuestas son exactamente iguales. Y si llegas a ese punto, en el que tu procesador no es perfecto, pero sí lo suficientemente bueno para estar por debajo de ese límite, no solo se reduce el error, sino que lo hace de forma exponencialmente rápida al número de cúbits». Es decir: por debajo de ese límite tu ordenador cuántico empieza a funcionar de forma correcta, sin bloquearse. Y no solo eso: este sistema es escalable, lo que abre la puerta no solo a mejoras, sino a un futuro ordenador cuántico que pueda hacer diferentes tareas. Eso es lo que Google ha conseguido con Willow: «Probamos conjuntos cada vez más grandes de cúbits físicos, escalando desde una cuadrícula de 3×3 cúbits codificados, a una cuadrícula de 5×5, a una cuadrícula de 7×7, y cada vez, utilizando nuestros últimos avances en corrección de errores cuánticos, pudimos reducir la tasa de error a la mitad», indicó por su parte Nathan; es decir, cuanto más ampliaban la cuadrícula, menor tasa de error obtenían. Y eso integrando solo el doble de cúbits (aunque de una mejor calidad), pasando de los 59 cúbits físicos que integraban Sycamore a los 105 presentes en Willow. «Con Sycamore se conseguían tasas de error de 1 entre 100. Ahora con Willow estamos más cerca del 1 entre 1.000», indicó Jullian Kelly, también autor del estudio. El siguiente paso se ha marcado en tasas de error de 1 entre 1.000.000. «Para ello necesitamos un cúbit lógico duradero, y vendrá en los próximos años», indicó Charina Chow, también del equipo de Google Quantum AI.Algunas ‘pegas’ al anuncioPor supuesto, Willow no es el chip cuántico perfecto, ni supone, de momento, la llegada de la nueva era cuántica. Para empezar, hay algo de ‘trampa’ en la tarea que han conseguido que Willow realice: es muy específica para ordenadores cuánticos. Se trata del conocido como muestreo aleatorio de circuitos (RCS), que genera patrones en una serie de números aleatorios siguiendo una fórmula predeterminada. Un cálculo muy complicado para los ordenadores clásicos y que fue ingeniado a propósito para que Sycamore pudiera proclamar la polémica ‘supremacía cuántica’ (si bien la comunidad científica ha hallado potenciales aplicaciones en campos como la criptografía o la inteligencia artificial, entre otros). Google afirma que muchos grupos de investigadores han asimilado el RCS como prueba de que los procesadores cuánticos son mejores que los clásicos, pero esto no es del todo cierto; para empezar, la computación cuántica está siendo abordada desde diferentes ópticas, desde los cúbits superconductores de Willow a circuitos ópticos de muestreo de bosones , que emplean una extraña propiedad cuántica de las partículas de luz (fotones), que viajan aleatoriamente en diferentes direcciones dentro de un circuito. «En el primer dominio, dos plataformas lideran ahora mismo el campo desde el punto de vista del tamaño: átomos de Rydberg (con 256 qubits en el experimento de Harvard) y circuitos superconductores (con procesadores de muy diverso tamaño, 105 en el caso de Google, 127 en los procesadores de IBM)», explica a ABC Juan José García Ripoll, investigador dentro del grupo de Información cuántica y fundamentos de teoría cuántica del IFF-CSIC. Es decir, no hay un solo tipo de ordenador cuántico. Y no es fácil establecer los mismos estándares para todos ellos. «No es posible una comparación directa entre plataformas: los átomos de Rydberg son muchos, pero son más lentos; entre procesadores superconductores los de IBM tiene frecuencias fijas (menor tuneabilidad) y una conectividad más baja (algunas tareas requieren en promedio más puertas cuánticas) que el de Google, que tiene unas métricas de fidelidad excelentes», indica García Ripoll.Por otro lado, la supuesta imbatibilidad del chip cuántico de Google con respecto del plano clásico también puede ser una afirmación demasiado audaz. «Es muy difícil decir que algo no se puede hacer, e incluso las estimaciones originales de Google para Sycamore se vieron reventadas por emuladores desarrollados por todo el mundo que consiguieron reproducir sus resultados usando supercomputadores y nuevos métodos de cálculo numérico para sistemas cuánticos», señala García Ripoll refiriéndose a toda la polémica generada la primera vez que el gigante tecnológico reclamó para sí la supremacía cuántica (un término del que ahora reniega Google). A las pocas semanas, IBM afirmó que su superordenador Summit era capaz de realizar el mismo ejercicio en « como mucho, dos días y medio », y otros sistemas cuánticos después han pulverizado las marcas de Sycamore. «Aún así, nosotros en cinco años hemos mejorado las cifras exponencialmente con respecto a lo que han mejorado los superordenadores clásicos», se defienden desde la compañía. «Esto es solo otra validación de que estamos en el camino correcto».
Leave a Reply