Computación cuántica
La esfera de Bloch es una representación de
un cúbit, el bloque de construcción fundamental
de los computadores cuánticos.
La computación
cuántica es un paradigma de computación distinto al de la computación
clásica. Se basa en el uso de cúbits en lugar de bits,
y da lugar a nuevas puertas lógicas que
hacen posibles nuevos algoritmos.
Una misma tarea
puede tener diferente complejidad en
computación clásica y en computación cuántica, lo que ha dado lugar a una gran
expectación, ya que algunos problemas intratables pasan a ser tratables.
Mientras que un computador clásico equivale a una máquina de Turing,1 un computador cuántico equivale a
una máquina de Turing
cuántica.
Origen de la computación cuántica
A medida que
evoluciona la tecnología la escala de integración y caben más transistores en
el mismo espacio; así se fabrican microchips cada vez más pequeños, y es que,
cuanto más pequeño es, mayor velocidad de proceso alcanza el chip. Sin embargo,
no podemos hacer los chips infinitamente pequeños. Hay un límite en el cual
dejan de funcionar correctamente. Cuando se llega a la escala de nanómetros, los electrones se escapan de los
canales por donde deben circular. A esto se le llama efecto túnel.
Una partícula
clásica, si se encuentra con un obstáculo, no puede atravesarlo y rebota. Pero
con los electrones, que son
partículas cuánticas y se comportan como ondas,
existe la posibilidad de que una parte de ellos pueda atravesar las paredes si
son los suficientemente delgadas; de esta manera la señal puede pasar por
canales donde no debería circular. Por ello, el chip deja de funcionar
correctamente.
En consecuencia,
la computación digital tradicional no tardaría en llegar a su límite, puesto
que ya se ha llegado a escalas de sólo algunas decenas de nanómetros. Surge
entonces la necesidad de descubrir nuevas tecnologías y es ahí donde la
computación cuántica entra en escena.
La idea de
computación cuántica surge en 1981, cuando Paul Benioff expuso su teoría para
aprovechar las leyes cuánticas en el entorno de la computación. En vez de
trabajar a nivel de voltajes eléctricos, se trabaja a nivel de cuanto. En la computación digital, un bit sólo
puede tomar dos valores: 0 o 1. En cambio, en la computación cuántica,
intervienen las leyes de la mecánica cuántica,
y la partícula puede estar en superposición coherente: puede ser 0, 1 y puede
ser 0 y 1 a la vez (dos estados ortogonales de
una partícula subatómica). Eso permite que se puedan realizar varias
operaciones a la vez, según el número de cúbits.
El número de
cúbits indica la cantidad de bits que pueden estar en superposición. Con los
bits convencionales, si teníamos un registro de tres bits, había ocho valores
posibles y el registro sólo podía tomar uno de esos valores. En cambio, si
tenemos un vector de tres cúbits, la partícula puede tomar ocho valores
distintos a la vez gracias a la superposición cuántica. Así, un vector de tres
cúbits permitiría un total de ocho operaciones paralelas. Como cabe esperar, el
número de operaciones es exponencial con respecto al número de
cúbits.
Para hacerse una
idea del gran avance, un computador cuántico de 30 cúbits equivaldría a un
procesador convencional de 10 teraflops (10 millones
de millones de operaciones en coma flotante por segundo), cuando actualmente
las computadoras trabajan en el orden de gigaflops (miles de millones de
operaciones).
Problemas de la computación cuántica
Uno de los
obstáculos principales para la computación cuántica es el problema de la decoherencia cuántica,
que causa la pérdida del carácter unitario (y, más específicamente, la
reversibilidad) de los pasos del algoritmo cuántico. Los tiempos de
decoherencia para los sistemas candidatos, en particular el tiempo de
relajación transversal (en la terminología usada en la tecnología de resonancia
magnética nuclear e imaginería por resonancia magnética) está típicamente entre
nanosegundos y segundos, a temperaturas bajas. Las tasas de error son
típicamente proporcionales a la razón entre tiempo de operación frente a tiempo
de decoherencia, de forma que cualquier operación debe ser completada en un
tiempo mucho más corto que el tiempo de decoherencia. Si la tasa de error es lo
bastante baja, es posible usar eficazmente la corrección
de errores cuántica, con lo cual sí serían posibles tiempos de
cálculo más largos que el tiempo de decoherencia y, en principio,
arbitrariamente largos. Se cita con frecuencia una tasa de error límite de 10–4,
por debajo de la cual se supone que sería posible la aplicación eficaz de la
corrección de errores cuánticos.
Otro de los
problemas principales es la escalabilidad, especialmente teniendo en cuenta el
considerable incremento en cúbits necesarios para cualquier cálculo que implica
la corrección de errores. Para ninguno de los sistemas actualmente propuestos
es trivial un diseño capaz de manejar un número lo bastante alto de cúbits para
resolver problemas computacionalmente interesantes hoy en día.
Hardware para computación cuántica
Aún no se ha
resuelto el problema de qué hardware sería el ideal para la
computación cuántica. Se ha definido una serie de condiciones que debe cumplir,
conocida como la lista de Di Vincenzo, y hay varios candidatos
actualmente.
Condiciones
a cumplir
·
El sistema ha de
poder inicializarse, esto es, llevarse a un estado de partida conocido y
controlado.
·
Ha de ser
posible hacer manipulaciones a los cúbits de forma controlada, con un conjunto
de operaciones que forme un conjunto universal de puertas lógicas (para
poder reproducir cualquier otra puerta lógica posible).
·
El sistema ha de
mantener su coherencia cuántica a
lo largo del experimento.
·
Ha de poder
leerse el estado final del sistema, tras el cálculo.
·
El sistema ha de
ser escalable: tiene que haber una forma definida de aumentar el número de
cúbits, para tratar con problemas de mayor coste computacional.
Candidatos
·
Espines nucleares de moléculas en disolución, en un aparato de RMN.
·
Flujo eléctrico en SQUIDs.
·
Iones suspendidos
en vacío .
·
Puntos cuánticos en superficies sólidas.
·
Computación
adiabática, basada en el teorema adiabático.
Procesadores
En 2004,
científicos del Instituto de Física aplicada de la Universidad de Bonn publicaron
resultados sobre un registro cuántico experimental. Para ello utilizaron átomos
neutros que almacenan información cuántica, por lo que son llamados cúbits por
analogía con los bits. Su objetivo actual es construir una puerta cuántica, con
lo cual se tendrían los elementos básicos que constituyen los procesadores, que
son el corazón de los computadores actuales. Cabe destacar que un chip de
tecnología VLSI contiene actualmente más de 100 000
puertas, de manera que su uso práctico todavía se presenta en un horizonte
lejano.
Transmisión
de datos
Científicos de
los laboratorios Max Planck y Niels Bohr publicaron
en la revista Nature en noviembre de 2004, resultados sobre la
transmisión de información cuántica a distancias de 100 km usando la luz como
vehículo.2 obteniendo niveles de éxito del
70 %, lo que representa un nivel de calidad que permite utilizar
protocolos de transmisión con autocorrección. Actualmente se trabaja en el
diseño de repetidores, que permitirían transmitir información a distancias mayores
a las ya alcanzadas.
Software para computación
Algoritmos
cuánticos
Los algoritmos
cuánticos se basan en un margen de error conocido en las operaciones de base y
trabajan reduciendo el margen de error a niveles exponencialmente pequeños,
comparables al nivel de error de las máquinas actuales.
Modelos
Complejidad
La clase de complejidad BQP estudia
el costo de los algoritmos cuánticos con bajo margen de error.
Problemas
propuestos
Se ha sugerido
el uso de la computación cuántica como alternativa superior a la computación
clásica para varios problemas, entre ellos:
·
Simulación de
sistemas cuánticos: Richard Feynman conjeturó
en 1982 que los ordenadores cuánticos serían eficaces como simuladores
universales de sistemas cuánticos, y en 1996 se demostró que la conjetura era
correcta.34
Cronología
Años
80
A comienzos de
la década de los 80, empezaron a surgir las primeras teorías que apuntaban a la
posibilidad de realizar cálculos de naturaleza cuántica.
1981 - Paul
Benioff
Las ideas
esenciales de la computación cuántica surgieron de la mente de Paul Benioff que
trabajaba en el Argone National Laboratory en Illinois (EE. UU.). Teorizó un
ordenador tradicional (máquina de Turing) operando con algunos principios de la
mecánica cuántica.
1981-1982
Richard Feynman
El Dr. Richard Feynman, físico del California
Institute of Technology en California (EE. UU.) y ganador
del premio Nobel en
1965 realizó una ponencia durante la Primera Conferencia sobre la Física de la
Computación realizado en el Instituto
Tecnológico de Massachusetts (EE. UU.) Su charla, bajo el
título de Simulando la física con computadoras(Simulating
Physics With Computers) proponía el uso de fenómenos cuánticos para
realizar cálculos computacionales y exponía que dada su naturaleza algunos
cálculos de gran complejidad se realizarían más rápidamente en un ordenador
cuántico.
1985 - David
Deutsch
Este físico
israelí de la Universidad de Oxford,
Inglaterra, describió el primer computador cuántico universal, es decir, capaz
de simular cualquier otro computador cuántico (principio de Church-Turing
ampliado). De este modo surgió la idea de que un computador cuántico podría
ejecutar diferentes algoritmos cuánticos.
Años
90
En esta época la
teoría empezó a plasmarse en la práctica: aparecieron los primeros algoritmos
cuánticos, las primeras aplicaciones cuánticas y las primeras máquinas capaces
de realizar cálculos cuánticos.
1993 - Dan Simon
Desde el
departamento de investigación de Microsoft (Microsoft Research),
surgió un problema teórico que demostraba la ventaja práctica que tendría un
computador cuántico frente a uno tradicional.
Comparó el
modelo de probabilidad clásica con el modelo cuántico y sus ideas sirvieron
como base para el desarrollo de algunos algoritmos futuros (como el de Shor).
1993 - Charles
Benett
Este trabajador
del centro de investigación de IBM en Nueva York descubrió el teletransporte cuántico y que abrió una
nueva vía de investigación hacia el desarrollo de comunicaciones cuánticas.
1994-1995 Peter Shor
Este científico
estadounidense de AT&T Bell Laboratories definió el algoritmo
que lleva su nombre y que permite calcular los factores primos de números a una
velocidad mucho mayor que en cualquier computador tradicional. Además su
algoritmo permitiría romper muchos de los sistemas de criptografía utilizados actualmente. Su
algoritmo sirvió para demostrar a una gran parte de la comunidad científica que
observaba incrédula las posibilidades de la computación cuántica, que se
trataba de un campo de investigación con un gran potencial. Además, un año más
tarde, propuso un sistema de corrección de errores en el cálculo cuántico.
1996 - Lov
Grover
Inventó el
algoritmo de búsqueda de datos que lleva su nombre "Algoritmo de Grover".
Aunque la aceleración conseguida no es tan drástica como en los cálculos
factoriales o en simulaciones físicas, su rango de aplicaciones es mucho mayor.
Al igual que el resto de algoritmos cuánticos, se trata de un algoritmo
probabilístico con un alto índice de acierto.
1997 - Primeros
experimentos
En 1997 se
iniciaron los primeros experimentos prácticos y se abrieron las puertas para
empezar a implementar todos aquellos cálculos y experimentos que habían sido
descritos teóricamente hasta entonces. El primer experimento de comunicación segura
usando criptografía cuántica se realiza con éxito a una distancia de 23 Km.
Además se realiza el primer teletransporte cuántico de un fotón.
1998 - 1999
Primeros cúbits
Investigadores
de Los Álamos y el Instituto Tecnológico de Massachusetts consiguen propagar el
primer cúbit a través de una solución de aminoácidos. Supuso el primer paso para analizar
la información que transporta un cúbit. Durante ese mismo año, nació la primera
máquina de 2 cúbits, que fue presentada en la Universidad de
Berkeley, California (EE. UU.) Un año más tarde, en 1999, en los
laboratorios de IBM-Almaden, se creó la primera máquina de 3 cúbits y además
fue capaz de ejecutar por primera vez el algoritmo de búsqueda de Grover.
Año
2000 hasta ahora
2000
- Continúan los progresos
De nuevo IBM,
dirigido por Isaac Chuang (Figura 4.1), creó un computador cuántico de 5 cúbits
capaz de ejecutar un algoritmo de búsqueda de orden, que forma parte del Algoritmo de Shor. Este algoritmo se ejecutaba
en un simple paso cuando en un computador tradicional requeriría de numerosas
iteraciones. Ese mismo año, científicos de Los Álamos National Laboratory (EE.
UU.) anunciaron el desarrollo de un computador cuántico de 7 cúbits. Utilizando
un resonador
magnético nuclear se consiguen aplicar pulsos electromagnéticos
y permite emular la codificación en bits de los computadores tradicionales.
2001
- El algoritmo de Shor ejecutado
IBM y
la Universidad de
Stanford, consiguen ejecutar por primera vez el algoritmo de Shor en
el primer computador cuántico de 7 cúbits desarrollado en Los Álamos. En el
experimento se calcularon los factores primos de 15, dando el resultado
correcto de 3 y 5 utilizando para ello 1018 moléculas, cada una de ellas con 7
átomos.
2005
- El primer Qbyte
El Instituto de
“Quantum Optics and Quantum Information” en la Universidad de
Innsbruck (Austria) anunció que sus científicos habían creado
el primer qbyte, una serie de 8 cúbits utilizando trampas de iones.
2006
- Mejoras en el control del cuanto
Científicos
en Waterloo y Massachusetts diseñan métodos
para mejorar el control del cuanto y consiguen desarrollar un sistema de 12
cúbits. El control del cuanto se hace cada vez más complejo a medida que
aumenta el número de cúbits empleados por los computadores.
2007
- D-Wave
La empresa
canadiense D-Wave
Systems había supuestamente presentado el 13 de febrero de 2007
en Silicon Valley,
una primera computadora cuántica comercial de 16 cúbits de propósito general;
luego la misma compañía admitió que tal máquina, llamada Orion, no es realmente
una computadora cuántica, sino una clase de máquina de propósito general que
usa algo de mecánica cuántica para resolver problemas.[cita requerida]
2007
- Bus cuántico
En septiembre de
2007, dos equipos de investigación estadounidenses, el National Institute of Standards
(NIST)
de Boulder y la Universidad de Yale en New Haven consiguieron unir componentes
cuánticos a través de superconductores.
De este modo
aparece el primer bus cuántico, y este dispositivo además puede ser utilizado
como memoria cuántica, reteniendo la información cuántica durante un corto
espacio de tiempo antes de ser transferido al siguiente dispositivo.
2008
- Almacenamiento
Según la
Fundación Nacional de Ciencias (NSF) de los EE. UU., un equipo de científicos
consiguió almacenar por primera vez un Qubit en el interior del núcleo de un
átomo de fósforo, y pudieron hacer que la información permaneciera intacta
durante 1.75 segundos. Este periodo puede ser expansible mediante métodos de
corrección de errores, por lo que es un gran avance en el almacenamiento de
información.
2009
- Procesador cuántico de estado sólido
El equipo de
investigadores estadounidense dirigido por el profesor Robert Schoelkopf, de
la Universidad de Yale,
que ya en 2007 había desarrollado el Bus cuántico, crea ahora el primer
procesador cuántico de estado sólido, mecanismo que se asemeja y funciona de
forma similar a un microprocesador convencional, aunque con la capacidad de
realizar sólo unas pocas tareas muy simples, como operaciones aritméticas o
búsquedas de datos.
Para la
comunicación en el dispositivo, esta se realiza mediante fotones que se
desplazan sobre el bus cuántico, circuito electrónico que almacena y mide
fotones de microondas, aumentando el tamaño de un átomo artificialmente.
2011
- Primera computadora cuántica vendida
La primera
computadora cuántica comercial es vendida por la empresa D-Wave
Systems, fundada en 1999, a Lockheed Martin por 10 millones de
dólares.5
2012
- Avances en chips cuánticos
IBM anuncia
que ha creado un chip lo suficientemente estable como para permitir que la
informática cuántica llegue a hogares y empresas. Se estima que en unos 10 o 12
años se puedan estar comercializando los primeros sistemas cuánticos.6
2013
- Computadora cuántica más rápida que un computador convencional
En abril la
empresa D-Wave
Systems lanza el nuevo computador cuántico D-Wave Two el cual
es 500 000 veces superior a su antecesor D-Wave One, con un poder de cálculo de
439 cúbits. Realmente el D-Wave Two tuvo graves problemas finalmente, dado que
no tenía las mejoras de procesamiento teóricas frente al D-Wave One.7 Éste fue comparado con un computador
basado en el microprocesador Intel Xeon E5-2690 a 2.9 GHz, teniendo en cuenta
que lo obteniendo, es decir, el resultado en promedio de 4000 veces superior.8
En mayo de 2017,
IBM presenta un nuevo procesador cuántico comercial, el más potente hasta la
fecha10 de 17 cúbits.
No hay comentarios:
Publicar un comentario