Resumen
Optica cuántica puede
significar muchas cosas distintas para diferentes personas, sin
embargo, tiene como base de todos sus posibles significados el
reconocimiento de que la luz no es una onda clásica, sino más bien una
entidad con las características cuánticas de onda y de partícula.
Debido a esto y a el hecho de que los diversos estudios en la misma son
relativamente simples de llevar al experimento, es de particular
importancia para el estudio de los fundamentos de la mecánica cuántica
y, haciendo uso de principios cuánticos, la óptica cuántica resulta una
veta muy rica para la investigación y el desarrollo de nuevas
tecnologías. Tales fundamentos y posibilidades tecnológicas serán
estudiadas en el presente artículo. En particular, nos enfocaremos a
procesos de manipulación de interacción entre radiación y materia
usados en teoría de información y computación cuántica.
I. El porqué de
la mecánica cuántica
Los antiguos griegos propusieron
que la materia no podía ser dividida indefinidamente, de tal forma que
supusieron que ésta debía estar compuesta por unidades indivisibles a
las que llamaron átomos (de palabras griegas que literalmente
significan: sin división). Los griegos supusieron que las
diversas formas que los átomos tenían -los cuales eran sólidos-
determinaban las características de las diferentes sustancias.
Después vino la idea de los elementos, la cual
suponía que diferentes elementos estaban constituidos por diferentes
clases de átomos. John Dalton (1766-1844) mostró que cada
elemento estaba formado de átomos que diferían en masa de los átomos de
otros elementos. Por ejemplo, el carbón tiene una masa relativa de 12,
el oxigeno de 16, siendo la unidad el átomo de hidrógeno, el cual
es el más ligero de todos los átomos.
Los químicos habían estudiado el
comportamiento de los gases y habían notado que si doblaban el volumen
del gas, la presión disminuía a la mitad y si dividían a la mitad el
volumen, su temperatura se duplicaba. Durante mediados del siglo XIX,
James Clerk Maxwell (1831-1879) explicó la ley de los gases aplicando
estadística al movimiento azaroso de los átomos. Mostró que cuando se
calienta un gas sus moléculas incrementan sus velocidades, lo que hace
que reboten contra las paredes de contenedores con más fuerza y
de esta forma incrementando la presión. Para mantener la misma presión
el volumen debe de incrementarse. Para estas fechas, los átomos eran dados
por hecho y tratados como simples esferas. En este punto, tal concepto
de los átomos -como simples esferas- se vino abajo
por descubrimientos hechos hacia el final de el siglo XIX.
Primeramente, hubo experimentos en electricidad y magnetismo que
indicaban la existencia de partículas con masa menor a la de el átomo
de hidrógeno tales como los electrones. En segundo lugar, los átomos se
encontraron mucho más complejos que lo que se había pensado previamente
cuando se descubrió la radioactividad: los átomos podían desprenderse
de pedazos y convertirse en nuevos átomos.
Hasta aquí, la descripción del
átomo era clásica o newtoniana. Desafortunadamente esta descripción
violaba las leyes de Maxwell del electromagnetismo. Estas eran
herramientas muy poderosas que sin embargo no pudieron explicar como
un átomo podía permanecer estable. Bajo las leyes de Maxwell, un
objeto cargado eléctricamente tal como un electrón el cual cambia su
dirección (en su órbita alrededor del núcleo) debería radiar energía
tal que su trayectoria colapsaría en forma espiral hacia el núcleo, su
radio disminuyendo continuamente por el proceso de pérdida de energía.
Claramente esto no pasaba y los átomos eran –son- entidades estables.
Claro que los átomos absorbían y
emitían energía. El problema estaba en el hecho de que esto ocurría
en procesos estrictamente controlados. Los átomos solo absorbían
o emitían en cantidades de energía con longitudes de onda específicas.
Por ejemplo, el sodio emitía en el amarillo, el potasio en el lila, etc.
Además la física tenía otros problemas no resueltos como la forma en
que un objeto a cierta temperatura radiaba energía (el problema de la
radiación de cuerpo negro) o la forma en que los metales producían
corrientes eléctricas cuando se irradiaban con luz (el efecto
foto-eléctrico). Definitivamente algo estaba mal en la física y se hizo
necesaria una (primera) revolución en la misma.
En 1900 Max Planck (1858-1947)
encontró que podía explicar la forma en que cuerpos calientes emiten
energía con la sola suposición de que tal energía era emitida en
paquetes llamados “cuantos.” En 1905 Albert Einstein (1879-1955) usó la
idea “cuántica” de Planck para explicar el efecto fotoeléctrico –
que sirve para construir celdas solares o para máquinas fotocopiadoras.
Estos “cuantos” estaban siendo usados para explicar fenómenos
previamente no explicados por las teorías clásicas. Uno de los
fenómenos más intrigantes era la luz (la materia prima de la óptica
cuántica), la cual se conocía desde hacía mucho tiempo su naturaleza ondulatoria,
pero que presentaba una dualidad, en el sentido de que algunas veces se
comportaba como partícula. Entonces, si los cuantos eran reales ¿Era la
luz onda o era partícula? ¿Cómo explicar el hecho de que en algunos
experimentos como refracción o difracción se comportaba como onda y en
otros, como la radiación de cuerpo negro o efecto fotoeléctrico se
comportaba como partícula? En 1912 Louise de Broglie (1892-1987)
sugirió que si la energía podía comportarse como ondas y partículas,
tal vez la materia también podía comportarse de forma similar. Predijo
que bajo ciertas condiciones un haz de electrones podría
tener propiedades de onda. Sorprendentemente cuando se realizó el
experimento se observó que un haz de electrones difractaba de la misma
forma que lo hace una onda. Pareció entonces como si la energía y la
materia pudieran ambas exhibir dualidad onda-partícula, de tal suerte
que a una partícula en movimiento se le pudiera asociar una longitud de
onda. Se empezó entonces a aceptar que las partículas cuánticas están
sujetas a leyes completamente diferentes de las que se aplican a
objetos grandes, hechos estos de partículas cuánticas. Uno de los
mayores obstáculos que los primeros exploradores de la Mecánica
Cuántica tuvieron que vencer fueron sus propias creencias sobre el
determinismo. Debido a que el mundo de lo pequeño es muy diferente, los
científicos tuvieron prácticamente que "reformatear" el
sistema de lógica que habían usado ya por siglos. Para comprender los
"nuevos" fenómenos naturales tuvieron que dejar de lado la
intuición y en su lugar considerar un nuevo sistema de pensamiento.
Diferentes reglas debían ser aplicadas a partículas cuánticas y objetos
grandes.
En 1925 Erwin Schrödinger
(1887-1961) y Werner Heisenberg (1901-1976) trabajaron en las
matemáticas de la mecánica cuántica. Usando esta nueva teoría, los
científicos pudieron entender el comportamiento de los átomos. La
dualidad onda-partícula se convirtió en una realidad para materia y
energía.
Una de estas reglas fundamentales
arriba mencionadas es el hecho de que todo esta hecho por pequeños
"pedacitos". Así como los objetos materiales están hechos de
partículas, también lo están las fuerzas que mantienen tales partículas
juntas, formando el objeto. Los electrones, por ejemplo son partículas
cuánticas llamadas "fermiones" y que cambian sus niveles de
energía, entre otras fuerzas, con ayuda de fotones, los cuales son
llamados "bosones". Junto con los protones y neutrones,
conforman los átomos, los cuales a su vez moléculas y éstas a su vez
objetos.
Todo lo que podemos ver, ya sea
una estrella distante o el perrito con sus pulgas, están hechos de un
número pequeño de fermiones y bosones.

II.
Principios básicos de la mecánica cuántica
Los principios cuánticos tales
como los que se detallan a continuación, serán la base de la futura
tecnología cuántica:
·
Cuantización: las energías de un sistema de partículas están
dadas en forma discreta.
·
Principio de incertidumbre: para cada estado cuántico existe
siempre una medición, el resultado de la cual se tiene completa
certeza, y simultáneamente al menos una medición para la cual el
resultado es completamente azaroso. Este principio es la base del
teorema de no-clonación: si se puede clonar un sistema, en uno de ellos
puede ser medida una variable con completa certeza y en el otro otra
variable también con absoluta certeza lo que es prohibido por este
principio.
·
Superposición cuántica: si un evento puede realizarse en dos o
más formas indistinguibles, el estado del sistema es una
superposición de esas formas simultáneamente. Cuando tal evento
es por ejemplo un estado cuasi-clásico y es superpuesto con otro
similar se obtienen los famosos estados gato de Schrödinger.
·
Tuneleo: la habilidad de una partícula de encontrarse en
regiones del espacio que serían excluidas por la mecánica clásica. Por
ejemplo, en mecánica clásica una pelota con cierta energía puede llegar
hasta una altura máxima. En mecánica cuántica, sin embargo, estas
alturas pueden ser sobrepasadas, digamos por un electrón, y pueden
formarse corrientes eléctricas recogiendo tales electrones, generando
así un microscopio de barrido.
·
El enmarañamiento o enredamiento que es el proceso mediante el
cual dos sistemas mezclan de alguna forma sus respectivas funciones de
onda, formando una función de onda total que, en general no puede
separarse en un producto de sistemas autónomos. Esto permite que la más
mínima perturbación en uno de los dos sistemas produzca cambios
profundos en el segundo sistema. A decir de Jeff Kimble, de
Caltech, el hacer cosquillas a uno de los dos sistemas, produce que el
segundo se ría.
·
Decoherencia: ésta
puede ser por la interacción del sistema con un medio ambiente, o por
razones intrínsecas de los sistemas. Debido a ésta es que nos
preguntamos: ¿Por qué no observamos a nivel macroscópico las
coherencias cuánticas que emergen como una consecuencia directa de la
interferencia entre amplitudes cuánticas? Una
posible respuesta (la interpretación de la mecánica cuántica de
Copenhague) está basada en la suposición de que existe un aparato de
medición clásico, el cual, durante el proceso de medida destruye las
coherencias cuánticas. Aunque esta respuesta es bastante convincente,
la suposición de un aparato clásicos, hace que la mecánica cuántica sea
una teoría inconsistente. Otra forma de resolver el antagonismo
"micro-macro", ha sido presentada por Zurek. Esta forma
alternativa está basada en el hecho de que todos los sistemas cuánticos
se encuentran rodeados por sistemas grandes (los cuales tienen muchos
grados de libertad) llamados medio ambiente. La interacción de un
sistema cuántico con su medio ambiente significa que las coherencias
cuánticas se disipan en los muchos grados de libertad del medio
ambiente, de tal forma que estas coherencias decaen.
III.
Probando fundamentos con luz
Consideremos por ejemplo un
experimento como en la figura de abajo. En esta, una fuente de luz emite
un fotón dirigido hacia un divisor de haz al 50 %, es decir, que
permite el paso de la mitad de la luz que le llega, y refleja la otra
mitad. El divisor de haz divide entonces la luz enviando una componente
vertical hacia un detector A y la otra mitad es transmitida
horizontalmente hacia un detector B. Un fotón, por ser una
partícula cuántica no puede ser dividido, de tal forma que es detectado
con igual probabilidad en cualquiera de los detectores A o B. La
intuición nos diría que el fotón sale del divisor de haz al azar en
dirección vertical u horizontal. Sin embrago la mecánica cuántica
predice otra cosa: que el fotón viaja por los dos caminos en forma
simultánea, "colapsándose" a uno solo de los caminos cuando
el fotón es medido

Este efecto, conocido como
interferencia de una sola partícula, es mejor ilustrado in el
experimento de la figura de abajo. En este experimento, el fotón se
encuentra primero con el divisor de haz, después con un espejo
totalmente reflejante y finalmente con otro divisor de haz antes
de llegar a un detector. Una vez que un fotón es reflejado por alguno
de los espejos, el arreglo es idéntico al de la figura anterior, tal
que uno podría pensar hipotéticamente que el fotón llegara a cualquiera
de los dos detectores con igual probabilidad. Sin
embrago, el experimento muestra que tal arreglo causa que
el detector A siempre registre el fotón y que el detector B nunca
detecte nada. Nuestra intuición y la realidad son drásticamente
diferentes. La única explicación concebible es que el fotón viajó de
alguna manera por los dos caminos simultáneamente creando una
interferencia en el punto de intersección que destruye la posibilidad
de que el fotón alcance el detector B. Esto es conocido como
interferencia cuántica y resulta de la superposición de los posibles
estados (funciones de onda) del fotón, o de los caminos potenciales.

IV. Teleportación, computación y
criptografía cuánticas
a.
Teleportación
El sueño
de la teleportación es el ser capaz de viajar simplemente
desapareciendo aquí y reapareciendo en un lugar distante, de tal forma
como si uno pudiera “escanear” un objeto y enviar la información del
mismo para que pueda ser reconstruido en el destino final. Sin embargo,
una de los principios fundamentales de la mecánica cuántica, esto es,
el principio de incertidumbre prohíbe la medida de un objeto con precisión
arbitraria. La opción es entonces el envío de información de estados
cuánticos (los estados de polarización de fotones, por ejemplo)
solo cuando no se tiene información del estado que se esta
teleportando. Esto es posible debido a otra de las características
fundamentales de la mecánica cuántica, como lo es el enredamiento o
enmarañamiento. Avances en teleportación ciertamente no nos llevarán a
fenómenos como los presentados en “Viaje a las Estrellas”, pero serán
muy valiosos en tecnologías tales como criptografía cuántica o muy
poderosas computadoras cuánticas. En la figura de abajo, tenemos en (a)
el objeto que se desea teleportar. En (b) la cantidad de materia
necesaria para reconstruir el objeto (a), y por lo tanto, exactamente
el número de átomos que componen el objeto a teleportar. Al producirse
la teleportación, el objeto (a) es destruido (si no fuera así, se
estaría hablando de una copia perfecta, o clonación), dando como
resultado (c) y la reconstrucción de (b) da finalmente el objeto teleportado
(d). Sin embargo, un principio cuántico como la decoherencia o
simplemente ruido cuántico, deberá ser reducido al mínimo para obtener
resultados óptimos. En (d) pueden verse los efectos que se
tendrían debido a imprecisiones en la teleportación. Debe ser
enfatizado el hecho de que lo que se teleporta no es el objeto (la
materia) sino la información del mismo.

b. Computación cuántica
Puede parecer una sorpresa el hecho de que el procesamiento de
información tiene que ver algo con la física. Sin embargo los primeros
trabajos en teoría de información mostraron que, a un nivel fundamental
el concepto de información esta directamente ligado a conceptos como
entropía y energía.
La
perspectiva de ser capaces de explotar las nuevas características de la
física cuántica para realizar "procesamiento de información
cuántico" a llevado a los científicos a considerar las partículas
que obedecen las leyes de la mecánica cuántica. En el mayor de los
casos esto significa usar sistemas muy pequeños tales como átomos
individuales.
Las nuevas
características de la mecánica cuántica que han mostrados tener
una diferencia fundamental para el proceso de manipulación de
información son las habilidades de crear superposición de estados de un
sistema cuántico y "enmarañar" o "enredar" tales
estados con estados de otros sistemas cuánticos. La carrera se
convierte entonces en examinar estas nuevas riquezas y encontrar formas
de explotar sus características intrínsecas para poder realizar
funciones que aún la más sofisticada computadora que conocemos no
pueda realizar en un período de tiempo razonable.
De esta
forma, podemos imaginar computadoras cuya memoria sea exponencialmente
más grande que su tamaño físico. Una computadora que sea capaz de
manejar un conjunto de datos exponencialmente grande y en forma
simultánea y dar resultados en períodos de tiempo relativamente cortos.
Estaríamos entonces pensando en una "computadora cuántica".
De hecho son relativamente pocos los conceptos que son necesarios de la
mecánica cuántica y que serían necesarios para hacer una computadora
cuántica. Lo sutil es de hecho el aprender a manipular tales conceptos.
En una
computadora cuántica, la unidad fundamental de información es el bit
cuántico o qubit.
Las
propiedades del qubit surgen como una consecuencia directa de las leyes
de la mecánica cuántica, las cuáles son radicalmente diferentes a las
de la mecánica clásica. Un qubit puede existir no solo en las formas
correspondientes a los estado lógicos "0" o
"1", sino también como una superposición de tales estados
clásicos. En otras palabras, el qubit puede existir como un cero o un
uno, o simultáneamente como cero y uno, con un coeficiente numérico
representando la probabilidad de cada estado.
Una
computadora cuántica podría resolver problemas que una computadora
convencional nunca podría manejar, tales como la factorización de
números muy grandes o la simulación de sistemas muy complicados. Tal
hecho sería posible porque tales computadoras estarían basadas en
qubits para almacenar y procesar datos. Diferente a los bits
convencionales (los unos y los ceros de la aritmética binaria que usan
las computadoras actuales), los qubits pueden estar en ambos estados a
la vez y debido a que cada qubit puede simultáneamente procesar un uno
y un cero a la vez, una computadora cuántica podría realizar muchísimos
cálculos en paralelo por vez. Consideremos la siguiente cadena de
números
0 1 1 0 0 0
es una
serie de ceros y unos, cada uno de ellos conteniendo un bit o una
cantidad de información. Si consideramos su análogo cuántico, y de esta
forma una serie de 8 qubits, tendríamos
(a1|0>
+ b1|1>)´
(a2|0> + b2|1>)´(a3|0> + b3|1>)´
(a4|0>
+ b4|1>)´
(a5|0> + b5|1>)´ (a6|0> + b6|1>
de tal forma que tendríamos 26
cantidades de información que podríamos manejar en forma simultánea.
La
manufactura de sistemas que puedan almacenar qubits es entonces la
parte más importante de la realización de una computadora cuántica. De
hecho también resulta el más difícil. Los mejores esfuerzos hasta la
fecha han producido sistemas de 7 u 8 qubits, lo cual, siendo un logro
importante, esta todavía lejos de el número de qubits requerido para
resolver problemas de interés.
c. Criptografía cuántica
La
criptografía, o el arte de codificar mensajes, tiene una larga historia
en áreas como las diplomáticas o militares, y es de interés
fundamental en negocios que involucran envío de información por medios
electrónicos (tarjetas de crédito, números confidenciales, etc.).
Durante la
segunda guerra mundial, por poner un ejemplo, el matemático Alan Turing
pudo decodificar el legendario código alemán Enigma, lo que finalmente
ayudo en forma definitiva a la victoria de los aliados (la máquina
diseñada por Turing puede todavía verse en exhibición en el Museo de
Ciencias de Londres).
La
mecánica cuántica es una nueva herramienta poderosa tanto para
decodificar mensajes como para la creación de códigos seguros. Ha
revolucionado la criptografía generando la ahora conocida criptografía
cuántica la cuál tiene como idea principal que dos usuarios de un canal
de comunicación común creen un sistema de información compartida y
secreta. Esta información que en general tiene la forma de una cadena
azarosa de bits (los ceros y unos de la cadena, son en general fotones
polarizados horizontal o verticalmente y enviados a través de una fibra
óptica entre los usuarios), puede ser usada como una clave secreta
convencional para comunicación segura.

d. Otras aplicaciones
Otras
aplicaciones de óptica cuántica y en particular de la interacción de
haces láser con iones atrapados es mejorar la medición del tiempo (y
por lo tanto los patrones de medida de frecuencias). Por ejemplo, el
último reloj de alta precisión usa un ión atrapado para medir tiempos
con precisión de 10-18.
La
litografía óptica es usada en la manufactura de micro-chips, sin
embargo, el tamaño de los patrones que se pueden formar esta limitado
por la longitud de onda de la luz que se usa. Es posible vencer este
límite usando las características cuánticas de la luz y en principio,
continuar el proceso de miniaturización hasta la escala atómica.
CONCLUSIÓN
Estamos en estos momentos
en los albores de una segunda revolución cuántica. La primera
revolución cuántica que empezó en los inicios del siglo XX nos dio las
reglas que gobiernan la realidad física, y así pudimos explicar
problemas hasta aquellos momentos inexplicables tales como la radiación
de cuerpo negro, el efecto fotoeléctrico y el efecto Compton. De la
teoría cuántica se desprendieron conceptos nuevos, como la dualidad
onda-partícula y como la idea de que a una partícula en movimiento
se le podía asociar una longitud de onda y que a ondas de luz se le
podían asociar comportamiento de partículas.
La segunda
revolución cuántica nos permitirá usar esas reglas para desarrollar
nuevas tecnologías permitiéndonos alterar la forma de nuestro mundo
cuántico transformándolo en estados cuánticos altamente artificiales de
nuestro propio diseño y para nuestra conveniencia.
Lecturas recomendadas:
1.
Decoherence and the transition from quantum to classical, W.H.
Zurek, Phys. Today 44, 36-44 (1991).
2.
Quantum Technology, G.J. Milburn, (Allen & Unwin, Australia,
1996).
3.
Time measurement at the millennium, J.C. Bergquist, S.R.
Jefferts, and D.J. Wineland, Phys. Today 54, No. 3, 37-42 (2001)
4. Quantum Lithography, P. Kok, S.L. Braunstein y J.P.
Dowling, Optics and Photonics News, septiembre 2002.
Sitios de internet para visitar:
http://qso.lanl.gov/qc/
|