Fundamentos y aplicaciones de la óptica    cuántica

 

Héctor Manuel Moya Cessa

Resumen

 

Optica cuántica puede significar muchas cosas distintas para diferentes personas, sin embargo, tiene como base de todos sus posibles significados el reconocimiento de que la luz no es una onda clásica, sino más bien una entidad con las características cuánticas de onda y de partícula. Debido a esto y a el hecho de que los diversos estudios en la misma son relativamente simples de llevar al experimento, es de particular importancia para el estudio de los fundamentos de la mecánica cuántica y, haciendo uso de principios cuánticos, la óptica cuántica resulta una veta muy rica para la investigación y el desarrollo de nuevas tecnologías. Tales fundamentos y posibilidades tecnológicas serán estudiadas en el presente artículo. En particular, nos enfocaremos a procesos de manipulación de interacción entre radiación y materia usados en teoría de información y computación cuántica.

 

I. El porqué de la mecánica cuántica

Los antiguos griegos propusieron que la materia no podía ser dividida indefinidamente, de tal forma que supusieron que ésta debía estar compuesta por unidades indivisibles a las que llamaron átomos (de palabras griegas que literalmente significan: sin división).  Los griegos supusieron que las diversas formas que los átomos tenían -los cuales eran sólidos-  determinaban las características de las diferentes sustancias.

Después vino la idea de los elementos, la cual suponía que diferentes elementos estaban constituidos por diferentes clases de átomos. John Dalton (1766-1844)  mostró que cada elemento estaba formado de átomos que diferían en masa de los átomos de otros elementos. Por ejemplo, el carbón tiene una masa relativa de 12, el oxigeno de 16, siendo la unidad  el átomo de hidrógeno, el cual es el más ligero de todos los átomos.

Los químicos habían estudiado el comportamiento de los gases y habían notado que si doblaban el volumen del gas, la presión disminuía a la mitad y si dividían a la mitad el volumen, su temperatura se duplicaba. Durante mediados del siglo XIX, James Clerk Maxwell (1831-1879) explicó la ley de los gases aplicando estadística al movimiento azaroso de los átomos. Mostró que cuando se calienta un gas sus moléculas incrementan sus velocidades, lo que hace que  reboten contra las paredes de contenedores con más fuerza y de esta forma incrementando la presión. Para mantener la misma presión el volumen debe de incrementarse. Para estas fechas, los átomos eran dados por hecho y tratados como simples esferas. En este punto, tal concepto de los átomos -como simples esferas-  se vino abajo  por  descubrimientos hechos hacia el final de el siglo XIX.  Primeramente, hubo experimentos en electricidad y magnetismo que indicaban la existencia de partículas con masa menor a la de el átomo de hidrógeno tales como los electrones. En segundo lugar, los átomos se encontraron mucho más complejos que lo que se había pensado previamente cuando se descubrió la radioactividad: los átomos podían desprenderse de pedazos y convertirse en nuevos átomos.

Hasta aquí, la descripción del átomo era clásica o newtoniana. Desafortunadamente esta descripción violaba las leyes de Maxwell del electromagnetismo. Estas eran herramientas muy poderosas que sin embargo no pudieron explicar como un  átomo podía permanecer estable. Bajo las leyes de Maxwell, un objeto cargado eléctricamente tal como un electrón el cual cambia su dirección (en su órbita alrededor del núcleo) debería radiar energía tal que su trayectoria colapsaría en forma espiral hacia el núcleo, su radio disminuyendo continuamente por el proceso de pérdida de energía. Claramente esto no pasaba y los átomos eran –son- entidades estables.

Claro que los átomos absorbían y emitían energía. El problema estaba en el hecho de que esto ocurría en  procesos estrictamente controlados. Los átomos solo absorbían o emitían en cantidades de energía con longitudes de onda específicas. Por ejemplo, el sodio emitía en el amarillo, el potasio en el lila, etc. Además la física tenía otros problemas no resueltos como la forma en que un objeto a cierta temperatura radiaba energía (el problema de la radiación de cuerpo negro) o la forma en que los metales producían corrientes eléctricas cuando se irradiaban con luz (el efecto foto-eléctrico). Definitivamente algo estaba mal en la física y se hizo necesaria una (primera) revolución en la misma.

En 1900 Max Planck (1858-1947) encontró que podía explicar la forma en que cuerpos calientes emiten energía con la sola suposición de que tal energía era emitida en paquetes llamados “cuantos.” En 1905 Albert Einstein (1879-1955) usó la idea “cuántica” de Planck  para explicar el efecto fotoeléctrico – que sirve para construir celdas solares o para máquinas fotocopiadoras. Estos “cuantos” estaban siendo usados para explicar fenómenos previamente no explicados por las teorías clásicas. Uno de los fenómenos más intrigantes era la luz (la materia prima de la óptica cuántica), la cual se conocía desde hacía mucho tiempo su naturaleza ondulatoria, pero que presentaba una dualidad, en el sentido de que algunas veces se comportaba como partícula. Entonces, si los cuantos eran reales ¿Era la luz onda o era partícula? ¿Cómo explicar el hecho de que en algunos experimentos como refracción o difracción se comportaba como onda y en otros, como la radiación de cuerpo negro o efecto fotoeléctrico se comportaba como partícula? En 1912 Louise de Broglie (1892-1987) sugirió que si la energía podía comportarse como ondas y partículas, tal vez la materia también podía comportarse de forma similar. Predijo que bajo ciertas condiciones un haz de electrones   podría tener propiedades de onda. Sorprendentemente cuando se realizó el experimento se observó que un haz de electrones difractaba de la misma forma que lo hace una onda. Pareció entonces como si la energía y la materia pudieran ambas exhibir dualidad onda-partícula, de tal suerte que a una partícula en movimiento se le pudiera asociar una longitud de onda. Se empezó entonces a aceptar que las partículas cuánticas están sujetas a leyes completamente diferentes de las que se aplican a objetos grandes, hechos estos de partículas cuánticas. Uno de los mayores obstáculos que los primeros exploradores de la Mecánica Cuántica tuvieron que vencer fueron sus propias creencias sobre el determinismo. Debido a que el mundo de lo pequeño es muy diferente, los científicos tuvieron prácticamente que "reformatear" el sistema de lógica que habían usado ya por siglos. Para comprender los "nuevos" fenómenos naturales tuvieron que dejar de lado la intuición y en su lugar considerar un nuevo sistema de pensamiento. Diferentes reglas debían ser aplicadas a partículas cuánticas y objetos grandes.

En 1925 Erwin Schrödinger (1887-1961) y Werner Heisenberg (1901-1976) trabajaron en las matemáticas de la mecánica cuántica. Usando esta nueva teoría, los científicos pudieron entender el comportamiento de los átomos. La dualidad onda-partícula se convirtió en una realidad para materia y energía.

Una de estas reglas fundamentales arriba mencionadas es el hecho de que todo esta hecho por pequeños "pedacitos". Así como los objetos materiales están hechos de partículas, también lo están las fuerzas que mantienen tales partículas juntas, formando el objeto. Los electrones, por ejemplo son partículas cuánticas llamadas "fermiones" y que cambian sus niveles de energía, entre otras fuerzas, con ayuda de fotones, los cuales son llamados "bosones". Junto con los protones y neutrones, conforman los átomos, los cuales a su vez moléculas y éstas a su vez objetos.

Todo lo que podemos ver, ya sea una estrella distante o el perrito con sus pulgas, están hechos de un número pequeño de fermiones y bosones.

II. Principios básicos de la mecánica cuántica

Los principios cuánticos tales como los que se detallan a continuación, serán la base de la futura tecnología cuántica:

·      Cuantización: las energías de un sistema de partículas están dadas en forma discreta.

·      Principio de incertidumbre: para cada estado cuántico existe siempre una medición, el resultado de la cual se tiene completa certeza, y simultáneamente al menos una medición para la cual el resultado es completamente azaroso. Este principio es la base del teorema de no-clonación: si se puede clonar un sistema, en uno de ellos puede ser medida una variable con completa certeza y en el otro otra variable también con absoluta certeza lo que es prohibido por este principio.

·      Superposición cuántica: si un evento puede realizarse en dos o más formas indistinguibles, el estado del sistema es una superposición  de esas formas simultáneamente. Cuando tal evento es por ejemplo un estado cuasi-clásico y es superpuesto con otro similar se obtienen los famosos estados gato de Schrödinger.

·      Tuneleo: la habilidad de una partícula de encontrarse en regiones del espacio que serían excluidas por la mecánica clásica. Por ejemplo, en mecánica clásica una pelota con cierta energía puede llegar hasta una altura máxima. En mecánica cuántica, sin embargo, estas alturas pueden ser sobrepasadas, digamos por un electrón, y pueden formarse corrientes eléctricas recogiendo tales electrones, generando así un microscopio de barrido.

·      El enmarañamiento o enredamiento que es el proceso mediante el cual dos sistemas mezclan de alguna forma sus respectivas funciones de onda, formando una función de onda total que, en general no puede separarse en un producto de sistemas autónomos. Esto permite que la más mínima perturbación en uno de los dos sistemas produzca cambios profundos en el segundo sistema.  A decir de Jeff Kimble, de Caltech, el hacer cosquillas a uno de los dos sistemas, produce que el segundo se ría.

·      Decoherencia: ésta puede ser por la interacción del sistema con un medio ambiente, o por razones intrínsecas de los sistemas. Debido a ésta es que nos preguntamos: ¿Por qué no observamos a nivel macroscópico las coherencias cuánticas que emergen como una consecuencia directa de la interferencia entre amplitudes cuánticas? Una posible respuesta (la interpretación de la mecánica cuántica de Copenhague) está basada en la suposición de que existe un aparato de medición clásico, el cual, durante el proceso de medida destruye las coherencias cuánticas. Aunque esta respuesta es bastante convincente, la suposición de un aparato clásicos, hace que la mecánica cuántica sea una teoría inconsistente. Otra forma de resolver el antagonismo "micro-macro", ha sido presentada por  Zurek. Esta forma alternativa está basada en el hecho de que todos los sistemas cuánticos se encuentran rodeados por sistemas grandes (los cuales tienen muchos grados de libertad) llamados medio ambiente. La interacción de un sistema cuántico con su medio ambiente significa que las coherencias cuánticas se disipan en los muchos grados de libertad del medio ambiente, de tal forma que estas coherencias decaen.

 

III. Probando fundamentos con luz

Consideremos por ejemplo un experimento como en la figura de abajo. En esta, una fuente de luz emite un fotón dirigido hacia un divisor de haz al 50 %, es decir, que permite el paso de la mitad de la luz que le llega, y refleja la otra mitad. El divisor de haz divide entonces la luz enviando una componente vertical hacia un detector A y la otra mitad es transmitida horizontalmente hacia  un detector B. Un fotón, por ser una partícula cuántica no puede ser dividido, de tal forma que es detectado con igual probabilidad en cualquiera de los detectores A o B. La intuición nos diría que el fotón sale del divisor de haz al azar en dirección vertical u horizontal. Sin embrago la mecánica cuántica predice otra cosa: que el fotón viaja por los dos caminos en forma simultánea, "colapsándose" a uno solo de los caminos cuando el fotón es medido

Este efecto, conocido como interferencia de una sola partícula, es mejor ilustrado in el experimento de la figura de abajo. En este experimento, el fotón se encuentra primero con el divisor de haz, después con un espejo totalmente reflejante y finalmente con otro divisor de haz  antes de llegar a un detector. Una vez que un fotón es reflejado por alguno de los espejos, el arreglo es idéntico al de la figura anterior, tal que uno podría pensar hipotéticamente que el fotón llegara a cualquiera de los dos  detectores  con  igual probabilidad. Sin embrago, el experimento muestra   que tal arreglo causa que el detector A siempre registre el fotón y que el detector B nunca detecte nada. Nuestra intuición y la realidad son drásticamente diferentes. La única explicación concebible es que el fotón viajó de alguna manera por los dos caminos simultáneamente creando una interferencia en el punto de intersección que destruye la posibilidad de que el fotón alcance el detector B. Esto es conocido como interferencia cuántica y resulta de la superposición de los posibles estados (funciones de onda) del fotón, o de los caminos potenciales.

 

IV. Teleportación, computación y criptografía cuánticas

a. Teleportación

El sueño de la teleportación es el ser capaz de viajar simplemente desapareciendo aquí y reapareciendo en un lugar distante, de tal forma como si uno pudiera “escanear” un objeto y enviar la información del mismo para que pueda ser reconstruido en el destino final. Sin embargo, una de los principios fundamentales de la mecánica cuántica, esto es, el principio de incertidumbre prohíbe la medida de un objeto con precisión arbitraria. La opción es entonces el envío de información de estados cuánticos (los estados de polarización de  fotones, por ejemplo) solo cuando no se tiene información del estado que se esta teleportando. Esto es posible debido a otra de las características fundamentales de la mecánica cuántica, como lo es el enredamiento o enmarañamiento. Avances en teleportación ciertamente no nos llevarán a fenómenos como los presentados en “Viaje a las Estrellas”, pero serán muy valiosos en tecnologías tales como criptografía cuántica o muy poderosas computadoras cuánticas. En la figura de abajo, tenemos en (a) el objeto que se desea teleportar. En (b) la cantidad de materia necesaria para reconstruir el objeto (a), y por lo tanto, exactamente el número de átomos que componen el objeto a teleportar. Al producirse la teleportación, el objeto (a) es destruido (si no fuera así, se estaría hablando de una copia perfecta, o clonación), dando como resultado (c) y la reconstrucción de (b) da finalmente el objeto teleportado (d). Sin embargo, un principio cuántico como la decoherencia o simplemente ruido cuántico, deberá ser reducido al mínimo para obtener resultados óptimos.  En (d) pueden verse los efectos que se tendrían debido a imprecisiones en la teleportación. Debe ser enfatizado el hecho de que lo que se teleporta no es el objeto (la materia) sino la información del mismo.

b. Computación cuántica

        Puede parecer una sorpresa el hecho de que el procesamiento de información tiene que ver algo con la física. Sin embargo los primeros trabajos en teoría de información mostraron que, a un nivel fundamental el concepto de información esta directamente ligado a conceptos como entropía y energía.

La perspectiva de ser capaces de explotar las nuevas características de la física cuántica para realizar "procesamiento de información cuántico" a llevado a los científicos a considerar las partículas que obedecen las leyes de la mecánica cuántica. En el mayor de los casos esto significa usar sistemas muy pequeños tales como átomos individuales.

Las nuevas características de la mecánica cuántica  que han mostrados tener una diferencia fundamental para el proceso de manipulación de información son las habilidades de crear superposición de estados de un sistema cuántico y "enmarañar" o "enredar" tales estados con estados de otros sistemas cuánticos. La carrera se convierte entonces en examinar estas nuevas riquezas y encontrar formas de explotar sus características intrínsecas para poder realizar funciones que aún la más sofisticada computadora que conocemos  no pueda realizar en  un período de tiempo razonable.

De esta forma, podemos imaginar computadoras cuya memoria sea exponencialmente más grande que su tamaño físico. Una computadora que sea capaz de manejar un conjunto de datos exponencialmente grande y en forma simultánea y dar resultados en períodos de tiempo relativamente cortos. Estaríamos entonces pensando en una "computadora cuántica". De hecho son relativamente pocos los conceptos que son necesarios de la mecánica cuántica y que serían necesarios para hacer una computadora cuántica. Lo sutil es de hecho el aprender a manipular tales conceptos.

En una computadora cuántica, la unidad fundamental de información es el bit cuántico o qubit.

Las propiedades del qubit surgen como una consecuencia directa de las leyes de la mecánica cuántica, las cuáles son radicalmente diferentes a las de la mecánica clásica. Un qubit puede existir no solo en las formas correspondientes a los estado lógicos "0"  o "1", sino también como una superposición de tales estados clásicos. En otras palabras, el qubit puede existir como un cero o un uno, o simultáneamente como cero y uno, con un coeficiente numérico representando la probabilidad de cada estado.

Una computadora cuántica podría resolver problemas que una computadora convencional nunca podría manejar, tales como la factorización de números muy grandes o la simulación de sistemas muy complicados. Tal hecho sería posible porque tales computadoras estarían basadas en qubits para almacenar y procesar datos. Diferente a los bits convencionales (los unos y los ceros de la aritmética binaria que usan las computadoras actuales), los qubits pueden estar en ambos estados a la vez y debido a que cada qubit puede simultáneamente procesar un uno y un cero a la vez, una computadora cuántica podría realizar muchísimos cálculos en paralelo por vez. Consideremos la siguiente cadena de números

0 1 1 0 0 0

es una serie de ceros y unos, cada uno de ellos conteniendo un bit o una cantidad de información. Si consideramos su análogo cuántico, y de esta forma una serie de 8 qubits, tendríamos

(a1|0> + b1|1>)´ (a2|0> + b2|1>)´(a3|0> + b3|1>)´

 (a4|0> + b4|1>)´ (a5|0> + b5|1>)´ (a6|0> + b6|1>

de tal forma que tendríamos 26 cantidades de información que podríamos manejar en forma simultánea.

La manufactura de sistemas que puedan almacenar qubits es entonces la parte más importante de la realización de una computadora cuántica. De hecho también resulta el más difícil. Los mejores esfuerzos hasta la fecha han producido sistemas de 7 u 8 qubits, lo cual, siendo un logro importante, esta todavía lejos de el número de qubits requerido para resolver problemas de interés.

 

c. Criptografía cuántica

La criptografía, o el arte de codificar mensajes, tiene una larga historia en áreas como las diplomáticas o  militares, y es de interés fundamental en negocios que involucran envío de información por medios electrónicos (tarjetas de crédito, números confidenciales, etc.).

Durante la segunda guerra mundial, por poner un ejemplo, el matemático Alan Turing pudo decodificar el legendario código alemán Enigma, lo que finalmente ayudo en forma definitiva a la victoria de los aliados (la máquina diseñada por Turing puede todavía verse en exhibición en el Museo de Ciencias de Londres). 

La mecánica cuántica es una nueva herramienta poderosa tanto para decodificar mensajes como para la creación de códigos seguros. Ha revolucionado la criptografía generando la ahora conocida criptografía cuántica la cuál tiene como idea principal que dos usuarios de un canal de comunicación común creen un sistema de información compartida y secreta. Esta información que en general tiene la forma de una cadena azarosa de bits (los ceros y unos de la cadena, son en general fotones polarizados horizontal o verticalmente y enviados a través de una fibra óptica entre los usuarios), puede ser usada como una clave secreta convencional para comunicación segura.

d. Otras aplicaciones

Otras aplicaciones de óptica cuántica y en particular de la interacción de haces láser con iones atrapados es mejorar la medición del tiempo (y por lo tanto los patrones de medida de frecuencias). Por ejemplo, el último reloj de alta precisión usa un ión atrapado para medir tiempos con precisión de 10-18.

La litografía óptica es usada en la manufactura de micro-chips, sin embargo, el tamaño de los patrones que se pueden formar esta limitado por la longitud de onda de la luz que se usa. Es posible vencer este límite usando las características cuánticas de la luz y en principio, continuar el proceso de  miniaturización hasta la escala atómica.

 

CONCLUSIÓN

Estamos en estos momentos en los albores de una segunda revolución cuántica. La primera revolución cuántica que empezó en los inicios del siglo XX nos dio las reglas que gobiernan la realidad física, y así pudimos explicar problemas hasta aquellos momentos inexplicables tales como la radiación de cuerpo negro, el efecto fotoeléctrico y el efecto Compton. De la teoría cuántica se desprendieron conceptos nuevos, como la dualidad onda-partícula y como la idea de  que a una partícula en movimiento se le podía asociar una longitud de onda y que a ondas de luz se le podían asociar comportamiento de partículas.

La segunda revolución cuántica nos permitirá usar esas reglas para desarrollar nuevas tecnologías permitiéndonos alterar la forma de nuestro mundo cuántico transformándolo en estados cuánticos altamente artificiales de nuestro propio diseño y para nuestra conveniencia.

 

Lecturas recomendadas:

1.   Decoherence and the transition from quantum to classical, W.H. Zurek,  Phys. Today 44, 36-44 (1991).

2.   Quantum Technology, G.J. Milburn, (Allen & Unwin, Australia, 1996).

3.   Time measurement at the millennium, J.C. Bergquist, S.R. Jefferts, and D.J. Wineland, Phys. Today 54, No. 3, 37-42 (2001)

4.   Quantum Lithography, P. Kok, S.L. Braunstein y J.P. Dowling, Optics and Photonics News, septiembre 2002.

 

Sitios de internet para visitar:

http://qso.lanl.gov/qc/