Prezados amigos, leiam com muita atenção o importantíssimo texto abaixo achado pelo Marconi Gomes na revista Gazeta de Física, VOL. 31- NÚMERO 4, DE 2008. As consequências metafísicas e filosóficas das idéias, descobertas e conteúdos apresentados no texto pelo eminente professor Anton Zeilinger, que há décadas é um dos maiores físicos quânticos experimentais do mundo, e pelo Markus Aspelmeyer, que também é importante na física quântica experimental, são profundas e revolucionárias. Elas são evidências de que a realidade física, objetiva, do nosso universo, NÃO É PRÉ-EXISTENTE E NÃO EXISTE INDEPENDENTEMENTE DA OBSERVAÇÃO. Estas idéias e descobertas já vêm desde o começo da Mecânica Quântica, sendo confirmadas cada vez mais no tempo tanto teoricamente, quanto experimentalmente.
André Luiz e Emmanuel, em muitas passagens de suas obras, nos mostram que o pensamento cria ou modifica a realidade. Para isto acontecer é interessante que a realidade não seja pré-existente, e que não exista independentemente do observador.
É o que a Mecânica Quântica tem nos revelado, que é assim que funciona o universo e a natureza, a realidade não sendo pré-existente e sendo criada pela observação.
Dauro Mendes
Renascimento quântico
Hoje em dia, os físicos já conseguem explorar de forma rotineira as pouco intuitivas propriedades da mecânica quântica na transmissão, encriptação e até mesmo no processamento da informação. Porém, como Markus Aspelmeyer e Anton Zeilinger fazem notar, os avanços tecnológicos da ciência da informação quântica estão também a permitir aos investigadores abordarem de novo as questões fundamentais suscitadas pela teoria quântica.
A mecânica quântica questiona noções intuitivas sobre a realidade como, por exemplo, saber se uma propriedade de uma partícula existe antes de uma medição ser efectuada sobre ela.
O entrelaçamento é um dos aspectos mais desconcertantes da teoria quântica, porque implica que os resultados das medições efectuadas sobre duas partículas estão intimamente ligados um ao outro, instantaneamente, independentemente da distância a que as partículas se encontrem.
Desde a década de 1970, as experiências têm demonstrado repetidamente que a teoria quântica está correcta, mas os investigadores continuam a conceber medições que lhes permitam descobrir aquilo que a mecânica quântica nos diz efectivamente acerca da realidade física.
Estes testes deram origem a um novo domínio chamado ciência da informação quântica, no qual o entrelaçamento e outros fenómenos quânticos são utilizados para codificar, transmitir e processar informações de maneiras radicalmente novas.
O crescente nível de controlo sobre sistemas quânticos individuais que tem impulsionado a ciência da informação quântica está agora também a permitir aos físicos enfrentarem mais uma vez os enigmas fundamentais suscitados pela teoria quântica.
|
A curiosidade pura esteve na origem de muitas experiências inovadoras em física. E a mecânica quântica, inicialmente a física do extremamente pequeno, é o melhor exemplo disso mesmo. Desde os seus primórdios, nas décadas de 1920 e 1930, o objectivo dos investigadores tem sido o de observar as pouco intuitivas propriedades da mecânica quântica directamente no laboratório. No entanto, como a tecnologia experimental não estava suficientemente desenvolvida naquela época, cientistas como Niels Bohr, Albert Einstein, Werner Heisenberg e Erwin Schrödinger preferiam recorrer a gedankenexperiments (experiências de pensamento) para investigarem a física quântica de partículas isoladas, sobretudo electrões e fotões.
Na década de 1970, porém, a tecnologia já tinha evoluído o suficiente para provocar uma "Corrida ao Ouro" de experiências fundamentais, que se prolongou até à década de 1990. Estas experiências confirmaram a teoria quântica com um êxito assinalável e puseram em causa muitos dos pressupostos do senso comum sobre o mundo físico. Entre estes pressupostos contam-se o "realismo" (que, grosso modo, afirma que os resultados das medições revelam características do mundo que existem independentemente da medição), a "localidade" (o resultado das medições efectuadas aqui e agora não depende de alguma acção que possa ser realizada a uma grande distância, exactamente ao mesmo tempo) e a "não contextualidade" (os resultados das medições são independentes do contexto dos instrumentos de medição).
Todavia, uma grande surpresa aguardava todos os que trabalhavam neste campo. As experiências quânticas fundamentais deram origem a um campo completamente novo, no qual os investigadores aplicam fenómenos como a sobreposição, o entrelaçamento e a aleatoriedade para codificarem, transmitirem e processarem informação em sistemas radicalmente novos. A "ciência quântica da informação" é hoje um domínio interdisciplinar florescente que colocou ao nosso alcance aplicações com designações futuristas, como computadores quânticos, criptografia quântica e teleportação quântica. Além disso, os avanços tecnológicos que lhe estão subjacentes deram aos investigadores um controlo sem precedentes sobre os sistemas quânticos individuais, que está agora na origem de um renascimento da nossa curiosidade em relação ao mundo quântico, permitindo aos físicos abordarem novos aspectos fundamentais da mecânica quântica, o que, por sua vez, pode abrir novos caminhos na ciência da informação quântica.
Contra a intuição
Na década de 1970, porém, a tecnologia já tinha evoluído o suficiente para provocar uma "Corrida ao Ouro" de experiências fundamentais, que se prolongou até à década de 1990. Estas experiências confirmaram a teoria quântica com um êxito assinalável e puseram em causa muitos dos pressupostos do senso comum sobre o mundo físico. Entre estes pressupostos contam-se o "realismo" (que, grosso modo, afirma que os resultados das medições revelam características do mundo que existem independentemente da medição), a "localidade" (o resultado das medições efectuadas aqui e agora não depende de alguma acção que possa ser realizada a uma grande distância, exactamente ao mesmo tempo) e a "não contextualidade" (os resultados das medições são independentes do contexto dos instrumentos de medição).
Todavia, uma grande surpresa aguardava todos os que trabalhavam neste campo. As experiências quânticas fundamentais deram origem a um campo completamente novo, no qual os investigadores aplicam fenómenos como a sobreposição, o entrelaçamento e a aleatoriedade para codificarem, transmitirem e processarem informação em sistemas radicalmente novos. A "ciência quântica da informação" é hoje um domínio interdisciplinar florescente que colocou ao nosso alcance aplicações com designações futuristas, como computadores quânticos, criptografia quântica e teleportação quântica. Além disso, os avanços tecnológicos que lhe estão subjacentes deram aos investigadores um controlo sem precedentes sobre os sistemas quânticos individuais, que está agora na origem de um renascimento da nossa curiosidade em relação ao mundo quântico, permitindo aos físicos abordarem novos aspectos fundamentais da mecânica quântica, o que, por sua vez, pode abrir novos caminhos na ciência da informação quântica.
Contra a intuição
Tanto as experiências quânticas fundamentais como a ciência da informação quântica devem muito à introdução do laser na década de 1960, que proporcionou novas formas muito eficazes de preparar sistemas quânticos individuais para testar as previsões da teoria quântica. Com efeito, o desenvolvimento inicial de experiências fundamentais de física quântica ocorreu em simultâneo com algumas das primeiras investigações experimentais sobre óptica quântica.
Um dos grandes saltos experimentais dados nessa época foi a capacidade de produzir pares de fotões "entrelaçados". Em 1935, Schrödinger inventou o termo "entrelaçamento" para designar pares de partículas que são descritos através apenas das suas propriedades comuns e não das propriedades individuais de cada partícula - o que vai contra a nossa experiência do mundo macroscópico. Pouco tempo antes, Einstein, Boris Podolsky e Nathan Rosen (colectivamente conhecidos por EPR) tinham utilizado uma gedankenexperiment para argumentar que, se existe entrelaçamento, a descrição da mecânica quântica para a realidade física tem de estar incompleta. Einstein não gostava da ideia de que o estado quântico de uma partícula entrelaçada poderia mudar instantaneamente quando era efectuada uma medição na outra partícula. Dizia que a acção à distância era "fantasmagórica" e esperava que surgisse uma teoria física mais completa do muito pequeno que não apresentasse estas estranhas características (ver "The power of entanglement" [O poder do entrelaçamento], de Harald Weinfurter, Physics World, Janeiro 2005, pp. 47-51).
Esta questão esteve no centro de uma famosa polémica entre Einstein e Bohr sobre se a física descreve a natureza "como ela é realmente", como Einstein considerava, ou se descreve "aquilo que podemos dizer sobre a natureza", como Bohr acreditava. Até à década de 1960, estas questões tiveram apenas uma natureza filosófica. Porém, em 1964, John Bell, um físico da Irlanda do Norte, percebeu que as experiências com partículas entrelaçadas poderiam constituir um teste para saber se existe uma descrição mais completa do mundo para além da teoria quântica. O trio EPR acreditava que essa teoria existe.
Bell baseou o seu argumento em duas suposições feitas pelo grupo EPR que são directamente contrariadas pelas propriedades das partículas entrelaçadas. A primeira é a localidade, que afirma que os resultados das medições efectuadas numa partícula têm de ser independentes do que quer que seja efectuado ao mesmo tempo à sua parceira entrelaçada, localizada a uma distância arbitrária. O segundo é o realismo, que afirma que o resultado de uma medição numa das partículas reflecte as propriedades que a partícula possuía antes e independentemente da medição. Bell mostrou que uma combinação específica de medições efectuadas em pares de partículas identicamente preparadas produziria um limite numérico (hoje designado por desigualdade de Bell) que é satisfeito por todas as teorias físicas que obedecem a estes dois pressupostos. No entanto, ele revelou igualmente que este limite é violado pelas previsões da física quântica para pares de partículas entrelaçadas (Physics, 1, 195).
Consideremos, por exemplo, a polarização de fotões. Um fotão individual pode ser polarizado segundo uma direcção específica, por exemplo, a horizontal, e podemos medir essa polarização fazendo passar o fotão através de um polarizador, orientado horizontalmente. Um clique do detector de fotões colocado atrás dele indica uma medição bem-sucedida e revela que o fotão está polarizado horizontalmente; a ausência de clique significa que o fotão está polarizado segundo a vertical. No entanto, no caso de um par de fotões entrelaçados, os fotões individuais revelam não possuir qualquer polarização específica, antes de serem medidos! Medir a polarização horizontal de um dos fotões dará sempre um resultado aleatório, o que torna igualmente provável encontrar um fotão individual polarizado horizontalmente ou verticalmente. Todavia, se efectuarmos a mesma medição no outro fotão do par entrelaçado (pressupondo um determinado tipo de estado de entrelaçamento), veremos que ambos os fotões são polarizados segundo a mesma direcção. O mesmo acontece para todas as direcções de medição e independentemente da separação espacial das partículas.
A desigualdade de Bell abria a possibilidade de testar pressupostos específicos subjacentes às teorias físicas - um esforço legitimamente referido por Abner Shimony, da Universidade de Boston, como "metafísica experimental". Neste tipo de experiências de Bell, dois observadores distantes medem a polarização das partículas entrelaçadas segundo direcções diferentes e calculam as correlações entre elas. Uma vez que as correlações quânticas entre medições de polarização independentes para partículas entrelaçadas podem ser muito mais fortes do que é permitido por qualquer teoria local realista, a desigualdade de Bell será violada.
Um dos grandes saltos experimentais dados nessa época foi a capacidade de produzir pares de fotões "entrelaçados". Em 1935, Schrödinger inventou o termo "entrelaçamento" para designar pares de partículas que são descritos através apenas das suas propriedades comuns e não das propriedades individuais de cada partícula - o que vai contra a nossa experiência do mundo macroscópico. Pouco tempo antes, Einstein, Boris Podolsky e Nathan Rosen (colectivamente conhecidos por EPR) tinham utilizado uma gedankenexperiment para argumentar que, se existe entrelaçamento, a descrição da mecânica quântica para a realidade física tem de estar incompleta. Einstein não gostava da ideia de que o estado quântico de uma partícula entrelaçada poderia mudar instantaneamente quando era efectuada uma medição na outra partícula. Dizia que a acção à distância era "fantasmagórica" e esperava que surgisse uma teoria física mais completa do muito pequeno que não apresentasse estas estranhas características (ver "The power of entanglement" [O poder do entrelaçamento], de Harald Weinfurter, Physics World, Janeiro 2005, pp. 47-51).
Esta questão esteve no centro de uma famosa polémica entre Einstein e Bohr sobre se a física descreve a natureza "como ela é realmente", como Einstein considerava, ou se descreve "aquilo que podemos dizer sobre a natureza", como Bohr acreditava. Até à década de 1960, estas questões tiveram apenas uma natureza filosófica. Porém, em 1964, John Bell, um físico da Irlanda do Norte, percebeu que as experiências com partículas entrelaçadas poderiam constituir um teste para saber se existe uma descrição mais completa do mundo para além da teoria quântica. O trio EPR acreditava que essa teoria existe.
Bell baseou o seu argumento em duas suposições feitas pelo grupo EPR que são directamente contrariadas pelas propriedades das partículas entrelaçadas. A primeira é a localidade, que afirma que os resultados das medições efectuadas numa partícula têm de ser independentes do que quer que seja efectuado ao mesmo tempo à sua parceira entrelaçada, localizada a uma distância arbitrária. O segundo é o realismo, que afirma que o resultado de uma medição numa das partículas reflecte as propriedades que a partícula possuía antes e independentemente da medição. Bell mostrou que uma combinação específica de medições efectuadas em pares de partículas identicamente preparadas produziria um limite numérico (hoje designado por desigualdade de Bell) que é satisfeito por todas as teorias físicas que obedecem a estes dois pressupostos. No entanto, ele revelou igualmente que este limite é violado pelas previsões da física quântica para pares de partículas entrelaçadas (Physics, 1, 195).
Consideremos, por exemplo, a polarização de fotões. Um fotão individual pode ser polarizado segundo uma direcção específica, por exemplo, a horizontal, e podemos medir essa polarização fazendo passar o fotão através de um polarizador, orientado horizontalmente. Um clique do detector de fotões colocado atrás dele indica uma medição bem-sucedida e revela que o fotão está polarizado horizontalmente; a ausência de clique significa que o fotão está polarizado segundo a vertical. No entanto, no caso de um par de fotões entrelaçados, os fotões individuais revelam não possuir qualquer polarização específica, antes de serem medidos! Medir a polarização horizontal de um dos fotões dará sempre um resultado aleatório, o que torna igualmente provável encontrar um fotão individual polarizado horizontalmente ou verticalmente. Todavia, se efectuarmos a mesma medição no outro fotão do par entrelaçado (pressupondo um determinado tipo de estado de entrelaçamento), veremos que ambos os fotões são polarizados segundo a mesma direcção. O mesmo acontece para todas as direcções de medição e independentemente da separação espacial das partículas.
A desigualdade de Bell abria a possibilidade de testar pressupostos específicos subjacentes às teorias físicas - um esforço legitimamente referido por Abner Shimony, da Universidade de Boston, como "metafísica experimental". Neste tipo de experiências de Bell, dois observadores distantes medem a polarização das partículas entrelaçadas segundo direcções diferentes e calculam as correlações entre elas. Uma vez que as correlações quânticas entre medições de polarização independentes para partículas entrelaçadas podem ser muito mais fortes do que é permitido por qualquer teoria local realista, a desigualdade de Bell será violada.
Lacunas Quânticas
O primeiro destes testes foi realizado em 1972 por Stuart Freedman e John Clauser, da Universidade da Califórnia em Berkeley, utilizando fotões entrelaçados. A desigualdade de Bell foi violada e as previsões da teoria quântica foram confirmadas (Phys. Rev. Lett., 28, 938). Porém, logo de início, surgiram algumas lacunas que implicavam que os investigadores não podiam excluir todos os modelos "locais realistas" possíveis como explicação para as correlações observadas. Por exemplo, podia acontecer que as partículas detectadas não fossem uma amostra adequada de todas as partículas emitidas pela fonte (a chamada lacuna da detecção) ou que os vários elementos da experiência ainda pudessem estar relacionados causalmente (a lacuna da localidade). Para colmatar estas lacunas, era preciso garantir condições experimentais mais rigorosas.
Em 1982, Alain Aspect e colegas da Université Paris-Sud, em Orsay, França, levaram a cabo uma série de experiências pioneiras que estavam muito próximas da proposta original da Bell. A equipa criou um sistema de detecção de dois canais para evitar fazer suposições sobre os fotões que não passavam através do polarizador (Phys. Rev. Lett., 49, 91) e também alterou periodicamente - e, portanto, deterministicamente - a orientação dos polarizadores, depois de os fotões serem emitidos da fonte (Phys. Rev. Lett., 49, 1804). Mesmo nestas condições mais rigorosas, a desigualdade de Bell foi violada em ambos os casos, reduzindo assim significativamente as hipóteses das explicações locais realistas para o entrelaçamento quântico.
Em 1998, um dos autores (AZ) e colegas, na altura na Universidade de Innsbruck, colmataram a lacuna da localidade, utilizando dois geradores quânticos de números aleatórios totalmente independentes para definir as direcções das medições dos fotões. Isto significava que a direcção segundo a qual a polarização de cada fotão era medida era decidida no último instante, de tal modo que nenhum sinal (que tem necessariamente de viajar a uma velocidade inferior à velocidade da luz) seria capaz de transferir informações para o outro lado, antes de o fotão ser registado (Phys. Rev. Lett., 81, 5039). A desigualdade de Bell foi violada.
Posteriormente, em 2004, David Wineland e colaboradores no National Institute of Standards and Technology (NIST), no Colorado, EUA, decidiram colmatar a lacuna da detecção, utilizando detectores com eficiência perfeita, numa experiência com iões de berílio entrelaçados (Nature, 409, 791). Mais uma vez, a desigualdade de Bell foi violada. Na verdade, até agora todos os resultados sugerem que nenhuma teoria quântica local realista consegue explicar o entrelaçamento quântico.
Todavia, o teste final do Teorema de Bell ainda não foi feito: uma experiência única que preencha, de uma só vez, todas as lacunas. É muito pouco provável que essa experiência entre em desacordo com a previsão da mecânica quântica, uma vez que isso implicaria que a natureza recorre tanto à lacuna da detecção, da experiência de Innsbruck, como à lacuna da localidade, da experiência do NIST. No entanto, a natureza pode ser cruel e, se queremos encerrar de vez a polémica sobre o realismo local, essa será seguramente uma experiência a fazer.
Em 1987, Daniel Greenberger do New York City College, Michael Horne do Stonehill College e AZ (colectivamente, GHZ) perceberam que o entrelaçamento de três ou mais partículas constituiria um constrangimento ainda maior para o realismo local do que o entrelaçamento de duas partículas (Am. J. Phys., 58, 1131). Enquanto duas partículas entrelaçadas apenas estão em discordância com o realismo local nas suas propriedades estatísticas, o que constitui a essência do Teorema de Bell, três partículas entrelaçadas podem produzir um conflito imediato numa única medição, porque as medições em duas das partículas nos permitem prever com certeza a propriedade da terceira partícula.
As primeiras experiências com três fotões entrelaçados foram realizadas no final de 1999 por AZ e colaboradores e revelaram uma conformidade surpreendente com a teoria quântica (Nature, 403, 515). Até agora, todos os testes de ambas as desigualdades de Bell com três partículas entrelaçadas (conhecidas como experiências GHZ - ver Figura 1) confirmam as previsões da teoria quântica e, por consequência, estão em conflito com o pressuposto conjunto de localidade e realismo como hipótese de trabalho subjacente a qualquer teoria física que pretenda explicar as características das partículas entrelaçadas.
Em 1982, Alain Aspect e colegas da Université Paris-Sud, em Orsay, França, levaram a cabo uma série de experiências pioneiras que estavam muito próximas da proposta original da Bell. A equipa criou um sistema de detecção de dois canais para evitar fazer suposições sobre os fotões que não passavam através do polarizador (Phys. Rev. Lett., 49, 91) e também alterou periodicamente - e, portanto, deterministicamente - a orientação dos polarizadores, depois de os fotões serem emitidos da fonte (Phys. Rev. Lett., 49, 1804). Mesmo nestas condições mais rigorosas, a desigualdade de Bell foi violada em ambos os casos, reduzindo assim significativamente as hipóteses das explicações locais realistas para o entrelaçamento quântico.
Em 1998, um dos autores (AZ) e colegas, na altura na Universidade de Innsbruck, colmataram a lacuna da localidade, utilizando dois geradores quânticos de números aleatórios totalmente independentes para definir as direcções das medições dos fotões. Isto significava que a direcção segundo a qual a polarização de cada fotão era medida era decidida no último instante, de tal modo que nenhum sinal (que tem necessariamente de viajar a uma velocidade inferior à velocidade da luz) seria capaz de transferir informações para o outro lado, antes de o fotão ser registado (Phys. Rev. Lett., 81, 5039). A desigualdade de Bell foi violada.
Posteriormente, em 2004, David Wineland e colaboradores no National Institute of Standards and Technology (NIST), no Colorado, EUA, decidiram colmatar a lacuna da detecção, utilizando detectores com eficiência perfeita, numa experiência com iões de berílio entrelaçados (Nature, 409, 791). Mais uma vez, a desigualdade de Bell foi violada. Na verdade, até agora todos os resultados sugerem que nenhuma teoria quântica local realista consegue explicar o entrelaçamento quântico.
Todavia, o teste final do Teorema de Bell ainda não foi feito: uma experiência única que preencha, de uma só vez, todas as lacunas. É muito pouco provável que essa experiência entre em desacordo com a previsão da mecânica quântica, uma vez que isso implicaria que a natureza recorre tanto à lacuna da detecção, da experiência de Innsbruck, como à lacuna da localidade, da experiência do NIST. No entanto, a natureza pode ser cruel e, se queremos encerrar de vez a polémica sobre o realismo local, essa será seguramente uma experiência a fazer.
Em 1987, Daniel Greenberger do New York City College, Michael Horne do Stonehill College e AZ (colectivamente, GHZ) perceberam que o entrelaçamento de três ou mais partículas constituiria um constrangimento ainda maior para o realismo local do que o entrelaçamento de duas partículas (Am. J. Phys., 58, 1131). Enquanto duas partículas entrelaçadas apenas estão em discordância com o realismo local nas suas propriedades estatísticas, o que constitui a essência do Teorema de Bell, três partículas entrelaçadas podem produzir um conflito imediato numa única medição, porque as medições em duas das partículas nos permitem prever com certeza a propriedade da terceira partícula.
As primeiras experiências com três fotões entrelaçados foram realizadas no final de 1999 por AZ e colaboradores e revelaram uma conformidade surpreendente com a teoria quântica (Nature, 403, 515). Até agora, todos os testes de ambas as desigualdades de Bell com três partículas entrelaçadas (conhecidas como experiências GHZ - ver Figura 1) confirmam as previsões da teoria quântica e, por consequência, estão em conflito com o pressuposto conjunto de localidade e realismo como hipótese de trabalho subjacente a qualquer teoria física que pretenda explicar as características das partículas entrelaçadas.
Para testar o conceito de realismo físico, podem ser utilizadas experiências com pares ou trios de fotões entrelaçados. Na versão original das experiências de tipo Bell (em cima), ambos os fotões de um par entrelaçado têm a mesma polarização linear para polarizadores paralelos. Porém, para polarizadores com um pequeno ângulo entre eles, como é mostrado, o mesmo resultado é obtido para ambos os fotões com mais frequência do que seria permitido se a polarização fosse uma propriedade local real dos fotões.
Nas chamadas experiências de GHZ (no meio), se soubermos, por exemplo, as polarizações circulares de dois fotões de um trio de três fotões entrelaçados, a mecânica quântica permite prever com certeza a polarização linear do terceiro fotão (em cima), que neste caso é horizontal. Um defensor do realismo local prediria uma polarização linear ortogonal - neste caso, vertical.
Numa experiência de tipo Leggett (em baixo), demonstra-se que as correlações entre a polarização linear de um fotão e a polarização elíptica do outro violam uma visão realista do mundo, mesmo que seja permitida uma comunicação não local instantânea. Como é mostrado na figura, as polarizações circular e elíptica de fotões únicos podem ser medidas por meio de combinações adequadas de placas em quarto de onda e de polarizadores lineares.
|
Ciência Quântica da Informação
As muitas e belas experiências realizadas durante os primeiros tempos da óptica quântica suscitaram um interesse renovado pelos conceitos básicos da física quântica. Prova disso é, por exemplo, o número de citações do artigo do EPR, que defendia que o entrelaçamento torna incompleta a descrição que a mecânica quântica faz da realidade física. O artigo foi citado apenas cerca de 40 vezes entre a sua publicação em 1935 e 1965, logo após Bell ter desenvolvido as suas desigualdades. No entanto, hoje tem mais de 4 000 citações, com uma média de 200 por ano a partir de 2002. Parte da razão para este aumento é o facto de investigadores de diversas áreas terem começado a perceber as drásticas consequências da utilização do entrelaçamento e de outros conceitos quânticos para codificar, transmitir e processar informação.
A criptografia quântica, que permite o envio completamente seguro de informação entre dois sites, baseia-se no entrelaçamento. Pares de fotões entrelaçados por polarização são distribuídos entre Alice e Bob, que querem partilhar uma mensagem secreta (neste caso, uma imagem da famosa Vénus de Willendorf). A medição da polarização de um fotão entrelaçado individual dará um resultado totalmente aleatório. No entanto, se Alice e Bob efectuarem medições segundo a mesma direcção de polarização, os seus resultados serão sempre os mesmos dentro de cada par entrelaçado. Medindo muitos pares, Alice e Bob obtêm a mesma sequência aleatória, que podem depois utilizar como chave secreta. Alice combina a sua chave (em cima, à esquerda) com a fotografia do original (em baixo, à esquerda). A imagem codificada (em baixo, ao centro) está protegida contra potenciais escutas devido à aleatoriedade da chave. Bob, porém, pode facilmente descodificar a mensagem usando a sua chave (em baixo, à direita). É possível detectar um eventual ouvinte indesejado, porque qualquer interferência com os fotões do par entrelaçado destrói o entrelaçamento. Esta é uma consequência do princípio da incerteza e, assim sendo, a segurança da criptografia quântica está garantida. A experiência original que demonstrou este efeito foi realizada em 1998, por uma equipa da Universidade de Innsbruck, a uma distância de mais de 300 metros
|
Veja-se a criptografia quântica, que aplica a aleatoriedade, a sobreposição e, num sistema proposto por Artur Ekert da Universidade de Oxford, no Reino Unido, o entrelaçamento de duas partículas, para transmitir informações de tal forma que a segurança contra potenciais escutas é garantida pelas leis da física (ver Figura 2). Esta aplicação da ciência da informação quântica já saiu do ambiente de laboratório. Em 2004, por exemplo, AZ e colegas da Universidade de Viena transferiram dinheiro em segurança entre um banco austríaco e a Câmara Municipal de Viena, recorrendo a pares de fotões entrelaçados que foram gerados por um laser num processo óptico não linear e distribuídos através de fibras ópticas. Mais recentemente, duas colaborações internacionais conseguiram distribuir fotões entrelaçados a uma distância de 144 km entre Las Palmas e Tenerife, incluindo uma demonstração de criptografia quântica, e, no início deste ano, conseguiram até mostrar que essas ligações poderiam ser criadas no espaço, dirigindo impulsos laser atenuados ao nível do fotão único para um satélite, de onde foram devolvidos para uma estação receptora na Terra (Physics World, Maio, p. 4). Já estão no mercado produtos comerciais de criptografia quântica à base de impulsos laser atenuados (ver Physics World, Março de 2007, pp. 24-29) e o desafio é agora atingir débitos binários mais elevados e alcançar distâncias maiores.
Analogamente, o caminho que conduziu às experiências GHZ abriu o enorme campo do entrelaçamento de múltiplas partículas, que tem aplicações na metrologia quântica, entre outras coisas. Por exemplo, uma maior incerteza no número de fotões entrelaçados num interferómetro conduz a uma menor incerteza nas suas fases, resultando assim numa maior precisão na medição, em comparação com uma experiência semelhante utilizando o mesmo número de fotões não entrelaçados.
O entrelaçamento de múltiplas partículas é também essencial para a computação quântica. A computação quântica explora fenómenos quânticos fundamentais, de modo a permitir que os cálculos sejam realizados a velocidade nunca vistas - talvez até mesmo resolvendo problemas que são demasiado complexos para os computadores convencionais, como a factorização de grandes números primos ou a busca rápida em bases de dados. A ideia fundamental subjacente à computação quântica é a de codificar e processar informação em sistemas físicos, seguindo as regras da mecânica quântica. Uma grande parte da actual investigação é, por consequência, dedicada a encontrar bits quânticos ou "qubits" fiáveis, que poderão estar associados para constituir registos e portas lógicas análogas às existentes nos computadores convencionais, o que iria então permitir a execução de algoritmos quânticos integrais.
No entanto, em 2001, Robert Raussendorf e Hans Briegel, então na Universidade de Munique, na Alemanha, sugeriram um caminho alternativo para a computação quântica baseado num ?estado aglomerado? de múltiplas partículas altamente entrelaçadas (Phys. Rev. Lett., 86, 5188). Neste sistema, designado por computação quântica de sentido único, um cálculo é realizado através da medição das partículas individuais do estado aglomerado entrelaçado numa sequência específica que é definida pelo cálculo particular a ser executado. As partículas individuais que tenham sido medidas deixam de estar entrelaçadas com as outras partículas e, por consequência, deixam de estar disponíveis para cálculos posteriores. Porém, aquelas que permanecem dentro do estado aglomerado após cada medição acabam num determinado estado, consoante a medição realizada. Como o resultado da medição de qualquer partícula individual entrelaçada é completamente aleatório, diferentes estados são obtidos para as restantes partículas após cada medição. Todavia, só num caso específico é que o estado restante é o correcto. A ideia fundamental de Raussendorf e Briegel foi a de eliminar essa aleatoriedade, fazendo a sequência específica de medições depender dos resultados anteriores. Assim, todo o sistema representa um computador quântico determinista, no qual as partículas que restam no final de todas as medições transportam o resultado do cálculo.
Figura 3 - Computação quântica de sentido único
Os computadores quânticos, ao processarem a informação através dos estados de sistemas quânticos como os átomos e os fotões, prometem superar os computadores tradicionais em tarefas específicas. Uma tentativa de fazer uma versão prática de um dispositivo deste tipo é o chamado computador quântico de sentido único. Proposto em 2001, este computador baseia-se no entrelaçamento. Numa aplicação fotónica, um laser pulsado atravessa duas vezes um cristal beta não linear de borato de bário (BBO), para gerar dois pares de fotões entrelaçados, o que significa que os quatro modos espaciais contêm ao todo quatro fotões. A sobreposição coerente nos dois separadores de feixe polarizadores garante que os últimos quatro fotões detectados estão num "estado aglomerado", se as placas de meia onda e os polarizadores estiverem adequadamente posicionados. Desde 2005, experiências "prova de conceito" (acima) com este dispositivo de computador quântico básico permitiram a execução de computações do algoritmo de pesquisa de Grover, de um dilema do prisioneiro quântico e a demonstração da existência de subespaços livres de decoerência (como exigido numa computação quântica reconfigurável em caso de falha).
|
Em 2005, os autores e seus colegas demonstraram em Viena o princípio da computação quântica de sentido único (ver Figura 3) e até um algoritmo de busca simples, recorrendo a um estado entrelaçado de quatro fotões (Nature, 434, 169). Depois, em 2007, Jian Wei-Pan, da Universidade de Ciência e Tecnologia da China, em Hefei, e colaboradores puseram em prática um sistema semelhante envolvendo seis fotões. Uma das grandes vantagens de um computador fotónico de sentido único é a sua velocidade sem precedentes, com o período entre a medição de um fotão e o seguinte, ou seja, um ciclo computacional, não superior a 100 ns.
Perguntas Fundamentais
A tecnologia desenvolvida nos últimos 20 anos para tornar realidade o processamento e a comunicação de informação quântica deu aos investigadores um grande controlo sobre os sistemas quânticos individuais. Por exemplo, é agora claro que a computação quântica exclusivamente fotónica é possível, mas exige fontes de fotões únicos e entrelaçados eficientes e muito puras, assim como a capacidade de manipular os estados quânticos de fotões ou de outros sistemas quânticos com segurança numa questão de nanossegundos. Os instrumentos necessários a este e a outros projectos estão a ser constantemente melhorados, o que por sua vez abre novos caminhos para explorar as questões profundas suscitadas pela teoria quântica.
Esta questão envolve, mais uma vez, as noções de localidade e de realismo. Todo o corpo de experiências de Bell e GHZ realizadas ao longo dos anos sugere que pelo menos uma destas duas hipóteses é inadequada para descrever o mundo físico (pelo menos, quando há estados de entrelaçamento envolvidos). Porém, o Teorema de Bell não nos permite afirmar qual das duas deve ser abandonada.
Em 2003, Anthony Leggett, da Universidade de Illinois em Urbana-Champaign, nos EUA, forneceu uma resposta parcial a esta questão, ao apresentar um novo teorema de incompatibilidade, muito dentro do espírito da teoria de Bell, mas com um conjunto diferente de hipóteses (Found. Phys., 33, 1469). A sua ideia era a de deixar cair a hipótese da localidade e perguntar se, nessa situação, um conceito de realismo plausível - designadamente, atribuir uma polarização fixa como uma propriedade "real" de cada partícula num par entrelaçado - será suficiente para reproduzir integralmente a teoria quântica. Intuitivamente, poder-se-ia esperar que influências não locais devidamente escolhidas pudessem produzir correlações arbitrárias. Afinal, se permitimos que os resultados das nossas medições dependam de tudo o que se passa no universo inteiro (incluindo no local do segundo equipamento de medição), por que razão deveríamos esperar uma restrição a estas correlações?
No caso específico de um par de fotões entrelaçados por polarização, a classe de teorias não locais realistas que Leggett se propõe testar preenche os seguintes requisitos: cada partícula de um par é emitida a partir da fonte com uma polarização bem definida; estão presentes influências não locais, de tal modo que o resultado de cada medição individual pode depender de qualquer parâmetro a uma distância arbitrária da medição. As previsões destas teorias violam as desigualdades de Bell originais, devido à influência não local permitida, por isso é natural perguntar se serão capazes de reproduzir todas as previsões da teoria quântica.
Leggett demonstrou que isso não acontece. À semelhança de Bell, deduziu um conjunto de desigualdades para determinadas medições em duas partículas entrelaçadas que são satisfeitas por todas as teorias baseadas nestes pressupostos não locais realistas específicos, mas que são violadas pelas previsões quânticas teóricas. O teste das desigualdades de Leggett é mais exigente do que o das desigualdades de Bell, porque requer medições de polarização linear e elíptica e um entrelaçamento de qualidade muito superior. Todavia, em 2007, graças aos enormes progressos realizados no domínio das fontes de fotões entrelaçados, os autores e seus colaboradores em Viena conseguiram testar experimentalmente uma desigualdade de Leggett, através da medição das correlações entre as polarizações linear e elíptica de fotões entrelaçados (Nature, 446, 871).
A experiência confirmou as previsões da teoria quântica e excluiu, assim, uma vasta classe de teorias não locais realistas como base conceptual para os fenómenos quânticos. Tal como aconteceu com a evolução das experiências de Bell, rapidamente se seguiram experiências semelhantes à de Leggett, mas mais rigorosas. Por exemplo, experiências independentes realizadas em 2007 pela equipa de Viena (Phys. Rev. Lett., 99, 210406) e por investigadores da Universidade de Genebra e da Universidade Nacional de Singapura (Phys. Rev. Lett., 99, 210407) confirmaram a violação de uma desigualdade de Leggett, ao abrigo de pressupostos menos rigorosos, alargando assim a classe de modelos não locais realistas proibidos. Estas experiências tornam claras duas coisas. Em primeiro lugar, não basta renunciar por completo ao conceito de localidade. Em segundo lugar, é preciso abandonar, pelo menos, a noção de realismo ingénuo de que as partículas têm determinadas propriedades (no nosso caso, polarização) que são independentes de qualquer observação.
Figura 4 Experiências quânticas macroscópicas
Através do estudo do comportamento mecânico quântico de objectos cada vez maiores e de maior massa, os investigadores aumentam as hipóteses de se virem a construir computadores quânticos fiáveis ou de se desenvolverem outras aplicações da ciência da informação quântica. O actual recorde mundial para objectos de grande massa que revelam interferência quântica numa experiência do tipo dupla fenda, ou seja, que demonstram comportamento ondulatório apesar da sua natureza corpuscular, é detido pelas moléculas de fulereno fluoradas C60F48, com uma massa de 1632 unidades de massa atómica (em cima, à esquerda) (Phys. Rev. Lett., 91, 090408). O maior objecto que revela interferência é a molécula de azobenzeno (em baixo) (Nature Physics, 3, 711), como foi demonstrado pela equipa de Markus Arndt, da Universidade de Viena. Os ressoadores mecânicos (em cima, à direita) ainda não entraram no regime quântico, mas isso poderá mudar em breve, quando esses objectos forem arrefecidos até ao seu estado quântico fundamental. Este ressoador em particular contém um espelho altamente reflector colocado em cima de um braço vibratório com um grampo único, que pode ser accionado através de pressão de radiação, em combinação com uma cavidade óptica muito fina.
|
A estreita interacção existente entre ciência da informação quântica e curiosidade fundamental tem também sido demonstrada através de algumas experiências fascinantes que envolvem partículas de maior massa. Segundo a teoria quântica, não existe um limite superior intrínseco para a dimensão ou a complexidade de um sistema físico, acima do qual deixem de ocorrer efeitos quânticos. É esse o elemento essencial do famoso paradoxo do gato de Schrödinger, que ridiculariza a situação, sugerindo uma experiência em que alguém poderia utilizar um gato que está num estado de sobreposição: vivo e morto. Um caso particularmente interessante é a interferência "matéria-onda".
Demonstrou-se que electrões, neutrões e átomos revelam efeitos de interferência quando passam por uma dupla fenda, provando-se assim que nenhum destes sistemas de grande massa passa por apenas uma ou outra fenda. Um comportamento semelhante foi observado mais recentemente, em 1999, por AZ e colegas em Viena para as moléculas relativamente grandes de fulereno - Carbono-60 e Carbono-70 - (Nature, 401, 680). Investigações actualmente em curso demonstraram igualmente a existência de interferência com sistemas ainda mais pesados e maiores (ver Figura 4). Um dos principais objectivos destas investigações é obter interferência quântica para pequenos vírus ou talvez até mesmo para nanobactérias.
Muito recentemente, a capacidade de arrefecer dispositivos nanomecânicos a temperaturas muito baixas abriu uma nova perspectiva para testar sistemas contendo até 1020 átomos. Um dos objectivos mais fascinantes das experiências que investigam o regime quântico dos braços mecânicos é demonstrar a existência de entrelaçamento entre um sistema microscópico, como um fotão, e um sistema mecânico - ou mesmo entre dois sistemas mecânicos.
Embora a motivação subjacente ao estudo de sistemas quânticos macroscópicos seja a pura curiosidade, a investigação toca em questões importantes para a ciência da informação quântica. Isso acontece, porque sistemas quânticos cada vez mais vastos e complexos sofrem interacções com o meio ambiente, o que é tão importante em termos de macromoléculas e braços como de grandes registos de um computador quântico.
Uma das consequências desta interacção com o mundo exterior é a "decoerência", através da qual o sistema fica efectivamente entrelaçado com o meio ambiente e, por conseguinte, perde o seu estado quântico individual. Em resultado disso, as medições desse sistema deixam de revelar qualquer assinatura quântica. Encontrar formas de evitar a decoerência é, assim, um tema quente, tanto nas experiências quânticas macroscópicas como na ciência da informação quântica. Com as moléculas de fulereno, por exemplo, o efeito de decoerência foi estudado com grande pormenor, em 2004, associando-as ao ambiente exterior de diferentes maneiras harmoniosas (Nature, 427, 711). De uma perspectiva experimental, não vemos qualquer razão para considerar que a decoerência não possa ser ultrapassada para sistemas muito mais macroscópicos do que aqueles que são actualmente viáveis em laboratório.
Curiosidade Quântica
A física quântica e a ciência da informação que ela tem inspirado surgem como duas faces da mesma moeda: por um lado, como inspiração para abordagens conceptualmente novas a aplicações; por outro lado, como uma caixa de ferramentas que permite colocar novas questões fundamentais. Tem acontecido com frequência que as novas tecnologias levantem questões que não tinham sido colocadas antes, simplesmente porque as pessoas não podiam imaginar aquilo que se tornou possível no laboratório.
Um destes casos poderá ser a nossa crescente capacidade de manipular sistemas quânticos complexos que vivem em espaços de Hilbert de elevadas dimensões - o espaço matemático em que os estados quânticos são descritos. A maior parte das perguntas fundamentais conhecidas na teoria quântica recorreu até agora apenas a sistemas relativamente simples, mas dimensões mais elevadas do espaço de Hilbert poderão acrescentar características qualitativamente novas à interpretação da física quântica. Estamos convencidos de que muitas surpresas nos aguardam neste domínio.
Esperamos que os futuros desenvolvimentos teóricos e experimentais lancem mais luz sobre as pouco intuitivas características da teoria quântica que são realmente indispensáveis na nossa descrição do mundo físico. Quando isso acontecer, poderá ser possível perceber melhor a questão fundamental do que é a realidade e de como descrevê-la. A estreita ligação entre a curiosidade básica pelo mundo quântico e a sua aplicação à ciência da informação poderá mesmo produzir ideias para a física que ultrapassem a mecânica quântica.
Markus Aspelmeyer trabalha no Institute for Quantum Optics and Quantum Information (IQQQI), da Academia Markus Aspelmeyer trabalha no Institute for Quantum Optics and Quantum Information (IQQQI), da Academia das Ciências austríaca, em Viena, e Anton Zeilinger trabalha na Universidade de Viena, sendo um reputado líder Markus Aspelmeyer trabalha no Institute for Quantum Optics and Quantum Information (IQQQI), da Academia internacional na investigação da realidade quântica e aplicações da Óptica Quântica à Ciência da Informação e Criptografia.
Este artigo, publicado na Physics World, Julho 2008, é publicado na Gazeta ao abrigo de um protocolo assinado entre o IOP (Physics World) e a SPF (Gazeta de Física).
(tradução Ana Sampaio)
Por favor compartilhem, cliquem nos ícones do Facebook, Orkut, G+ e Twitter abaixo:
Este comentário foi removido por um administrador do blog.
ResponderExcluir