Dualidade onda-partícula - Wave–particle duality

Dualidade onda-partícula é o conceito na mecânica quântica de que cada partícula ou entidade quântica pode ser descrita como uma partícula ou uma onda . Expressa a incapacidade dos conceitos clássicos de "partícula" ou "onda" de descrever completamente o comportamento de objetos em escala quântica . Como Albert Einstein escreveu:

Parece que devemos usar às vezes uma teoria e às vezes a outra, enquanto às vezes podemos usar qualquer uma. Estamos diante de um novo tipo de dificuldade. Temos duas imagens contraditórias da realidade; separadamente, nenhum deles explica completamente os fenômenos da luz, mas juntos eles o fazem.

Através do trabalho de Max Planck , Albert Einstein , Louis de Broglie , Arthur Compton , Niels Bohr , Erwin Schrödinger e muitos outros, a teoria científica atual sustenta que todas as partículas exibem uma natureza ondulatória e vice-versa. Este fenômeno foi verificado não apenas para partículas elementares, mas também para partículas compostas como átomos e até moléculas. Para partículas macroscópicas , por causa de seus comprimentos de onda extremamente curtos, as propriedades de onda geralmente não podem ser detectadas.

Embora o uso da dualidade onda-partícula tenha funcionado bem na física, o significado ou a interpretação não foram resolvidos de forma satisfatória; veja Interpretações da mecânica quântica .

Bohr considerou o " paradoxo da dualidade " como um fato fundamental ou metafísico da natureza. Um determinado tipo de objeto quântico exibirá às vezes onda, às vezes partícula, caráter, respectivamente em diferentes configurações físicas. Ele viu essa dualidade como um aspecto do conceito de complementaridade . Bohr considerava a renúncia à relação de causa e efeito, ou complementaridade, da imagem do espaço-tempo, como essencial para a explicação da mecânica quântica.

Werner Heisenberg considerou a questão mais detalhadamente. Ele via a dualidade como presente para todas as entidades quânticas, mas não exatamente na explicação da mecânica quântica usual considerada por Bohr. Ele viu isso no que é chamado de segunda quantização , que gera um conceito inteiramente novo de campos que existem no espaço-tempo comum, a causalidade ainda sendo visualizável. Os valores de campo clássicos (por exemplo, as intensidades dos campos elétrico e magnético de Maxwell ) são substituídos por um tipo inteiramente novo de valor de campo, conforme considerado na teoria quântica de campos . Invertendo o raciocínio, a mecânica quântica comum pode ser deduzida como uma consequência especializada da teoria quântica de campos.

História

Partículas clássicas e teorias de onda da luz

Esboço de Thomas Young da difração de ondas em duas fendas , 1803

Demócrito (século V aC) argumentou que todas as coisas no universo, incluindo a luz , são compostas de subcomponentes indivisíveis. Euclides (4o-3o século AC) dá tratados sobre propagação de luz, declara o princípio da trajetória mais curta da luz, incluindo múltiplos reflexos em espelhos, incluindo esféricos, enquanto Plutarco (1o 2o século DC) descreve múltiplos reflexos em espelhos esféricos discutindo a criação de imagens maiores ou menores, reais ou imaginárias, inclusive no caso de quiralidade das imagens. No início do século 11, o cientista árabe Ibn al-Haytham escreveu o primeiro livro abrangente de óptica descrevendo a reflexão , a refração e a operação de uma lente pinhole por meio de raios de luz que viajam do ponto de emissão até o olho. Ele afirmou que esses raios eram compostos de partículas de luz. Em 1630, René Descartes popularizou e credenciou a descrição da onda oposta em seu tratado sobre a luz, O Mundo (Descartes) , mostrando que o comportamento da luz poderia ser recriado modelando perturbações semelhantes a ondas em um meio universal, ou seja, éter luminífero . Começando em 1670 e progredindo ao longo de três décadas, Isaac Newton desenvolveu e defendeu sua teoria corpuscular , argumentando que as linhas perfeitamente retas de reflexão demonstravam a natureza das partículas da luz, apenas partículas poderiam viajar em tais linhas retas. Ele explicou a refração postulando que as partículas de luz se aceleraram lateralmente ao entrar em um meio mais denso. Na mesma época, os contemporâneos de Newton, Robert Hooke e Christiaan Huygens , e mais tarde Augustin-Jean Fresnel , refinaram matematicamente o ponto de vista da onda, mostrando que se a luz viajasse em velocidades diferentes em meios diferentes, a refração poderia ser facilmente explicada como a propagação dependente do meio de ondas de luz. O princípio de Huygens – Fresnel resultante foi extremamente bem sucedido na reprodução do comportamento da luz e foi subsequentemente apoiado pela descoberta de Thomas Young da interferência da onda de luz por seu experimento de dupla fenda em 1801. A visão da onda não deslocou imediatamente a visão do raio e das partículas, mas começou a dominar o pensamento científico sobre a luz em meados do século 19, uma vez que podia explicar fenômenos de polarização que as alternativas não podiam.

James Clerk Maxwell descobriu que poderia aplicar as equações de Maxwell descobertas anteriormente , junto com uma ligeira modificação para descrever ondas de autopropagação de campos elétricos e magnéticos oscilantes. Rapidamente se tornou aparente que a luz visível, a luz ultravioleta e a luz infravermelha eram todas ondas eletromagnéticas de frequências diferentes.

Radiação de corpo negro e lei de Planck

Em 1901, Max Planck publicou uma análise que conseguiu reproduzir o espectro de luz observado emitido por um objeto brilhante. Para conseguir isso, Planck teve que fazer uma suposição matemática da energia quantizada dos osciladores, ou seja, átomos do corpo negro que emitem radiação. Mais tarde, Einstein propôs que a própria radiação eletromagnética é quantizada, não a energia dos átomos que irradiam.

A radiação de corpo negro, a emissão de energia eletromagnética devido ao calor de um objeto, não pode ser explicada apenas pelos argumentos clássicos. O teorema da equipartição da mecânica clássica, a base de todas as teorias termodinâmicas clássicas, afirmava que a energia de um objeto é dividida igualmente entre os modos vibracionais do objeto . Mas aplicar o mesmo raciocínio à emissão eletromagnética de tal objeto térmico não teve tanto sucesso. Já se sabia há muito tempo que os objetos térmicos emitem luz. Como a luz era conhecida como ondas de eletromagnetismo, os físicos esperavam descrever essa emissão por meio de leis clássicas. Isso ficou conhecido como o problema do corpo negro. Uma vez que o teorema da equipartição funcionou tão bem na descrição dos modos vibracionais do próprio objeto térmico, era natural supor que ele teria um desempenho igualmente bom na descrição da emissão radiativa de tais objetos. Mas um problema surgia rapidamente se cada modo recebesse uma partição igual de energia, os modos de comprimento de onda curto consumiriam toda a energia. Isso ficou claro ao traçar a lei de Rayleigh-Jeans , que, embora previsse corretamente a intensidade das emissões de comprimentos de onda longos, previu energia total infinita conforme a intensidade diverge para o infinito para comprimentos de onda curtos. Isso ficou conhecido como a catástrofe ultravioleta .

Em 1900, Max Planck formulou a hipótese de que a frequência da luz emitida pelo corpo negro dependia da frequência do oscilador que a emitia, e a energia desses osciladores aumentava linearmente com a frequência (de acordo com E = hf onde h é a constante de Planck ef é a frequência). Esta não foi uma proposta infundada, considerando que os osciladores macroscópicos operam de forma semelhante ao estudar cinco osciladores harmônicos simples de igual amplitude, mas de frequência diferente, o oscilador com a frequência mais alta possui a energia mais alta (embora esta relação não seja linear como a de Planck). Ao exigir que a luz de alta frequência seja emitida por um oscilador de igual frequência, e ainda requerendo que esse oscilador ocupe uma energia mais alta do que um de menor frequência, Planck evitou qualquer catástrofe, dando uma partição igual para osciladores de alta frequência produzidos sucessivamente menos osciladores e menos luz emitida. E como na distribuição de Maxwell-Boltzmann , os osciladores de baixa frequência e baixa energia foram suprimidos pelo ataque de oscilações térmicas de osciladores de alta energia, que necessariamente aumentaram sua energia e frequência.

O aspecto mais revolucionário do tratamento de Planck do corpo negro é que ele depende inerentemente de um número inteiro de osciladores em equilíbrio térmico com o campo eletromagnético. Esses osciladores dão toda a sua energia ao campo eletromagnético, criando um quantum de luz, sempre que são excitados pelo campo eletromagnético, absorvendo um quantum de luz e começando a oscilar na frequência correspondente. Planck havia criado intencionalmente uma teoria atômica do corpo negro, mas sem querer gerou uma teoria atômica da luz, em que o corpo negro nunca gera quanta de luz em uma determinada frequência com uma energia inferior a hf . Porém, ao perceber que havia quantizado o campo eletromagnético, denunciou as partículas de luz como uma limitação de sua aproximação, não uma propriedade da realidade.

Efeito fotoelétrico

O efeito fotoelétrico. Os fótons que chegam à esquerda atingem uma placa de metal (parte inferior) e ejetam elétrons, descritos como voando para a direita.

Embora Planck tenha resolvido a catástrofe ultravioleta usando átomos e um campo eletromagnético quantizado, a maioria dos físicos contemporâneos concordou que os "quanta de luz" de Planck representavam apenas falhas em seu modelo. Uma derivação mais completa da radiação do corpo negro produziria um campo eletromagnético totalmente contínuo e "ondulatório", sem quantização. No entanto, em 1905, Albert Einstein usou o modelo do corpo negro de Planck para produzir sua solução para outro problema notável da época: o efeito fotoelétrico , em que elétrons são emitidos de átomos quando absorvem energia da luz. Como sua existência foi teorizada oito anos antes, os fenômenos foram estudados com o modelo do elétron em mente em laboratórios de física em todo o mundo.

Em 1902, Philipp Lenard descobriu que a energia desses elétrons ejetados não dependia da intensidade da luz que entrava, mas sim de sua frequência. Portanto, se alguém ilumina um metal com um pouco de luz de baixa frequência, alguns elétrons de baixa energia são ejetados. Se alguém agora ilumina um feixe muito intenso de luz de baixa frequência sobre o mesmo metal, uma grande quantidade de elétrons é ejetada; no entanto, eles possuem a mesma baixa energia, há apenas mais deles. Quanto mais luz houver, mais elétrons serão ejetados. Já para obter elétrons de alta energia, é necessário iluminar o metal com luz de alta freqüência. Como a radiação do corpo negro, isso estava em desacordo com uma teoria que invocava a transferência contínua de energia entre a radiação e a matéria. No entanto, isso ainda pode ser explicado usando uma descrição totalmente clássica da luz, desde que a matéria seja de natureza mecânica quântica.

Se alguém usasse os quanta de energia de Planck e exigisse que a radiação eletromagnética em uma determinada frequência só pudesse transferir energia para a matéria em múltiplos inteiros de um quantum de energia hf , o efeito fotoelétrico poderia ser explicado de forma muito simples. A luz de baixa frequência apenas ejeta elétrons de baixa energia porque cada elétron é excitado pela absorção de um único fóton. Aumentar a intensidade da luz de baixa frequência (aumentar o número de fótons) apenas aumenta o número de elétrons excitados, não sua energia, porque a energia de cada fóton permanece baixa. Somente aumentando a frequência da luz e, assim, aumentando a energia dos fótons, pode-se ejetar elétrons com energia mais alta. Assim, usando a constante h de Planck para determinar a energia dos fótons com base em sua frequência, a energia dos elétrons ejetados também deve aumentar linearmente com a frequência, sendo o gradiente da linha a constante de Planck. Esses resultados não foram confirmados até 1915, quando Robert Andrews Millikan produziu resultados experimentais em perfeita concordância com as previsões de Einstein.

Enquanto a energia dos elétrons ejetados refletia a constante de Planck, a existência de fótons não foi explicitamente provada até a descoberta do efeito antibunching de fótons . Isso se refere à observação de que, uma vez que um único emissor (um átomo, molécula, emissor de estado sólido, etc.) irradie um sinal de luz detectável, ele não pode liberar imediatamente um segundo sinal até que o emissor tenha sido novamente excitado. Isso leva a um atraso de tempo estatisticamente quantificável entre as emissões de luz, de modo que a detecção de vários sinais torna-se cada vez mais improvável à medida que o tempo de observação diminui sob o tempo de vida do estado excitado do emissor. O efeito pode ser demonstrado em um laboratório de graduação.

Esse fenômeno só poderia ser explicado por meio dos fótons. Os "quanta de luz" de Einstein não seriam chamados de fótons até 1925, mas mesmo em 1905 eles representaram o exemplo quintessencial da dualidade onda-partícula. A radiação eletromagnética se propaga seguindo equações de onda linear, mas só pode ser emitida ou absorvida como elementos discretos, agindo assim como uma onda e uma partícula simultaneamente.

A explicação de Einstein sobre o efeito fotoelétrico

Em 1905, Albert Einstein forneceu uma explicação do efeito fotoelétrico, um experimento que a teoria ondulatória da luz não conseguiu explicar. Ele o fez postulando a existência de fótons, quanta de energia luminosa com qualidades particuladas.

No efeito fotoelétrico , foi observado que acender uma luz sobre certos metais levaria a uma corrente elétrica em um circuito . Presumivelmente, a luz estava retirando elétrons do metal, fazendo com que a corrente fluísse. No entanto, usando o caso do potássio como exemplo, também foi observado que, embora uma luz azul fraca fosse suficiente para causar uma corrente, mesmo a luz vermelha mais forte e brilhante disponível com a tecnologia da época não causava nenhuma corrente. De acordo com a teoria clássica de luz e matéria, a força ou amplitude de uma onda de luz era proporcional ao seu brilho: uma luz brilhante deveria ser forte o suficiente para criar uma grande corrente. No entanto, estranhamente, não foi assim.

Einstein explicou esse enigma postulando que os elétrons podem receber energia do campo eletromagnético apenas em unidades discretas (quanta ou fótons): uma quantidade de energia E que estava relacionada à frequência f da luz por

onde h é a constante de Planck (6,626 × 10 −34 Js). Apenas fótons de uma frequência alta o suficiente (acima de um certo valor limite ) poderiam liberar um elétron. Por exemplo, os fótons de luz azul tinham energia suficiente para liberar um elétron do metal, mas os fótons de luz vermelha não. Um fóton de luz acima da frequência limite poderia liberar apenas um elétron; quanto mais alta a frequência de um fóton, mais alta a energia cinética do elétron emitido, mas nenhuma quantidade de luz abaixo da frequência limite poderia liberar um elétron. Para violar essa lei, seriam necessários lasers de intensidade extremamente alta que ainda não haviam sido inventados. Os fenômenos dependentes da intensidade foram agora estudados em detalhes com esses lasers.

Einstein recebeu o Prêmio Nobel de Física em 1921 por sua descoberta da lei do efeito fotoelétrico.

hipótese de de Broglie

Propagação das ondas de de Broglie em 1d - a parte real da amplitude complexa é azul, a parte imaginária é verde. A probabilidade (mostrada como a opacidade da cor ) de encontrar a partícula em um determinado ponto x é espalhada como uma forma de onda; não há posição definida da partícula. Conforme a amplitude aumenta acima de zero, a curvatura diminui, então a amplitude diminui novamente e vice-versa - o resultado é uma amplitude alternada: uma onda. Acima: onda plana . Embaixo: Pacote de ondas .

Em 1924, Louis-Victor de Broglie formulou a hipótese de De Broglie , afirmando que toda matéria tem uma natureza de onda, ele relacionou comprimento de onda e momento :

Esta é uma generalização da equação de Einstein acima, uma vez que o momento de um fóton é dado por p = e o comprimento de onda (no vácuo) por λ = , onde c é a velocidade da luz no vácuo.

A fórmula de De Broglie foi confirmada três anos depois para os elétrons com a observação da difração de elétrons em dois experimentos independentes. Na Universidade de Aberdeen , George Paget Thomson passou um feixe de elétrons por uma fina película de metal e observou os padrões de interferência previstos. No Bell Labs , Clinton Joseph Davisson e Lester Halbert Germer guiaram o feixe de elétrons através de uma grade cristalina em seu experimento popularmente conhecido como experimento Davisson-Germer .

De Broglie recebeu o Prêmio Nobel de Física em 1929 por sua hipótese. Thomson e Davisson compartilharam o Prêmio Nobel de Física em 1937 por seu trabalho experimental.

Princípio da incerteza de Heisenberg

Em seu trabalho sobre a formulação da mecânica quântica, Werner Heisenberg postulou seu princípio de incerteza, que afirma:

Onde

aqui indica o desvio padrão , uma medida de propagação ou incerteza;
x e p são a posição de uma partícula e o momento linear, respectivamente.
é a constante de Planck reduzida ( constante de Planck dividida por 2 ).

Heisenberg originalmente explicou isso como uma consequência do processo de medição: Medir a posição com precisão perturbaria o momentum e vice-versa, oferecendo um exemplo (o "microscópio de raios gama") que dependia crucialmente da hipótese de De Broglie . O pensamento agora, entretanto, é que isso explica apenas em parte o fenômeno, mas que a incerteza também existe na própria partícula, mesmo antes de a medição ser feita.

Na verdade, a explicação moderna do princípio da incerteza, estendendo a interpretação de Copenhague apresentada pela primeira vez por Bohr e Heisenberg , depende ainda mais centralmente da natureza ondulatória de uma partícula. Assim como é absurdo discutir a localização precisa de uma onda em uma corda, as partículas não têm posições perfeitamente precisas; da mesma forma, assim como é absurdo discutir o comprimento de onda de uma onda de "pulso" viajando por uma corda, as partículas não têm momentos perfeitamente precisos que correspondem ao inverso do comprimento de onda. Além disso, quando a posição é relativamente bem definida, a onda é semelhante a um pulso e tem um comprimento de onda muito mal definido e, portanto, o momento. E, inversamente, quando o momento, e portanto o comprimento de onda, são relativamente bem definidos, a onda parece longa e sinusoidal e, portanto, tem uma posição muito mal definida.

teoria de de Broglie-Bohm

Experimentos Couder, "materializando" o modelo de onda piloto

O próprio De Broglie propôs uma construção de onda piloto para explicar a dualidade onda-partícula observada. Nesta visão, cada partícula tem uma posição e momento bem definidos, mas é guiada por uma função de onda derivada da equação de Schrödinger . A teoria da onda piloto foi inicialmente rejeitada porque gerava efeitos não locais quando aplicada a sistemas envolvendo mais de uma partícula. A não localidade, no entanto, logo se tornou uma característica integral da teoria quântica e David Bohm estendeu o modelo de de Broglie para incluí-lo explicitamente.

Na representação resultante, também chamada de teoria de Broglie-Bohm ou mecânica Bohmiana, a dualidade onda-partícula desaparece e explica o comportamento da onda como um espalhamento com aparência de onda, porque o movimento da partícula está sujeito a uma equação guia ou potencial quântico .

Essa ideia me parece tão natural e simples, para resolver o dilema onda-partícula de uma forma tão clara e comum, que é um grande mistério para mim que tenha sido tão geralmente ignorado. - JSBell

A melhor ilustração do modelo de onda-piloto foi dada pelos experimentos de Couder em 2010 com "gotas ambulantes", demonstrando o comportamento da onda-piloto em um análogo mecânico macroscópico.

Natureza ondulatória de objetos grandes

Desde as demonstrações de propriedades ondulatórias em fótons e elétrons , experimentos semelhantes foram realizados com nêutrons e prótons . Entre os experimentos mais famosos estão os de Estermann e Otto Stern em 1929. Os autores de experimentos recentes semelhantes com átomos e moléculas, descritos a seguir, afirmam que essas partículas maiores também agem como ondas.

Uma série dramática de experimentos enfatizando a ação da gravidade em relação à dualidade onda-partícula foi conduzida na década de 1970 usando o interferômetro de nêutrons . Os nêutrons, um dos componentes do núcleo atômico , fornecem grande parte da massa de um núcleo e, portanto, da matéria comum. No interferômetro de nêutrons, eles agem como ondas quânticas diretamente sujeitas à força da gravidade. Embora os resultados não tenham sido surpreendentes, já que se sabia que a gravidade agia sobre tudo, incluindo a luz (ver testes de relatividade geral e o experimento de fótons caindo de Pound-Rebka ), a autointerferência da onda mecânica quântica de um férmion maciço em um campo gravitacional nunca tinha sido confirmado experimentalmente antes.

Em 1999, foi relatada a difração de fulerenos C 60 por pesquisadores da Universidade de Viena . Os fulerenos são objetos comparativamente grandes e massivos, tendo uma massa atômica de cerca de 720 u . O comprimento de onda de de Broglie do feixe incidente era cerca de 2,5  pm , enquanto o diâmetro da molécula é cerca de 1  nm , cerca de 400 vezes maior. Em 2012, esses experimentos de difração de campo distante poderiam ser estendidos às moléculas de ftalocianina e seus derivados mais pesados, que são compostos por 58 e 114 átomos, respectivamente. Nesses experimentos, o acúmulo de tais padrões de interferência pode ser registrado em tempo real e com sensibilidade de uma única molécula.

Em 2003, o grupo de Viena também demonstrou a natureza ondulatória da tetrafenilporfirina - um corpo plano plano com uma extensão de cerca de 2 nm e uma massa de 614 u. Para esta demonstração, eles empregaram um interferômetro Talbot Lau de campo próximo . No mesmo interferômetro, eles também encontraram franjas de interferência para C 60 F 48 , uma buckyball fluorada com uma massa de cerca de 1600 u, composta por 108 átomos. Moléculas grandes já são tão complexas que dão acesso experimental a alguns aspectos da interface quântica-clássica, ou seja, a certos mecanismos de decoerência . Em 2011, a interferência de moléculas tão pesadas quanto 6910 u pode ser demonstrada em um interferômetro Kapitza – Dirac – Talbot – Lau. Em 2013, foi demonstrada a interferência de moléculas além de 10.000 u.

Se objetos mais pesados ​​que a massa de Planck (aproximadamente o peso de uma grande bactéria) têm um comprimento de onda de De Broglie é teoricamente obscuro e experimentalmente inalcançável; acima da massa de Planck, o comprimento de onda Compton de uma partícula seria menor do que o comprimento de Planck e seu próprio raio de Schwarzschild , uma escala na qual as teorias atuais da física podem ser quebradas ou precisam ser substituídas por outras mais gerais.

Couder, Fort, et al. mostraram que gotículas de óleo macroscópicas em um banho de fluido vibratório podem ser usadas como um modelo analógico de dualidade onda-partícula; uma gota localizada cria um campo de onda periódico ao seu redor. A interação ressonante entre a gota e seu próprio campo de onda exibe um comportamento análogo às partículas quânticas: interferência em experimento de dupla fenda, tunelamento imprevisível (dependendo de maneira complicada do estado de campo praticamente oculto), quantização de órbita (essa partícula precisa 'encontrar uma ressonância 'com perturbações de campo que ele cria - após uma órbita, sua fase interna tem que retornar ao estado inicial) e efeito Zeeman . Observe que outros experimentos de fenda simples e dupla mostraram que as interações parede-gotícula em vez de difração ou interferência da onda piloto podem ser responsáveis ​​pelos padrões hidrodinâmicos observados, que são diferentes dos padrões de interferência induzida por fenda exibidos por partículas quânticas.

Importância

A dualidade onda-partícula está profundamente arraigada nas fundações da mecânica quântica . No formalismo da teoria, todas as informações sobre uma partícula são codificadas em sua função de onda , uma função de valor complexo mais ou menos análoga à amplitude de uma onda em cada ponto do espaço. Esta função evolui de acordo com a equação de Schrödinger . Para partículas com massa, esta equação possui soluções que seguem a forma da equação de onda. A propagação de tais ondas leva a fenômenos semelhantes a ondas, como interferência e difração. Partículas sem massa, como fótons, não têm soluções da equação de Schrödinger. Em vez de uma função de onda de partícula que localiza massa no espaço, uma função de onda de fóton pode ser construída a partir da cinemática de Einstein para localizar energia em coordenadas espaciais.

O comportamento semelhante a uma partícula é mais evidente devido aos fenômenos associados à medição na mecânica quântica . Ao medir a localização da partícula, a partícula será forçada a um estado mais localizado, conforme determinado pelo princípio da incerteza. Quando vista através deste formalismo, a medição da função de onda levará aleatoriamente ao colapso da função de onda para uma função de pico agudo em algum local. Para partículas com massa, a probabilidade de detectar a partícula em qualquer local particular é igual ao quadrado da amplitude da função de onda ali. A medição retornará uma posição bem definida e está sujeita ao princípio de incerteza de Heisenberg .

Após o desenvolvimento da teoria quântica de campos, a ambigüidade desapareceu. O campo permite soluções que seguem a equação de onda, que são chamadas de funções de onda. O termo partícula é usado para rotular as representações irredutíveis do grupo de Lorentz que são permitidas pelo campo. Uma interação como em um diagrama de Feynman é aceita como uma aproximação calculacionalmente conveniente onde as pernas de saída são conhecidas por serem simplificações da propagação e as linhas internas são por alguma ordem em uma expansão da interação de campo. Como o campo é não local e quantizado, os fenômenos que antes eram pensados ​​como paradoxos são explicados. Dentro dos limites da dualidade onda-partícula, a teoria quântica de campos dá os mesmos resultados.

Visualização

Existem duas maneiras de visualizar o comportamento da onda-partícula: pelo modelo padrão e pela teoria de de Broglie-Bohr.

Abaixo está uma ilustração da dualidade onda-partícula no que se refere à hipótese de de Broglie e ao princípio da incerteza de Heisenberg, em termos da posição e das funções de onda do espaço de momento para uma partícula sem spin com massa em uma dimensão. Essas funções de onda são transformadas de Fourier uma da outra.

Quanto mais localizada for a função de onda do espaço de posição, mais provável é que a partícula seja encontrada com as coordenadas de posição naquela região e, correspondentemente, a função de onda do espaço de momento é menos localizada, de modo que os possíveis componentes do momento que a partícula poderia ter são mais difundidos.

Por outro lado, quanto mais localizada a função de onda espaço-momento, mais provável que a partícula seja encontrada com os valores dos componentes do momento naquela região, e correspondentemente menos localizada a função de onda espaço-posição, então as coordenadas de posição que a partícula poderia ocupar são mais difundido.

Funções de onda de posição xe momento p correspondentes às partículas quânticas. A opacidade da cor das partículas corresponde à densidade de probabilidade de encontrar a partícula com posição x ou componente de momento p .
Acima: Se o comprimento de onda λ é desconhecido, o mesmo ocorre com o momento p , o vetor de onda k e a energia E (relações de Broglie). Como a partícula está mais localizada no espaço de posição, Δ x é menor do que para Δ p x .
Parte inferior: Se λ é conhecida, por isso são p , K , e E . Como a partícula está mais localizada no espaço de momento, Δ p é menor do que para Δ x .

Vistas alternativas

A dualidade onda-partícula é um enigma contínuo na física moderna. A maioria dos físicos aceita a dualidade onda-partícula como a melhor explicação para uma ampla gama de fenômenos observados; no entanto, não é sem controvérsia. Visões alternativas também são apresentadas aqui. Essas visões geralmente não são aceitas pela física dominante, mas servem como base para uma discussão valiosa dentro da comunidade.

Visão de ambas as partículas e ondas

O modelo de onda piloto , originalmente desenvolvido por Louis de Broglie e posteriormente desenvolvido por David Bohm na teoria da variável oculta, propõe que não há dualidade, mas sim um sistema exibe propriedades de partícula e propriedades de onda simultaneamente, e as partículas são guiadas, de forma determinística moda, pela onda piloto (ou seu " potencial quântico "), que irá direcioná-los para áreas de interferência construtiva em preferência a áreas de interferência destrutiva . Essa ideia é mantida por uma minoria significativa dentro da comunidade da física.

Pelo menos um físico considera a "dualidade de onda" como não sendo um mistério incompreensível. LE Ballentine, Quantum Mechanics, A Modern Development (1989), p. 4, explica:

Quando descoberta pela primeira vez, a difração de partículas era uma fonte de grande perplexidade. As "partículas" são realmente "ondas"? Nos primeiros experimentos, os padrões de difração foram detectados holisticamente por meio de uma placa fotográfica, que não conseguia detectar partículas individuais. Como resultado, cresceu a noção de que as propriedades das partículas e ondas eram mutuamente incompatíveis, ou complementares, no sentido de que seriam necessários aparelhos de medição diferentes para observá-las. Essa ideia, no entanto, era apenas uma generalização infeliz de uma limitação tecnológica. Hoje é possível detectar a chegada de elétrons individuais e ver o padrão de difração emergir como um padrão estatístico composto de muitos pequenos pontos (Tonomura et al., 1989). Evidentemente, as partículas quânticas são de fato partículas, mas cujo comportamento é muito diferente do que a física clássica espera.

O experimento de Afshar (2007) pode sugerir que é possível observar simultaneamente as propriedades das ondas e das partículas dos fótons. Esta afirmação é, no entanto, contestada por outros cientistas.

Visualização apenas de ondas

A visão apenas de ondas foi formulada pela primeira vez pelo Prêmio Nobel Julian Schwinger em seus seis artigos sobre “A teoria dos campos quantizados”. A teoria de Schwinger é baseada na extensão da discretização observada no experimento Stern-Gerlach para incluir a intensidade do campo, de modo que a intensidade do campo seja descrita pela álgebra de Hilbert, não por números comuns. Esse uso do espaço de Hilbert leva à existência de unidades individuais de campo chamadas quanta, que substituem os dois conceitos clássicos de partículas e ondas. O conceito de que os campos quantizados são os constituintes fundamentais da natureza também foi afirmado pelo Prêmio Nobel Frank Wilczek .

De acordo com essa teoria, os quanta são entidades separadas que evoluem e interagem de acordo com equações determinísticas, exceto que quando um quantum transfere sua energia para um átomo absorvente, ele desaparece de todo o espaço. O que chamamos de partícula é, na verdade, uma unidade holística de campo que em sua totalidade se comporta como uma partícula. Mesmo que se espalhe por muitos quilômetros, ele deve desaparecer instantaneamente, como um fóton colapsando em uma célula fotorreceptora no olho. Você não pode ter apenas parte de um fóton.

Embora o colapso instantâneo seja difícil para muitos físicos aceitarem, não há nada logicamente inconsistente nele, nem viola o Princípio da Relatividade. Remover um campo antes que ele tivesse a chance de fazer qualquer coisa não transmite nenhuma informação causal. O colapso de um quantum envolve apenas correlações não locais entre eventos em locais separados, e as correlações não podem transmitir energia ou informação. Além disso, é um fato experimental.

Carver Mead , um cientista americano e professor da Caltech, também propôs que a dualidade pode ser substituída por uma visão "apenas de ondas". Em seu livro Collective Electrodynamics: Quantum Foundations of Electromagnetism (2000), Mead pretende analisar o comportamento de elétrons e fótons puramente em termos de funções de onda de elétrons e atribui o comportamento aparente de partícula a efeitos de quantização e autoestados. De acordo com o revisor David Haddon:

Mead cortou o nó górdio da complementaridade quântica. Ele afirma que os átomos, com seus nêutrons, prótons e elétrons, não são partículas, mas ondas puras de matéria. Mead cita como evidência grosseira da natureza exclusivamente ondulatória da luz e da matéria a descoberta entre 1933 e 1996 de dez exemplos de fenômenos de ondas puras, incluindo o laser onipresente de CD players , as correntes elétricas autopropagadas de supercondutores e o Bose –Einstein condensado de átomos.

Albert Einstein , que, em sua busca por uma Teoria do Campo Unificado , não aceitou a dualidade onda-partícula, escreveu:

Esta dupla natureza da radiação (e dos corpúsculos materiais) ... foi interpretada pela mecânica quântica de uma forma engenhosa e surpreendentemente bem-sucedida. Esta interpretação ... parece-me apenas uma saída temporária ...

A interpretação de muitos mundos (MWI) às vezes é apresentada como uma teoria apenas de ondas, inclusive por seu originador, Hugh Everett, que se referiu a MWI como "a interpretação da onda".

o a hipótese das três ondas de R. Horodecki relaciona a partícula com a onda. A hipótese implica que uma partícula massiva é um fenômeno de onda intrinsecamente espacial, bem como estendido temporalmente, por uma lei não linear.

o a teoria do colapso determinístico considera o colapso e a medição como dois processos físicos independentes. O colapso ocorre quando dois pacotes de ondas se sobrepõem espacialmente e satisfazem um critério matemático, que depende dos parâmetros de ambos os pacotes de ondas. É uma contração do volume de sobreposição. Em um aparelho de medição, um dos dois pacotes de ondas é um dos agrupamentos atômicos, que constituem o aparelho, e os pacotes de ondas colapsam até atingir, no máximo, o volume desse agrupamento. Isso imita a ação de uma partícula pontual.

Visualização somente de partículas

Ainda nos dias da velha teoria quântica , uma versão pré-mecânica quântica da dualidade onda-partícula foi lançada por William Duane e desenvolvida por outros, incluindo Alfred Landé . Duane explicou a difração de raios X por um cristal apenas em termos de seu aspecto de partícula. A deflexão da trajetória de cada fóton difratado foi explicada como devido à transferência de momento quantizado da estrutura espacialmente regular do cristal difratado.

Visão nem onda nem partícula

Tem sido argumentado que nunca existem partículas ou ondas exatas, mas apenas algum compromisso ou intermediário entre eles. Por esta razão, em 1928, Arthur Eddington cunhou o nome de " ondulação " para descrever os objetos, embora não seja usado regularmente hoje. Uma consideração é que os pontos matemáticos de dimensão zero não podem ser observados. Outra é que na representação formal de tais pontos, a função delta de Dirac não é física, porque não pode ser normalizada . Argumentos paralelos se aplicam a estados de onda puros. Roger Penrose afirma:

Tais 'estados de posição' são funções de onda idealizadas no sentido oposto dos estados de momentum. Enquanto os estados de momentum são infinitamente espalhados, os estados de posição são infinitamente concentrados. Nenhum deles é normalizável [...].

Usos

Embora seja difícil traçar uma linha separando a dualidade onda-partícula do resto da mecânica quântica, é possível listar algumas aplicações desta ideia básica.

  • A dualidade onda-partícula é explorada na microscopia eletrônica , onde os pequenos comprimentos de onda associados ao elétron podem ser usados ​​para visualizar objetos muito menores do que o que é visível usando a luz visível.
  • Da mesma forma, a difração de nêutrons usa nêutrons com um comprimento de onda de cerca de 0,1  nm , o espaçamento típico dos átomos em um sólido, para determinar a estrutura dos sólidos.
  • As fotos agora são capazes de mostrar essa natureza dupla, o que pode levar a novas maneiras de examinar e registrar esse comportamento.

Veja também

Referências

links externos