Teoria do campo quântico - Quantum field theory

Na física teórica , a teoria quântica de campo ( QFT ) é uma estrutura teórica que combina a teoria de campo clássica , relatividade especial e mecânica quântica . QFT é usado na física de partículas para construir modelos físicos de partículas subatômicas e na física da matéria condensada para construir modelos de quasipartículas .

O QFT trata as partículas como estados excitados (também chamados de quanta ) de seus campos quânticos subjacentes , que são mais fundamentais do que as partículas. As interações entre as partículas são descritas por termos de interação no Lagrangiano envolvendo seus campos quânticos correspondentes. Cada interação pode ser representada visualmente por diagramas de Feynman de acordo com a teoria de perturbação na mecânica quântica .

História

A teoria quântica de campos surgiu do trabalho de gerações de físicos teóricos que abrangeram grande parte do século XX. Seu desenvolvimento começou na década de 1920 com a descrição das interações entre a luz e os elétrons , culminando na primeira teoria quântica de campos - a eletrodinâmica quântica . Um grande obstáculo teórico logo se seguiu com o aparecimento e persistência de vários infinitos em cálculos perturbativos, um problema resolvido apenas na década de 1950 com a invenção do procedimento de renormalização . Uma segunda grande barreira veio com a aparente incapacidade do QFT de descrever as interações fracas e fortes , a ponto de alguns teóricos pedirem o abandono da abordagem teórica do campo. O desenvolvimento da teoria de calibre e a conclusão do Modelo Padrão na década de 1970 levaram ao renascimento da teoria quântica de campos.

Bases teóricas

Linhas de campo magnético visualizadas com limalha de ferro . Quando um pedaço de papel é polvilhado com limalha de ferro e colocado acima de uma barra magnética, a limalha se alinha de acordo com a direção do campo magnético, formando arcos.

A teoria quântica de campos é o resultado da combinação da teoria clássica de campos , mecânica quântica e relatividade especial . Segue uma breve visão geral desses precursores teóricos:

A mais antiga teoria de campo clássica bem-sucedida é aquela que emergiu da lei da gravitação universal de Newton , apesar da completa ausência do conceito de campos em seu tratado de 1687, Philosophiæ Naturalis Principia Mathematica . A força da gravidade descrita por Newton é uma " ação à distância " - seus efeitos em objetos distantes são instantâneos, não importa a distância. Em uma troca de cartas com Richard Bentley , entretanto, Newton afirmou que "é inconcebível que a matéria bruta inanimada deva, sem a mediação de outra coisa que não é material, operar e afetar outra matéria sem contato mútuo". Foi só no século 18 que os físicos matemáticos descobriram uma descrição conveniente da gravidade baseada em campos - uma quantidade numérica (um vetor ) atribuída a cada ponto no espaço indicando a ação da gravidade em qualquer partícula naquele ponto. No entanto, isso foi considerado apenas um truque matemático.

Os campos começaram a ganhar existência própria com o desenvolvimento do eletromagnetismo no século XIX. Michael Faraday cunhou o termo inglês "campo" em 1845. Ele introduziu os campos como propriedades do espaço (mesmo quando desprovido de matéria) com efeitos físicos. Ele argumentou contra a "ação à distância" e propôs que as interações entre objetos ocorrem por meio de "linhas de força" que preenchem o espaço. Esta descrição dos campos permanece até hoje.

A teoria do eletromagnetismo clássico foi concluída em 1864 com as equações de Maxwell , que descreviam a relação entre o campo elétrico , o campo magnético , a corrente elétrica e a carga elétrica . As equações de Maxwell implicavam a existência de ondas eletromagnéticas , um fenômeno pelo qual os campos elétricos e magnéticos se propagam de um ponto espacial a outro a uma velocidade finita, que acaba sendo a velocidade da luz . A ação à distância foi, portanto, refutada de forma conclusiva.

Apesar do enorme sucesso do eletromagnetismo clássico, ele não foi capaz de explicar as linhas discretas nos espectros atômicos , nem a distribuição da radiação do corpo negro em diferentes comprimentos de onda. O estudo de Max Planck sobre a radiação do corpo negro marcou o início da mecânica quântica. Ele tratou os átomos, que absorvem e emitem radiação eletromagnética , como minúsculos osciladores com a propriedade crucial de que suas energias só podem assumir uma série de valores discretos, em vez de contínuos. Eles são conhecidos como osciladores harmônicos quânticos . Este processo de restringir energias a valores discretos é chamado de quantização. Com base nessa ideia, Albert Einstein propôs em 1905 uma explicação para o efeito fotoelétrico , de que a luz é composta de pacotes individuais de energia chamados fótons (os quanta de luz). Isso implicava que a radiação eletromagnética, embora sendo ondas no campo eletromagnético clássico, também existe na forma de partículas.

Em 1913, Niels Bohr introduziu o modelo de Bohr de estrutura atômica, em que os elétrons dentro dos átomos só podem assumir uma série de energias discretas, em vez de contínuas. Este é outro exemplo de quantização. O modelo de Bohr explicou com sucesso a natureza discreta das linhas espectrais atômicas. Em 1924, Louis de Broglie propôs a hipótese da dualidade onda-partícula , que as partículas microscópicas exibem propriedades tanto de onda quanto de partícula em diferentes circunstâncias. Unindo essas idéias dispersas, uma disciplina coerente, a mecânica quântica , foi formulada entre 1925 e 1926, com contribuições importantes de Max Planck , Louis de Broglie , Werner Heisenberg , Max Born , Erwin Schrödinger , Paul Dirac e Wolfgang Pauli .

No mesmo ano de seu artigo sobre o efeito fotoelétrico, Einstein publicou sua teoria da relatividade especial , baseada no eletromagnetismo de Maxwell. Novas regras, chamadas de transformação de Lorentz , foram dadas para a maneira como as coordenadas de tempo e espaço de um evento mudam sob mudanças na velocidade do observador, e a distinção entre tempo e espaço foi borrada. Foi proposto que todas as leis físicas devem ser as mesmas para observadores em velocidades diferentes, ou seja, que as leis físicas sejam invariantes sob as transformações de Lorentz.

Duas dificuldades permaneceram. Observacionalmente, a equação de Schrödinger subjacente à mecânica quântica poderia explicar a emissão estimulada de radiação de átomos, onde um elétron emite um novo fóton sob a ação de um campo eletromagnético externo, mas não foi capaz de explicar a emissão espontânea , onde um elétron diminui espontaneamente em energia e emite um fóton mesmo sem a ação de um campo eletromagnético externo. Teoricamente, a equação de Schrödinger não poderia descrever fótons e era inconsistente com os princípios da relatividade especial - ela trata o tempo como um número comum enquanto promove coordenadas espaciais para operadores lineares .

Eletrodinâmica quântica

A teoria do campo quântico começou naturalmente com o estudo das interações eletromagnéticas, já que o campo eletromagnético era o único campo clássico conhecido na década de 1920.

Através dos trabalhos de Born, Heisenberg e Pascual Jordan em 1925–1926, uma teoria quântica do campo eletromagnético livre (sem interação com a matéria) foi desenvolvida por meio da quantização canônica , tratando o campo eletromagnético como um conjunto de osciladores harmônicos quânticos . Com a exclusão das interações, no entanto, tal teoria ainda era incapaz de fazer previsões quantitativas sobre o mundo real.

Em seu artigo seminal de 1927, A teoria quântica da emissão e absorção de radiação , Dirac cunhou o termo eletrodinâmica quântica (QED), uma teoria que acrescenta aos termos que descrevem o campo eletromagnético livre um termo de interação adicional entre a densidade de corrente elétrica e o vetor eletromagnético potencial . Usando a teoria das perturbações de primeira ordem , ele explicou com sucesso o fenômeno da emissão espontânea. De acordo com o princípio da incerteza na mecânica quântica, os osciladores harmônicos quânticos não podem permanecer estacionários, mas têm uma energia mínima diferente de zero e devem estar sempre oscilando, mesmo no estado de menor energia (o estado fundamental ). Portanto, mesmo em um vácuo perfeito , permanece um campo eletromagnético oscilante com energia de ponto zero . É essa flutuação quântica dos campos eletromagnéticos no vácuo que "estimula" a emissão espontânea de radiação pelos elétrons nos átomos. A teoria de Dirac foi extremamente bem-sucedida em explicar tanto a emissão quanto a absorção de radiação pelos átomos; aplicando a teoria de perturbação de segunda ordem, ele foi capaz de explicar o espalhamento de fótons, a fluorescência de ressonância , bem como o espalhamento Compton não relativístico . No entanto, a aplicação da teoria das perturbações de ordem superior foi atormentada por infinidades problemáticas nos cálculos.

Em 1928, Dirac escreveu uma equação de onda que descreve os elétrons relativísticos - a equação de Dirac . Isso teve as seguintes consequências importantes: o spin de um elétron é 1/2; o fator g do elétron é 2; levou à correta fórmula de Sommerfeld para a estrutura fina do átomo de hidrogênio ; e poderia ser usado para derivar a fórmula Klein-Nishina para o espalhamento Compton relativístico. Embora os resultados tenham sido frutíferos, a teoria também aparentemente implicava na existência de estados de energia negativa, que tornariam os átomos instáveis, uma vez que eles sempre poderiam decair para estados de energia mais baixos pela emissão de radiação.

A visão predominante na época era que o mundo era composto de dois ingredientes muito diferentes: partículas materiais (como elétrons) e campos quânticos (como fótons). As partículas materiais eram consideradas eternas, com seu estado físico descrito pelas probabilidades de encontrar cada partícula em qualquer região do espaço ou faixa de velocidades. Por outro lado, os fótons eram considerados meramente os estados excitados do campo eletromagnético quantizado subjacente e podiam ser criados ou destruídos livremente. Foi entre 1928 e 1930 que Jordan, Eugene Wigner , Heisenberg, Pauli e Enrico Fermi descobriram que as partículas materiais também podiam ser vistas como estados excitados de campos quânticos. Assim como os fótons são estados excitados do campo eletromagnético quantizado, cada tipo de partícula tinha seu campo quântico correspondente: um campo de elétrons, um campo de prótons, etc. Com energia suficiente, agora seria possível criar partículas materiais. Com base nessa ideia, Fermi propôs em 1932 uma explicação para o decaimento beta conhecido como interação de Fermi . Os núcleos atômicos não contêm elétrons per se , mas no processo de decaimento, um elétron é criado a partir do campo de elétrons circundante, análogo ao fóton criado a partir do campo eletromagnético circundante no decaimento radiativo de um átomo excitado.

Foi percebido em 1929 por Dirac e outros que os estados de energia negativa implícitos na equação de Dirac poderiam ser removidos assumindo a existência de partículas com a mesma massa dos elétrons, mas com carga elétrica oposta. Isso não só garantiu a estabilidade dos átomos, mas também foi a primeira proposta de existência da antimatéria . Na verdade, a evidência de pósitrons foi descoberta em 1932 por Carl David Anderson em raios cósmicos . Com energia suficiente, por exemplo, absorvendo um fóton, um par elétron-pósitron poderia ser criado, um processo chamado produção de pares ; o processo reverso, a aniquilação, também pode ocorrer com a emissão de um fóton. Isso mostrou que o número de partículas não precisa ser corrigido durante uma interação. Historicamente, no entanto, os pósitrons foram inicialmente pensados ​​como "buracos" em um mar infinito de elétrons, em vez de um novo tipo de partícula, e essa teoria foi chamada de teoria do buraco de Dirac . O QFT incorporou naturalmente as antipartículas em seu formalismo.

Infinidades e renormalização

Robert Oppenheimer mostrou em 1930 que cálculos perturbativos de ordem superior em QED sempre resultavam em quantidades infinitas, como a energia própria do elétron e a energia do ponto zero do vácuo dos campos de elétrons e fótons, sugerindo que os métodos computacionais da época não podiam lidar adequadamente com interações envolvendo fótons com momentos extremamente altos. Somente 20 anos depois foi desenvolvida uma abordagem sistemática para remover tais infinitos.

Uma série de artigos foi publicada entre 1934 e 1938 por Ernst Stueckelberg que estabeleceu uma formulação relativisticamente invariante de QFT. Em 1947, Stueckelberg também desenvolveu de forma independente um procedimento de renormalização completo. Infelizmente, tais conquistas não foram compreendidas e reconhecidas pela comunidade teórica.

Face a estes infinitos, John Archibald Wheeler e Heisenberg propôs, em 1937 e 1943 respectivamente, para suplantar o QFT problemática com a chamada teoria S-matriz . Uma vez que os detalhes específicos das interações microscópicas são inacessíveis às observações, a teoria deve apenas tentar descrever as relações entre um pequeno número de observáveis ( por exemplo, a energia de um átomo) em uma interação, em vez de se preocupar com as minúcias microscópicas da interação . Em 1945, Richard Feynman e Wheeler ousadamente sugeriram abandonar totalmente o QFT e propuseram a ação à distância como o mecanismo de interação das partículas.

Em 1947, Willis Lamb e Robert Retherford mediram a diferença de minuto nos níveis de energia 2 S 1/2 e 2 P 1/2 do átomo de hidrogênio, também chamado de deslocamento de Lamb . Ao ignorar a contribuição dos fótons cuja energia excede a massa do elétron, Hans Bethe estimou com sucesso o valor numérico do deslocamento de Lamb. Posteriormente, Norman Myles Kroll , Lamb, James Bruce French e Victor Weisskopf confirmaram novamente esse valor usando uma abordagem em que infinitos cancelaram outros infinitos para resultar em quantidades finitas. No entanto, esse método era desajeitado e não confiável e não podia ser generalizado para outros cálculos.

A descoberta veio por volta de 1950, quando um método mais robusto para eliminar infinitos foi desenvolvido por Julian Schwinger , Richard Feynman , Freeman Dyson e Shinichiro Tomonaga . A ideia principal é substituir os valores calculados de massa e carga, embora possam ser infinitos, por seus valores medidos finitos. Este procedimento computacional sistemático é conhecido como renormalização e pode ser aplicado à ordem arbitrária na teoria das perturbações. Como Tomonaga disse em sua palestra no Nobel:

Uma vez que aquelas partes da massa modificada e da carga devido às reações de campo [tornam-se infinitas], é impossível calculá-las pela teoria. No entanto, a massa e a carga observadas em experimentos não são a massa e a carga originais, mas a massa e a carga modificadas pelas reações de campo, e são finitas. Por outro lado, a massa e a carga que aparecem na teoria são ... os valores modificados pelas reações de campo. Sendo assim, e particularmente porque a teoria é incapaz de calcular a massa e carga modificadas, podemos adotar o procedimento de substituí-los fenomenologicamente por valores experimentais ... Este procedimento é chamado de renormalização de massa e carga ... Depois de muito e trabalhoso cálculos, menos hábeis que os de Schwinger, obtivemos um resultado ... que estava de acordo com [os] americanos.

Aplicando o procedimento de renormalização, cálculos foram finalmente feitos para explicar o momento magnético anômalo do elétron (o desvio do fator g do elétron de 2) e a polarização do vácuo . Esses resultados concordam com as medições experimentais em um grau notável, marcando assim o fim de uma "guerra contra o infinito".

Ao mesmo tempo, Feynman introduziu a formulação integral de caminho da mecânica quântica e os diagramas de Feynman . O último pode ser usado para organizar visualmente e intuitivamente e ajudar a calcular termos na expansão perturbativa. Cada diagrama pode ser interpretado como caminhos de partículas em uma interação, com cada vértice e linha tendo uma expressão matemática correspondente, e o produto dessas expressões fornece a amplitude de espalhamento da interação representada pelo diagrama.

Foi com a invenção do procedimento de renormalização e dos diagramas de Feynman que o QFT finalmente surgiu como uma estrutura teórica completa.

Teoria do campo do operador

Embora a renormalização fosse aceita pela maioria dos físicos como legítima e necessária, Schwinger não gostou. Em uma palestra proferida no Simpósio Internacional de História da Física de Partículas no Fermilab em 1980, ele disse:

A pressão para dar conta desses resultados [experimentais] havia produzido uma certa estrutura teórica que era perfeitamente adequada para a tarefa original, mas exigia simplificação e generalização; uma nova visão era necessária ... Como o chip de silício dos anos mais recentes, o diagrama de Feynman estava trazendo a computação para as massas ... Mas, eventualmente, é preciso juntar tudo novamente, e então a abordagem fragmentada perde um pouco de sua atração ... Teoria quântica de campos deve lidar com os campos de Bose-Einstein e os campos de Fermi-Dirac em uma base totalmente equivalente ... Esse era o meu desafio. - "Teoria da renormalização da eletrodinâmica quântica: uma visão individual" por Julian Schwinger

Esse desafio levou a seis artigos sobre "A teoria dos campos quantizados" publicados na Physical Review em 1951-54. Schwinger sentiu que essa nova teoria era muito mais importante do que o trabalho de renormalização pelo qual ele havia recebido o Prêmio Nobel. Na verdade, ele dedicou seu discurso no Nobel em 1965 para descrever este trabalho, assim como Einstein havia falado sobre relatividade em seu discurso no Nobel e não sobre a teoria do efeito fotoelétrico pela qual ele recebeu o prêmio.

A teoria quântica relativística dos campos nasceu há cerca de trinta e cinco anos por meio dos esforços paternos de Dirac, Heisenberg, Pauli e outros. Era um jovem um tanto retardado, porém, e chegou à adolescência dezessete anos depois, evento que estamos aqui reunidos para celebrar. Mas é o desenvolvimento subsequente e a fase mais madura do assunto que desejo discutir brevemente hoje.

Na versão do QFT de Schwinger, os campos não são descritos por números simples; eles são descritos por vetores em um espaço de Hilbert de dimensão infinita, e para cada campo há um operador correspondente que atua sobre esses vetores - daí o nome de Schwinger "Operator Field Theory". Esse uso do espaço de Hilbert leva ao conceito de quanta de campo:

... esses dois conceitos clássicos distintos [partículas e ondas] são fundidos e se tornam transcendidos em algo que não tem uma contraparte clássica - o campo quantizado que é uma nova concepção própria, uma unidade que substitui a dualidade clássica.

Os quanta são às vezes chamados de excitações em um campo, mas isso não conta toda a história. Cada quantum é uma unidade holística de campo que não pode ser subdividida.

Um elétron é uma ondulação quantizada do campo quântico do elétron, que atua como uma partícula porque viaja holisticamente com suas quantidades conservadas sempre sustentadas como uma unidade.

Um quantum ... tem um caráter de tudo ou nada: está totalmente presente ou totalmente ausente. Você não pode ter apenas parte de um fóton. Esse caráter de tudo ou nada implica que você deve adicionar ou remover um quantum inteiro instantaneamente ... mesmo que esteja espalhado por muitos quilômetros. Você não pode alterar parte de um quantum porque ele não tem partes; é uma única coisa.

Apesar do sucesso da teoria de Schwinger em responder aos paradoxos e mistérios da Mecânica Quântica, ela agora é amplamente negligenciada ou esquecida. Um dos motivos é que a ideia de colapso instantâneo é preocupante para muitos físicos, incluindo Einstein, que a chamou de ação fantasmagórica à distância. No entanto, é um fato experimental, e não viola o princípio da Relatividade, pois nenhuma informação é transmitida no processo. Remover um campo antes que ele tivesse a chance de fazer alguma coisa, ou mudar o spin (ou outra propriedade) de um campo antes de ele ter mudado alguma coisa não é o mesmo que mudar algo que já aconteceu.

Outra razão é que este trabalho posterior de Schwinger não foi bem compreendido na comunidade da física.

E então uma tragédia se seguiu. A necessidade [de Schwinger] de fazer as coisas à sua maneira o fez desenvolver sua própria linguagem, suas próprias abordagens e técnicas ... À medida que ele ficava mais isolado, menos pessoas entendiam e falavam as novas línguas que ele criou ... contribuindo para seu maior isolamento ... Foi um perda mútua, pois tanto Schwinger quanto a comunidade eram os perdedores.

Não renormalizabilidade

Dado o tremendo sucesso do QED, muitos teóricos acreditavam, nos poucos anos após 1949, que o QFT poderia em breve fornecer uma compreensão de todos os fenômenos microscópicos, não apenas das interações entre fótons, elétrons e pósitrons. Contrariando esse otimismo, o QFT entrou em mais um período de depressão que durou quase duas décadas.

O primeiro obstáculo era a aplicabilidade limitada do procedimento de renormalização. Em cálculos perturbativos em QED, todas as quantidades infinitas poderiam ser eliminadas pela redefinição de um pequeno número (finito) de quantidades físicas (a saber, a massa e a carga do elétron). Dyson provou em 1949 que isso só é possível para uma pequena classe de teorias chamadas "teorias renormalizáveis", das quais a QED é um exemplo. No entanto, a maioria das teorias, incluindo a teoria de Fermi da interação fraca , são "não renormalizáveis". Qualquer cálculo perturbativo nessas teorias além da primeira ordem resultaria em infinitos que não poderiam ser removidos pela redefinição de um número finito de quantidades físicas.

O segundo grande problema resultou da validade limitada do método do diagrama de Feynman, que se baseia em uma expansão em série na teoria de perturbação. Para que a série convirja e os cálculos de ordem inferior sejam uma boa aproximação, a constante de acoplamento , na qual a série é expandida, deve ser um número suficientemente pequeno. A constante de acoplamento em QED é a constante de estrutura fina α ≈ 1/137 , que é pequena o suficiente para que apenas os diagramas de Feynman mais simples e de ordem inferior precisem ser considerados em cálculos realistas. Em contraste, a constante de acoplamento na interação forte é aproximadamente da ordem de um, tornando os diagramas de Feynman complicados e de ordem superior tão importantes quanto os simples. Não havia, portanto, nenhuma maneira de derivar previsões quantitativas confiáveis ​​para a interação forte usando métodos QFT perturbativos.

Com essas dificuldades surgindo, muitos teóricos começaram a se afastar do QFT. Alguns se concentraram em princípios de simetria e leis de conservação , enquanto outros adotaram a velha teoria da matriz S de Wheeler e Heisenberg. O QFT foi usado heuristicamente como princípios orientadores, mas não como base para cálculos quantitativos.

Schwinger, no entanto, escolheu um caminho diferente. Por mais de uma década, ele e seus alunos foram quase os únicos expoentes da teoria de campo, mas em 1966 ele encontrou uma maneira de contornar o problema dos infinitos com um novo método que chamou de teoria da fonte. Os desenvolvimentos na física pion, em que o novo ponto de vista foi aplicado com mais sucesso, o convenceram das grandes vantagens da simplicidade matemática e da clareza conceitual que seu uso proporcionava.

Na teoria da fonte, não há divergências e nem renormalização. Pode ser considerada a ferramenta de cálculo da teoria de campo, mas é mais geral. Usando a teoria da fonte, Schwinger foi capaz de calcular o momento magnético anômalo do elétron, o que ele havia feito em 1947, mas desta vez sem "observações perturbadoras" sobre quantidades infinitas.

Schwinger também aplicou a teoria da fonte à sua teoria da gravidade QFT e foi capaz de reproduzir todos os quatro resultados clássicos de Einstein: desvio para o vermelho gravitacional, deflexão e desaceleração da luz pela gravidade e a precessão do periélio de Mercúrio. A negligência da teoria da fonte pela comunidade da física foi uma grande decepção para Schwinger:

A falta de apreciação desses fatos por outras pessoas era deprimente, mas compreensível. - J. Schwinger

Modelo Padrão

Partículas elementares do modelo padrão : seis tipos de quarks , seis tipos de léptons , quatro tipos de bósons de calibre que carregam interações fundamentais , assim como o bóson de Higgs , que confere massa às partículas elementares.

Em 1954, Yang Chen-Ning e Robert Mills generalizaram a simetria local de QED, levando a teorias de calibre não Abelianas (também conhecidas como teorias de Yang-Mills), que são baseadas em grupos de simetria local mais complicados . No QED, as partículas carregadas (eletricamente) interagem por meio da troca de fótons, enquanto na teoria de calibre não Abeliana, as partículas que carregam um novo tipo de " carga " interagem por meio da troca de bósons de calibre sem massa . Ao contrário dos fótons, esses próprios bósons de calibre carregam carga.

Sheldon Glashow desenvolveu uma teoria de calibre não Abeliana que unificou as interações eletromagnética e fraca em 1960. Em 1964, Abdus Salam e John Clive Ward chegaram à mesma teoria por um caminho diferente. Essa teoria, no entanto, não era renormalizável.

Peter Higgs , Robert Brout , François Englert , Gerald Guralnik , Carl Hagen e Tom Kibble propuseram em seus famosos artigos da Physical Review Letters que a simetria de calibre nas teorias de Yang-Mills poderia ser quebrada por um mecanismo chamado quebra de simetria espontânea , através do qual originalmente sem massa bósons de calibre podem adquirir massa.

Ao combinar a teoria anterior de Glashow, Salam e Ward com a ideia de quebra espontânea de simetria, Steven Weinberg escreveu em 1967 uma teoria que descreve as interações eletrofracas entre todos os léptons e os efeitos do bóson de Higgs . A princípio, sua teoria foi quase totalmente ignorada, até que foi trazida de volta à luz em 1971 pela prova de Gerard 't Hooft de que as teorias de calibre não-Abelianas são renormalizáveis. A teoria eletrofraca de Weinberg e Salam foi estendida de léptons a quarks em 1970 por Glashow, John Iliopoulos e Luciano Maiani , marcando sua conclusão.

Harald Fritzsch , Murray Gell-Mann e Heinrich Leutwyler descobriram em 1971 que certos fenômenos envolvendo a interação forte também poderiam ser explicados pela teoria de calibre não Abeliana. Nasceu a cromodinâmica quântica (QCD). Em 1973, David Gross , Frank Wilczek e Hugh David Politzer mostraram que as teorias de calibre não-Abelianas são " assintoticamente livres ", o que significa que sob renormalização, a constante de acoplamento da interação forte diminui à medida que a energia de interação aumenta. (Descobertas semelhantes foram feitas inúmeras vezes antes, mas foram amplamente ignoradas.) Portanto, pelo menos em interações de alta energia, a constante de acoplamento em QCD torna-se suficientemente pequena para garantir uma expansão de série perturbativa, fazendo previsões quantitativas para a interação forte possível.

Esses avanços teóricos trouxeram um renascimento no QFT. A teoria completa, que inclui a teoria eletrofraca e cromodinâmica, é conhecida hoje como o modelo padrão de partículas elementares. O Modelo Padrão descreve com sucesso todas as interações fundamentais, exceto a gravidade , e suas muitas previsões foram recebidas com confirmação experimental notável nas décadas subsequentes. O bóson de Higgs , central para o mecanismo de quebra espontânea de simetria, foi finalmente detectado em 2012 no CERN , marcando a verificação completa da existência de todos os constituintes do Modelo Padrão.

Outros desenvolvimentos

A década de 1970 viu o desenvolvimento de métodos não perturbativos em teorias de calibre não Abelianas. O monopolo 't Hooft – Polyakov foi descoberto teoricamente por' t Hooft e Alexander Polyakov , tubos de fluxo por Holger Bech Nielsen e Poul Olesen e instantons por Polyakov e co-autores. Esses objetos são inacessíveis pela teoria da perturbação.

A supersimetria também apareceu no mesmo período. O primeiro QFT supersimétrico em quatro dimensões foi construído por Yuri Golfand e Evgeny Likhtman em 1970, mas seu resultado não atraiu grande interesse devido à Cortina de Ferro . A supersimetria só decolou na comunidade teórica após os trabalhos de Julius Wess e Bruno Zumino em 1973.

Entre as quatro interações fundamentais, a gravidade continua sendo a única que carece de uma descrição QFT consistente. Várias tentativas de uma teoria da gravidade quântica levaram ao desenvolvimento da teoria das cordas , ela própria um tipo de QFT bidimensional com simetria conforme . Joël Scherk e John Schwarz propuseram pela primeira vez em 1974 que a teoria das cordas poderia ser a teoria quântica da gravidade.

Física de matéria condensada

Embora a teoria quântica de campos tenha surgido do estudo das interações entre partículas elementares, ela foi aplicada com sucesso a outros sistemas físicos, particularmente a sistemas de muitos corpos na física da matéria condensada .

Historicamente, o mecanismo de Higgs de quebra espontânea de simetria foi resultado da aplicação de Yoichiro Nambu da teoria dos supercondutores às partículas elementares, enquanto o conceito de renormalização surgiu do estudo das transições de fase de segunda ordem na matéria.

Logo após a introdução dos fótons, Einstein realizou o procedimento de quantização das vibrações de um cristal, dando origem à primeira quase - partícula - os fônons . Lev Landau afirmou que as excitações de baixa energia em muitos sistemas de matéria condensada poderiam ser descritas em termos de interações entre um conjunto de quase-partículas. O método do diagrama de Feynman de QFT foi naturalmente bem adequado para a análise de vários fenômenos em sistemas de matéria condensada.

A teoria de Gauge é usada para descrever a quantização do fluxo magnético em supercondutores, a resistividade no efeito Hall quântico , bem como a relação entre frequência e tensão no efeito AC Josephson .

Princípios

Para simplificar, unidades naturais são usadas nas seções a seguir, nas quais a constante de Planck reduzida ħ e a velocidade da luz c são definidas como um.

Campos clássicos

Um campo clássico é uma função de coordenadas espaciais e temporais. Os exemplos incluem o campo gravitacional na gravidade newtoniana g ( x , t ) e o campo elétrico E ( x , t ) e o campo magnético B ( x , t ) no eletromagnetismo clássico . Um campo clássico pode ser pensado como uma quantidade numérica atribuída a cada ponto no espaço que muda com o tempo. Conseqüentemente, ele possui infinitos graus de liberdade .

Muitos fenômenos que exibem propriedades da mecânica quântica não podem ser explicados apenas pelos campos clássicos. Fenômenos como o efeito fotoelétrico são melhor explicados por partículas discretas ( fótons ), ao invés de um campo espacialmente contínuo. O objetivo da teoria quântica de campos é descrever vários fenômenos da mecânica quântica usando um conceito modificado de campos.

Quantização canônica e integrais de caminho são duas formulações comuns de QFT. Para motivar os fundamentos do QFT, uma visão geral da teoria de campo clássica é necessária.

O campo clássico mais simples é um campo escalar real - um número real em cada ponto no espaço que muda com o tempo. É denotado como ϕ ( x , t ) , onde x é o vetor posição e t é o tempo. Suponha que o Lagrangiano do campo ,, seja

onde é a densidade Lagrangiana, é a derivada do campo no tempo, é o operador gradiente e m é um parâmetro real (a "massa" do campo). Aplicando a equação de Euler-Lagrange no Lagrange:

obtemos as equações de movimento para o campo, que descrevem a maneira como ele varia no tempo e no espaço:

Isso é conhecido como equação de Klein-Gordon .

A equação de Klein-Gordon é uma equação de onda , portanto, suas soluções podem ser expressas como uma soma dos modos normais (obtidos por meio da transformada de Fourier ) da seguinte forma:

onde a é um número complexo (normalizado por convenção), * denota conjugação complexa e ω p é a frequência do modo normal:

Assim, cada modo normal correspondente a um único p pode ser visto como um oscilador harmônico clássico com frequência ω p .

Quantização canônica

O procedimento de quantização do campo clássico acima para um campo de operador quântico é análogo à promoção de um oscilador harmônico clássico para um oscilador harmônico quântico .

O deslocamento de um oscilador harmônico clássico é descrito por

onde a é um número complexo (normalizado por convenção) e ω é a frequência do oscilador. Observe que x é o deslocamento de uma partícula em movimento harmônico simples da posição de equilíbrio, não deve ser confundido com o rótulo espacial x de um campo quântico.

Para um oscilador harmônico quântico, x ( t ) é promovido a um operador linear :

Os números complexos a e a * são substituídos pelo operador de aniquilação e o operador de criação , respectivamente, onde denota a conjugação hermitiana . A relação de comutação entre os dois é

O estado de vácuo , que é o estado de menor energia, é definido por

Qualquer estado quântico de um único oscilador harmônico pode ser obtido aplicando sucessivamente o operador de criação :

Da mesma forma, o supracitado campo escalar real ϕ , que corresponde ax no oscilador harmônico único, também é promovido a um operador de campo quântico , enquanto o operador de aniquilação , o operador de criação e a frequência angular são agora para um determinado p :

Suas relações de comutação são:

onde δ é a função delta de Dirac . O estado de vácuo é definido por

Qualquer estado quântico do campo pode ser obtido através da aplicação sucessiva de operadores de criação , por exemplo

Embora o campo quântico que aparece no Lagrangiano seja espacialmente contínuo, os estados quânticos do campo são discretos. Enquanto o espaço de estado de um único oscilador harmônico quântico contém todos os estados de energia discretos de uma partícula oscilante, o espaço de estado de um campo quântico contém os níveis de energia discretos de um número arbitrário de partículas. O último espaço é conhecido como espaço Fock , o que pode explicar o fato de que os números de partículas não são fixos em sistemas quânticos relativísticos. O processo de quantizar um número arbitrário de partículas em vez de uma única partícula é freqüentemente também chamado de segunda quantização .

O procedimento anterior é uma aplicação direta da mecânica quântica não relativística e pode ser usado para quantizar campos escalares (complexos), campos de Dirac , campos vetoriais ( por exemplo, o campo eletromagnético) e até mesmo cordas . No entanto, os operadores de criação e aniquilação são bem definidos apenas nas teorias mais simples que não contêm interações (a chamada teoria livre). No caso do campo escalar real, a existência desses operadores foi consequência da decomposição das soluções das equações clássicas de movimento em uma soma de modos normais. Para realizar cálculos em qualquer teoria de interação realista, a teoria de perturbação seria necessária.

O Lagrangiano de qualquer campo quântico na natureza conteria termos de interação além dos termos da teoria livre. Por exemplo, um termo de interação quártica pode ser introduzido no Lagrangiano do campo escalar real:

onde μ é um índice de espaço-tempo , etc. A soma sobre o índice μ foi omitida seguindo a notação de Einstein . Se o parâmetro λ é suficientemente pequeno, então a teoria de interação descrita pelo Lagrangiano acima pode ser considerada como uma pequena perturbação da teoria livre.

Integrais de caminho

A formulação da integral de caminho de QFT está preocupada com o cálculo direto da amplitude de espalhamento de um determinado processo de interação, ao invés do estabelecimento de operadores e espaços de estado. Para calcular a amplitude de probabilidade de um sistema evoluir de algum estado inicial no tempo t = 0 para algum estado final em t = T , o tempo total T é dividido em N pequenos intervalos. A amplitude total é o produto da amplitude de evolução dentro de cada intervalo, integrada sobre todos os estados intermediários. Seja H o hamiltoniano ( ou seja, gerador de evolução no tempo ), então

Tomando o limite N → ∞ , o produto acima das integrais torna-se a integral do caminho de Feynman:

onde L é a Lagrangiana envolvendo ϕ e suas derivadas em relação às coordenadas espaciais e temporais, obtidas da Hamiltoniana H via transformação de Legendre . As condições iniciais e finais da integral do caminho são respectivamente

Em outras palavras, a amplitude total é a soma da amplitude de cada caminho possível entre os estados inicial e final, onde a amplitude de um caminho é dada pelo exponencial no integrando.

Função de correlação de dois pontos

Nos cálculos, muitas vezes encontramos expressões como

na teoria livre ou interagente, respectivamente. Aqui, e são posições de quatro vectores , é o tempo de ordenação operador que baralha seus operandos assim o tempo-componentes e aumento da direita para a esquerda, e é o estado fundamental (estado de vácuo) da teoria interagindo, diferente do estado do solo livre . Essa expressão representa a amplitude de probabilidade do campo se propagar de y para x , e tem vários nomes, como o propagador de dois pontos , função de correlação de dois pontos , função de Green de dois pontos ou função de dois pontos para abreviar.

A função de dois pontos livre, também conhecida como propagador de Feynman , pode ser encontrada para o campo escalar real por quantização canônica ou integrais de caminho para ser

Em uma teoria de interação, onde a Lagrangiana ou Hamiltoniana contém termos ou que descrevem interações, a função de dois pontos é mais difícil de definir. No entanto, tanto por meio da formulação de quantização canônica quanto da formulação da integral de caminho, é possível expressá-la por meio de uma série infinita de perturbações da função de dois pontos

livres .

Na quantização canônica, a função de correlação de dois pontos pode ser escrita como:

onde ε é um número infinitesimal e ϕ I é o operador de campo sob a teoria livre. Aqui, o exponencial deve ser entendido como sua expansão em série de potências . Por exemplo, na teoria, o termo de interação do hamiltoniano é , e a expansão do correlacionador de dois pontos em termos de torna-se

Essa expansão de perturbação expressa a função de dois pontos em interação em termos de quantidades que são avaliadas na teoria
livre .


Na formulação integral do caminho, a função de correlação de dois pontos pode ser escrita

onde está a densidade Lagrangiana. Como no parágrafo anterior, o exponencial pode ser expandido como uma série em

λ , reduzindo a função de dois pontos de interação a quantidades na teoria livre.

O teorema de Wick reduz ainda mais qualquer função de correlação de n pontos na teoria livre a uma soma de produtos de funções de correlação de dois pontos. Por exemplo,

Uma vez que as funções de correlação interagentes podem ser expressas em termos de funções de correlação livres, apenas as últimas precisam ser avaliadas a fim de calcular todas as quantidades físicas na teoria de interação (perturbativa). Isso torna o propagador de Feynman uma das quantidades mais importantes na teoria quântica de campos.

Diagrama de Feynman

As funções de correlação na teoria de interação podem ser escritas como uma série de perturbações. Cada termo da série é um produto dos propagadores de Feynman na teoria livre e pode ser representado visualmente por um diagrama de Feynman . Por exemplo, o termo λ 1 na função de correlação de dois pontos na teoria ϕ 4 é

Depois de aplicar o teorema de Wick, um dos termos é

Este termo pode ser obtido no diagrama de Feynman

Phi-4 one-loop.svg.

O diagrama consiste em

  • vértices externos conectados com uma aresta e representados por pontos (aqui identificados como e ).
  • vértices internos conectados com quatro arestas e representados por pontos (aqui rotulados ).
  • arestas conectando os vértices e representadas por linhas.

Cada vértice corresponde a um único fator de campo no ponto correspondente no espaço-tempo, enquanto as arestas correspondem aos propagadores entre os pontos do espaço-tempo. O termo na série de perturbações correspondente ao diagrama é obtido escrevendo a expressão que segue das

regras de Feynman :
  1. Para cada vértice interno , anote um fator .
  2. Para cada aresta que conecta dois vértices e , anote um fator .
  3. Divida pelo fator de simetria do diagrama.

Com o fator de simetria , seguir essas regras produz exatamente a expressão acima. Ao transformar o propagador de Fourier, as regras de Feynman podem ser reformuladas de espaço de posição para espaço de momento.

Para calcular a função de correlação de n pontos para a ordem k , liste todos os diagramas de Feynman válidos com n pontos externos ek ou menos vértices e, em seguida, use as regras de Feynman para obter a expressão para cada termo. Para ser mais preciso,

é igual à soma de (expressões correspondentes a) todos os diagramas conectados com n pontos externos. (Diagramas conectados são aqueles em que cada vértice está conectado a um ponto externo por meio de linhas. Os componentes totalmente desconectados das linhas externas são às vezes chamados de "bolhas de vácuo".) Na teoria de interação ϕ 4 discutida acima, cada vértice deve ter quatro pernas .

Em aplicações realistas, a amplitude de espalhamento de uma determinada interação ou a taxa de

decaimento de uma partícula pode ser calculada a partir da matriz S , que por sua vez pode ser encontrada usando o método do diagrama de Feynman.

Os diagramas de Feynman desprovidos de "loops" são chamados de diagramas em nível de árvore, que descrevem os processos de interação de ordem inferior; aqueles contendo n lacetes são referidos como n -loop diagramas, que descrevem as contribuições de ordem superior, ou correcções radiativos, para a interacção. As linhas cujos pontos finais são vértices podem ser consideradas como a propagação de partículas virtuais .

Renormalização

As regras de Feynman podem ser usadas para avaliar diretamente os diagramas em nível de árvore. No entanto, o cálculo ingênuo de diagramas de loop, como o mostrado acima, resultará em integrais de momento divergentes, o que parece implicar que quase todos os termos na expansão perturbativa são infinitos. O procedimento de renormalização é um processo sistemático para remover tais infinitos.

Os parâmetros que aparecem no Lagrangiano, como a massa m e a constante de acoplamento λ , não têm significado físico - m , λ e a intensidade do campo ϕ não são quantidades mensuráveis ​​experimentalmente e são referidos aqui como a massa nua, constante de acoplamento nua, e campo vazio, respectivamente. A massa física e a constante de acoplamento são medidas em algum processo de interação e geralmente são diferentes das quantidades básicas. Ao calcular as quantidades físicas a partir deste processo de interação, pode-se limitar o domínio de integrais de momento divergentes para ficar abaixo de algum corte de momento Λ , obter expressões para as quantidades físicas e, em seguida, tomar o limite Λ → ∞ . Este é um exemplo de regularização , uma classe de métodos para tratar divergências em QFT, com Λ sendo o regulador.

A abordagem ilustrada acima é chamada de teoria de perturbação simples, pois os cálculos envolvem apenas as quantidades básicas, como massa e constante de acoplamento. Uma abordagem diferente, chamada teoria de perturbação renormalizada, é usar quantidades fisicamente significativas desde o início. No caso da teoria ϕ 4 , a intensidade do campo é primeiro redefinida:

onde ϕ é o campo vazio ,

ϕ r é o campo renormalizado e Z é uma constante a ser determinada. A densidade Lagrangiana torna-se:

onde m r e λ r são a constante mensurável experimentalmente, renormalizada, de massa e de acoplamento, respectivamente, e

são constantes a serem determinadas. Os primeiros três termos são a densidade Lagrangiana ϕ 4 escrita em termos das quantidades renormalizadas, enquanto os três últimos termos são referidos como "contra-termos". Como o Lagrangiano agora contém mais termos, os diagramas de Feynman devem incluir elementos adicionais, cada um com suas próprias regras de Feynman. O procedimento é descrito a seguir. Primeiro, selecione um esquema de regularização (como a regularização de corte introduzida acima ou a regularização dimensional ); chame o regulador Λ . Calcule diagramas de Feynman, nos quais termos divergentes dependerão de Λ . Em seguida, defina δ Z , δ m e δ λ de forma que os diagramas de Feynman para os contra-termos irão cancelar exatamente os termos divergentes nos diagramas de Feynman normais quando o limite Λ → ∞ for tomado. Desta forma, quantidades finitas significativas são obtidas.

Só é possível eliminar todos os infinitos para obter um resultado finito em teorias renormalizáveis, ao passo que em teorias não renormalizáveis ​​os infinitos não podem ser removidos pela redefinição de um pequeno número de parâmetros. O modelo padrão de partículas elementares é um QFT renormalizável, enquanto a gravidade quântica não é renormalizável.

Grupo de renormalização

O grupo de renormalização , desenvolvido por Kenneth Wilson , é um aparato matemático usado para estudar as mudanças nos parâmetros físicos (coeficientes no Lagrangiano) conforme o sistema é visto em diferentes escalas. A maneira como cada parâmetro muda com a escala é descrita por sua

função β . As funções de correlação, que fundamentam as previsões físicas quantitativas, mudam com a escala de acordo com a equação de Callan-Symanzik .

Como exemplo, a constante de acoplamento em QED, ou seja, a carga elementar e , tem a seguinte função β :

onde Λ é a escala de energia sob a qual a medição de e é realizada. Esta equação diferencial implica que a carga elementar observada aumenta à medida que a escala aumenta. A constante de acoplamento renormalizada, que muda com a escala de energia, também é chamada de constante de acoplamento em execução.

A constante de acoplamento g na cromodinâmica quântica , uma teoria de calibre não Abeliana baseada no grupo de simetria SU (3) , tem a seguinte função β :

onde N f é o número de sabores de quark . No caso em que N f ≤ 16 (o modelo padrão tem N f = 6 ), a constante de acoplamento g diminui à medida que a escala de energia aumenta. Portanto, embora a interação forte seja forte em baixas energias, ela se torna muito fraca em interações de alta energia, um fenômeno conhecido como liberdade assintótica .

Teorias de campo conformes (CFTs) são QFTs especiais que admitem simetria conforme . Eles são insensíveis a mudanças na escala, já que todas as suas constantes de acoplamento têm função β evanescente . (O inverso não é verdadeiro, entretanto - o desaparecimento de todas as funções β não implica em simetria conforme da teoria.) Os exemplos incluem a teoria das cordas e a teoria supersimétrica de Yang-Mills N = 4 .

De acordo com a imagem de Wilson, todo QFT é fundamentalmente acompanhado por seu corte de energia Λ , ou seja , que a teoria não é mais válida para energias superiores a Λ , e todos os graus de liberdade acima da escala Λ devem ser omitidos. Por exemplo, o corte poderia ser o inverso do espaçamento atômico em um sistema de matéria condensada e, na física de partículas elementares, poderia estar associado à "granulação" fundamental do espaço-tempo causada por flutuações quânticas na gravidade. A escala de corte das teorias de interação de partículas está muito além dos experimentos atuais. Mesmo que a teoria fosse muito complicada nessa escala, desde que seus acoplamentos sejam suficientemente fracos, ela deve ser descrita em baixas energias por uma teoria de campo eficaz renormalizável . A diferença entre teorias renormalizáveis ​​e não renormalizáveis ​​é que as primeiras são insensíveis aos detalhes em altas energias, enquanto as últimas dependem deles. De acordo com essa visão, as teorias não renormalizáveis ​​devem ser vistas como teorias eficazes de baixa energia de uma teoria mais fundamental. A falha em remover o ponto de corte Λ dos cálculos em tal teoria apenas indica que novos fenômenos físicos aparecem em escalas acima de Λ , onde uma nova teoria é necessária.

Outras teorias

Os procedimentos de quantificação e renormalisation delineados nas secções anteriores são realizados para a teoria livre e & Phi 4 teoria do campo escalar real. Um processo semelhante pode ser feito para outros tipos de campos, incluindo o campo escalar complexo , o campo vetorial e o campo de Dirac , bem como outros tipos de termos de interação, incluindo a interação eletromagnética e a interação de Yukawa .

Como exemplo, a eletrodinâmica quântica contém um campo de Dirac ψ que representa o campo de elétrons e um campo de vetor A μ que representa o campo eletromagnético ( campo de fótons ). (Apesar do nome, o "campo" eletromagnético quântico na verdade corresponde ao quatro potencial eletromagnético clássico , em vez dos campos elétricos e magnéticos clássicos.) A densidade Lagrangiana QED completa é:

onde y u são matrizes de Dirac , e representa a força do campo electromagnético . Os parâmetros desta teoria são o (nu) massa de electrões m e o (nu) elementar carga de e . O primeiro e o segundo termos na densidade Lagrangiana correspondem ao campo de Dirac livre e aos campos de vetor livre, respectivamente. O último termo descreve a interação entre os campos de elétrons e fótons, que é tratada como uma perturbação das teorias livres.

ElectronPositronAnnihilation.svg

Acima está um exemplo de diagrama de Feynman em nível de árvore no QED. Ele descreve a aniquilação de um elétron e de um pósitron, criando um fóton fora da camada e, em seguida, decaindo em um novo par de elétron e pósitron. O tempo corre da esquerda para a direita. As setas que apontam para a frente no tempo representam a propagação dos pósitrons, enquanto as que apontam para trás no tempo representam a propagação dos elétrons. Uma linha ondulada representa a propagação de um fóton. Cada vértice nos diagramas de Feynman QED deve ter uma perna de férmion de entrada e de saída (pósitron / elétron), bem como uma perna de fóton.

Simetria de calibre

Se a seguinte transformação para os campos for realizada em cada ponto do espaço-tempo x (uma transformação local), então o QED Lagrangiano permanece inalterado ou invariante:

onde α ( x ) é qualquer função das coordenadas do espaço-tempo. Se o Lagrangiano de uma teoria (ou mais precisamente a ação ) é invariante sob uma certa transformação local, então a transformação é referida como uma simetria de calibre da teoria. As simetrias de calibre formam um grupo em cada ponto do espaço-tempo. No caso do QED, a aplicação sucessiva de duas transformações de simetria locais diferentes e é mais uma transformação de simetria . Para qualquer α ( x ) , é um elemento do grupo U (1) , portanto, QED é dito ter simetria de calibre U (1) . O campo de fótons A μ pode ser referido como o bóson de calibre U (1) .

U (1) é um grupo Abeliano , o que significa que o resultado é o mesmo, independentemente da ordem em que seus elementos são aplicados. QFTs também podem ser construídos em grupos não Abelianos , dando origem a teorias de calibre não Abelianas (também conhecidas como teorias de Yang-Mills). A cromodinâmica quântica , que descreve a interação forte, é uma teoria de calibre não Abeliana com uma simetria de calibre SU (3) . Ele contém três campos de Dirac ψ i , i = 1,2,3 representando campos de quark , bem como oito campos de vetor A a, μ , a = 1, ..., 8 representando campos de glúons , que são o medidor SU (3) bósons. A densidade Lagrangiana QCD é:

onde D μ é a derivada covariante de calibre :

onde g é a constante de acoplamento, t a são os oito geradores de SU (3) na representação fundamental ( matrizes 3 × 3 ),

e f abc são as constantes de estrutura de SU (3) . Índices repetidos i , j , a são implicitamente somados seguindo a notação de Einstein. Este Lagrangiano é invariante sob a transformação:

onde U ( x ) é um elemento de SU (3) em cada ponto do espaço-tempo x :

A discussão anterior sobre simetrias está no nível de Lagrangiana. Em outras palavras, são simetrias "clássicas". Após a quantização, algumas teorias não exibirão mais suas simetrias clássicas, fenômeno denominado anomalia . Por exemplo, na formulação da integral de caminho, apesar da invariância da densidade Lagrangiana sob uma certa transformação local dos campos, a medida da integral de caminho pode mudar. Para uma teoria que descreve a natureza ser consistente, ela não deve conter nenhuma anomalia em sua simetria de calibre. O modelo padrão de partículas elementares é uma teoria de calibre baseada no grupo SU (3) × SU (2) × U (1) , em que todas as anomalias se cancelam exatamente.

O fundamento teórico da relatividade geral , o princípio da equivalência , também pode ser entendido como uma forma de simetria de calibre, fazendo da relatividade geral uma teoria de calibre baseada no grupo de Lorentz .

O teorema de Noether afirma que toda simetria contínua, ou seja , o parâmetro na transformação de simetria sendo contínuo em vez de discreto, leva a uma lei de conservação correspondente . Por exemplo, a simetria U (1) de QED implica conservação de carga .

As transformações de calibre não relacionam estados quânticos distintos. Em vez disso, relaciona duas descrições matemáticas equivalentes do mesmo estado quântico. Como exemplo, o campo de fótons A μ , sendo um vetor de quatro , tem quatro graus de liberdade aparentes, mas o estado real de um fóton é descrito por seus dois graus de liberdade correspondentes à polarização . Os dois graus de liberdade restantes são considerados "redundantes" - maneiras aparentemente diferentes de escrever A μ podem estar relacionadas entre si por uma transformação de calibre e, de fato, descrever o mesmo estado do campo de fótons. Nesse sentido, a invariância de calibre não é uma simetria "real", mas um reflexo da "redundância" da descrição matemática escolhida.

Para contabilizar a redundância do medidor na formulação integral do caminho, deve-se realizar o chamado procedimento de fixação do medidor de Faddeev-Popov . Em teorias de calibre não Abelianas, tal procedimento introduz novos campos chamados "fantasmas". As partículas correspondentes aos campos fantasmas são chamadas de partículas fantasmas, que não podem ser detectadas externamente. Uma generalização mais rigorosa do procedimento Faddeev-Popov é dada pela quantização BRST .

Quebra espontânea de simetria

A quebra espontânea de simetria é um mecanismo pelo qual a simetria do Lagrangiano é violada pelo sistema por ele descrito.

Para ilustrar o mecanismo, considere um modelo sigma linear contendo N campos escalares reais, descritos pela densidade Lagrangiana:

onde μ e λ são parâmetros reais. A teoria admite uma simetria global O ( N ) :

O estado de energia mais baixo (estado fundamental ou estado de vácuo) da teoria clássica é qualquer campo uniforme ϕ 0 satisfazendo

Sem perda de generalidade, deixe o estado fundamental estar na direção N :

Os N campos originais podem ser reescritos como:

e a densidade Lagrangiana original como:

onde k = 1, ..., N -1 . A simetria global O ( N ) original não se manifesta mais, restando apenas o subgrupo O ( N -1) . A simetria maior antes da quebra espontânea de simetria é considerada "oculta" ou quebrada espontaneamente.

O teorema de Goldstone afirma que, sob a quebra espontânea da simetria, toda simetria global contínua quebrada leva a um campo sem massa denominado bóson de Goldstone. No exemplo acima, O ( N ) tem N ( N -1) / 2 simetrias contínuas (a dimensão de sua álgebra de Lie ), enquanto O ( N -1) tem ( N -1) ( N -2) / 2 . O número de simetrias quebradas é sua diferença, N -1 , que corresponde aos N -1 campos sem massa π k .

Por outro lado, quando uma simetria de calibre (em oposição à global) é quebrada espontaneamente, o bóson de Goldstone resultante é "comido" pelo bóson de calibre correspondente, tornando-se um grau adicional de liberdade para o bóson de calibre. O teorema de equivalência do bóson de Goldstone afirma que em alta energia, a amplitude de emissão ou absorção de um bóson de calibre maciço polarizado longitudinalmente torna-se igual à amplitude de emissão ou absorção do bóson de Goldstone que foi comido pelo bóson de calibre.

No QFT do ferromagnetismo , a quebra espontânea da simetria pode explicar o alinhamento dos dipolos magnéticos a baixas temperaturas. No modelo padrão de partículas elementares, os bósons W e Z , que de outra forma não teriam massa como resultado da simetria de calibre, adquirem massa por meio da quebra espontânea da simetria do bóson de Higgs , um processo denominado mecanismo de Higgs .

Supersimetria

Todas as simetrias experimentalmente conhecidas na natureza relacionam bósons a bósons e férmions a férmions. Os teóricos levantaram a hipótese da existência de um tipo de simetria, chamada supersimetria , que relaciona bósons e férmions.

O Modelo Padrão obedece à simetria de Poincaré , cujos geradores são as traduções do espaço-tempo P μ e as transformações de Lorentz J μν . Além desses geradores, a supersimetria em (3 + 1) -dimensões inclui geradores adicionais Q α , chamados de supercargas , que se transformam em férmions de Weyl . O grupo de simetria gerado por todos esses geradores é conhecido como grupo super-Poincaré . Em geral, pode haver mais de um conjunto de geradores de supersimetria, Q α I , I = 1, ..., N , que geram a supersimetria N = 1 correspondente , supersimetria N = 2 e assim por diante. A supersimetria também pode ser construída em outras dimensões, mais notavelmente em (1 + 1) dimensões para sua aplicação na teoria das supercordas .

O Lagrangiano de uma teoria supersimétrica deve ser invariante sob a ação do grupo super-Poincaré. Exemplos de tais teorias incluem: Modelo Padrão Supersimétrico Mínimo (MSSM), teoria supersimétrica de Yang-Mills N = 4 e teoria das supercordas. Em uma teoria supersimétrica, todo férmion tem um superparceiro bosônico e vice-versa.

Se a supersimetria for promovida a uma simetria local, então a teoria de calibre resultante é uma extensão da relatividade geral chamada supergravidade .

A supersimetria é uma solução potencial para muitos problemas atuais da física. Por exemplo, o problema de hierarquia do Modelo Padrão - por que a massa do bóson de Higgs não é corrigida radiativamente (sob renormalização) para uma escala muito alta, como a grande escala unificada ou a escala de Planck - pode ser resolvido relacionando o campo de Higgs e seu superparceiro, o Higgsino . As correções radiativas devido aos loops do bóson de Higgs nos diagramas de Feynman são canceladas pelos loops de Higgsino correspondentes. A supersimetria também oferece respostas para a grande unificação de todas as constantes de acoplamento de calibre no modelo padrão, bem como a natureza da matéria escura .

No entanto, a partir de 2018, os experimentos ainda não forneceram evidências da existência de partículas supersimétricas. Se a supersimetria fosse uma simetria verdadeira da natureza, então ela deveria ser uma simetria quebrada, e a energia da quebra da simetria deveria ser mais alta do que aquelas alcançáveis ​​pelos experimentos atuais.

Outros espaços-tempos

A teoria ϕ 4 , QED, QCD, bem como todo o Modelo Padrão assumem um espaço de Minkowski (3 + 1) -dimensional (3 dimensões espaciais e 1 dimensão de tempo) como o fundo no qual os campos quânticos são definidos. No entanto, QFT a priori não impõe nenhuma restrição ao número de dimensões nem à geometria do espaço-tempo.

Na física da matéria condensada , QFT é usado para descrever gases de elétrons com dimensões (2 + 1) . Na física de alta energia , a teoria das cordas é um tipo de QFT (1 + 1) -dimensional, enquanto a teoria de Kaluza-Klein usa a gravidade em dimensões extras para produzir teorias de calibre em dimensões mais baixas.

No espaço de Minkowski, a métrica plana η μν é usada para aumentar e diminuir os índices do espaço-tempo no Lagrangiano, por exemplo

onde r | μν é o inverso de r | μν satisfazendo r | μρ r | ρν = ô u vmax . Por outro lado, para QFTs em espaço - tempo curvo , uma métrica geral (como a métrica de Schwarzschild que descreve um buraco negro ) é usada:

onde g μν é o inverso de g μν . Para um campo escalar real, a densidade Lagrangiana em um plano de fundo do espaço-tempo geral é

onde g = det ( g μν ) , e μ denota a derivada covariante . O Lagrangiano de um QFT, daí seus resultados de cálculo e previsões físicas, depende da geometria do fundo do espaço-tempo.

Teoria de campo quântico topológico

As funções de correlação e previsões físicas de um QFT dependem da métrica do espaço-tempo g μν . Para uma classe especial de QFTs chamada teoria quântica de campo topológica (TQFTs), todas as funções de correlação são independentes de mudanças contínuas na métrica do espaço-tempo. Os QFTs no espaço-tempo curvo geralmente mudam de acordo com a geometria (estrutura local) do plano de fundo do espaço-tempo, enquanto os TQFTs são invariantes sob difeomorfismos do espaço-tempo, mas são sensíveis à topologia (estrutura global) do espaço-tempo. Isso significa que todos os resultados de cálculos de TQFTs são invariantes topológicos do espaço-tempo subjacente. A teoria de Chern-Simons é um exemplo de TQFT e tem sido usada para construir modelos de gravidade quântica. As aplicações do TQFT incluem o efeito Hall quântico fracionário e computadores quânticos topológicos . A trajetória da linha mundial de partículas fracionadas (conhecidas como anyons ) pode formar uma configuração de link no espaço-tempo, que relaciona as estatísticas de entrelaçamento de anyons na física aos invariantes de link na matemática. Teorias de campo quântico topológico (TQFTs) aplicáveis ​​à pesquisa de fronteira de questões quânticas topológicas incluem teorias de calibre de Chern-Simons-Witten em 2 + 1 dimensões do espaço-tempo, outros novos TQFTs exóticos em 3 + 1 dimensões do espaço-tempo e além.

Métodos perturbativos e não perturbativos

Usando a teoria de perturbação , o efeito total de um pequeno termo de interação pode ser aproximado ordem por ordem por uma expansão em série no número de partículas virtuais que participam da interação. Cada termo na expansão pode ser entendido como uma forma possível para as partículas (físicas) interagirem umas com as outras por meio de partículas virtuais, expressas visualmente usando um diagrama de Feynman . A força eletromagnética entre dois elétrons em QED é representada (de primeira ordem na teoria de perturbação) pela propagação de um fóton virtual. De maneira semelhante, os bósons W e Z carregam a interação fraca, enquanto os glúons carregam a interação forte. A interpretação de uma interação como uma soma de estados intermediários envolvendo a troca de várias partículas virtuais só faz sentido na estrutura da teoria de perturbação. Em contraste, os métodos não perturbativos em QFT tratam o Lagrangiano interagindo como um todo, sem qualquer expansão em série. Em vez de partículas que carregam interações, esses métodos geraram conceitos como 't Hooft-Polyakov monopolo , parede de domínio , tubo de fluxo e instanton . Exemplos de QFTs que são completamente solucionáveis ​​de forma não perturbativa incluem modelos mínimos de teoria de campo conforme e o modelo Thirring .

Rigor matemático

Apesar de seu enorme sucesso na física de partículas e física da matéria condensada, o próprio QFT carece de uma base matemática formal. Por exemplo, de acordo com o teorema de Haag , não existe uma imagem de interação bem definida para QFT, o que implica que a teoria de perturbação de QFT, que fundamenta todo o método do diagrama de Feynman , é fundamentalmente mal definida.

No entanto, a teoria quântica de campo perturbativa , que requer apenas que as grandezas sejam computáveis ​​como uma série de potências formal sem quaisquer requisitos de convergência, pode receber um tratamento matemático rigoroso. Em particular, a monografia de Kevin Costello Renormalization and Effective Field Theory fornece uma formulação rigorosa de renormalização perturbativa que combina as abordagens da teoria do campo efetivo de Kadanoff , Wilson e Polchinski , juntamente com a abordagem Batalin-Vilkovisky para quantizar as teorias de calibre. Além disso, os métodos de integral de caminho perturbativos, normalmente entendidos como métodos computacionais formais inspirados na teoria de integração de dimensão finita, podem receber uma interpretação matemática sólida de seus análogos de dimensão finita.

Desde a década de 1950, físicos e matemáticos teóricos têm tentado organizar todos os QFTs em um conjunto de axiomas , a fim de estabelecer a existência de modelos concretos de QFT relativísticos de uma forma matematicamente rigorosa e estudar suas propriedades. Essa linha de estudo é chamado de teoria quântica de campos construtiva , um subcampo da física matemática , o que levou a tais resultados como CPT teorema , Teorema da estatística do spin , e teorema de Goldstone , e também para construções matematicamente rigorosos de muitas QFTs interagindo em dois e três dimensões do espaço-tempo, por exemplo, teorias de campo escalar bidimensional com interações polinomiais arbitrárias, as teorias de campo escalar tridimensional com interação quártica, etc.

Em comparação com o QFT comum, a teoria quântica de campo topológica e a teoria de campo conforme são melhor suportadas matematicamente - ambas podem ser classificadas na estrutura de representações de cobordismos .

A teoria quântica de campos algébrica é outra abordagem para a axiomatização de QFT, em que os objetos fundamentais são operadores locais e as relações algébricas entre eles. Os sistemas axiomáticos que seguem essa abordagem incluem axiomas de Wightman e axiomas de Haag-Kastler . Uma maneira de construir teorias que satisfaçam os axiomas de Wightman é usar os axiomas de Osterwalder-Schrader , que fornecem as condições necessárias e suficientes para que uma teoria em tempo real seja obtida a partir de uma teoria de tempo imaginária por continuação analítica ( rotação de Wick ).

A existência e lacuna de massa de Yang-Mills , um dos Problemas do Prêmio do Milênio , diz respeito à existência bem definida das teorias de Yang-Mills, conforme estabelecido pelos axiomas acima. A descrição completa do problema é a seguinte.

Prove que para qualquer grupo de calibre simples compacto G , uma teoria quântica não trivial de Yang-Mills existe e tem uma lacuna de massa Δ> 0 . A existência inclui o estabelecimento de propriedades axiomáticas pelo menos tão fortes quanto aquelas citadas em Streater & Wightman (1964) , Osterwalder & Schrader (1973) e Osterwalder & Schrader (1975) .

Veja também

Referências

Leitura adicional

Leitores gerais
Textos introdutórios
Textos avançados

links externos