Arquivo

Posts Tagged ‘Teoria quântica de campos’

O universo é quântico II, novas divergências em TQC

terça-feira, 5 abr 2011; \14\UTC\UTC\k 14 5 comentários

Será que existem divergências em teorias quânticas de campos (TQC) em espaços-tempo curvos que não podem ser removidas por renormalização?

Como o título já deve dar a entender, esse segundo post já vai ser sobre um aspecto técnico.

Leia mais

A força do vácuo: o efeito Casimir e a energia escura

terça-feira, 2 mar 2010; \09\UTC\UTC\k 09 7 comentários

Visualização do efeito Casimir

Dois objetos são atraídos devido a força do vácuo existente entre eles.[9]

O efeio Casimir, previsto em 1948 pelo físico holandês Hendrik Casimir da Phillips, só foi demonstrado em 1997, e constitui evidência de que o vácuo tem uma energia associada. É um fenômeno puramente da mecânica quântica e nele reside uma das maiores icógnitas da física contemporânea: o problema da constante cosmológica.

Energia em Física Clássica e Quântica

Embora no nosso quotidiano nós usamos a palavra energia de forma coloquial como sinônimo de vigor, eficácia ou determinação, em Física, energia possui um significado mais específico. Quando descrevemos o movimento de uma partícula de massa m em física clássica, a energia associada a essa partícula é uma função E(\mathbf{x},\mathbf{v}) da posição e da velocidade da partícula que é constante ao longo do tempo devido ao fato de que se eu encontro uma solução x(t) da equação de Newton, então x(t+a) para um número real arbitrário a é também solução da equação de Newton. Incluindo-se efeitos da Relatividade, essa quantidade é

E = \sqrt{(pc)^2 + (mc^2)^2}

onde p = mv/\sqrt{1-v^2/c^2} é o momento da partícula. Em mecânica quântica, nós podemos ver a origem da energia de forma análoga: introduz-se a energia através da simetria de translação temporal da mecânica quântica, aplicando um teorema devido ao matemático Marshall Stone que diz que a simetria temporal se traduz na existência da energia.

A Energia do Vácuo

Como em física clássica a energia é associada ao movimento de uma partícula, veio então com uma certa surpresa a descoberta de Werner Heisenberg, Pascual Jordan e Max Born de 1925, em um dos artigos de fundação da mecânica quântica[1], que mesmo uma caixa de volume V sem nenhum fóton dentro deveria ter uma energia associada, segundo a mecânica quântica, de

E_0 = \displaystyle\frac{1}{2}\sum_{k}\hbar \omega_k

onde o índice zero em E0 subentende que é a energia da ausência de todas as partículas (o vácuo) e a soma é sobre todas as possíveis freqüências \omega_k que podem existir dentro da caixa. Isso é devido ao fato de que se descreve a luz na ausência de qualquer efeito causado por uma partícula carregada como uma oscilação do campo eletromagnético, decomposta em uma soma sobre osciladores harmônicos de freqüência \omega_k. Como em mecânica quântica o oscilador harmônico possui uma energia mínima de \hbar\omega_k/2, segue o resultado da energia mínima do campo eletromagnético. O estado físico que se associa a essa energia mínima é o vácuo.

O significado dessa energia do vácuo ficou durante muitos anos obscuro: não se sabia como dar um resultado finito para essa soma, então tipicamente o tratamento de problemas da luz ou outras partículas era realizado negligenciando a soma, sob a justificativa de que pode-se escolher o zero de energia. Porém, há pelo menos duas circunstâncias conhecidas em que isso não é possível: quando efeitos gravitacionais são incluídos, o que dá origem ao chamado problema da constante cosmológica, ou quando há uma mudança no volume da caixa V que contém o vácuo, que produz o efeito Casimir.

Efeito Casimir

Se nós tivermos uma região de vácuo e permitimos que o volume V dessa região mude, então também mudam as energias permitidas existir dentro desse volume. Não é difícil entender porque: se um dos lados da caixa tem comprimento L, o comprimento de onda da luz que poderia existir dentro da caixa não pode ser maior que L (só frações de L são permitidos). Se o comprimento da caixa muda para L + δL, então a soma sobre k da energia do vácuo muda e passa a incluir agora os modos de comprimento de onda L + δL. Variar a energia do sistema requer trabalho, então mudar o tamanho da caixa vai exigir a ação de uma força. A força resultante do trabalho que altera a energia do vácuo ao aumentar a distância d de duas placas metálicas de área A foi calculada por Casimir[2], do centro de pesquisa da Phillips de Eindhoven, em 1948:

F = \displaystyle{{\hbar c} \frac{\pi^2 A}{240 d^4}}.

Para duas placas de 1 cm2 de área separadas por uma distância de 1μm, essa força é um milionésimo do peso de 1 grama na superfície da Terra! Certamente pequena, mas não impossível de ser observada. Se nós colocarmos duas placas metálicas na vertical fixas a uma distância d, então será necessário aplicar a força de Casimir para evitar que o vácuo atraia as duas placas.

A primeira demonstração de que o efeito provavelmente existia, foi feita por Marcus Sparnaay também da Phillips, em 1958, utilizando placas metálicas planas paralelas (um capacitor!)[3]. Acontece que como a força é muito pequena, é experimentalmente difícil obter precisão suficiente no deslocamento das placas devido a problemas de alinhamento, e Sparnaay conseguiu observar o efeito de atração das placas, mas não foi capaz de medir o valor exato. A verificação do resultado numérico em detalhe só foi possível em 1997 em um experimento realizado por Steve K. Lamoreaux[4], então na Universidade de Washington em Seattle, que observou a existência do efeito Casimir entre uma placa metálica e outra esférica com d variando entre 0.6μm a 6μm — uma ordem de grandeza! Esse experimento demonstra o contra-intuitivo fenômeno quântico que o vácuo de fato tem energia associada a ele!

Desde a descoberta de Lamoreaux, o efeito já foi medido para materiais e geometrias diferentes. Um grupo na Itália em 2002 conseguiu com menor precisão medir o efeito para a geometria original de placas paralelas[7]. Já foi até medido o efeito Casimir repulsivo no final de 2008 — i.e. levitação quântica!

Arranjo experimental para medir o efeito Casimir

Roberto Onofrio (esq.), e seu aluno de pós-graduação, Michael Brown-Hayes, e um esquema experimental típico com uma câmera de vácuo para medida da força de Casimir, neste caso entre um cilindro e um plano (dezembro de 2005, Dept. de Física, Dartmouth College). Crédito da foto: Vox of Dartmouth, 12/05.

No experimento original de Lamoreaux, dois filmes finos de cobre revestem uma placa plana fixa e outra esférica móvel. A placa móvel pode deslocar-se ao longo de um círculo de raio R presa a uma barra, de modo a encontrar a placa fixa em um ponto desse círculo. A barra é presa a um fio metálico para formar um pêndulo de torsão. A medida precisa da força atuando entre as placas no vácuo é feita mantendo a balança parada usando uma voltagem regulável que aplica uma força eletrostática ao extremo oposto da barra com respeito a posição da placa esférica (dois desenhos esquemáticos podem ser encontrados no artigo original de Lamoreaux)[8].

A energia do vácuo por todo o universo: o problema da constante cosmológica

Quando a energia do vácuo foi descoberta, não se sabia dar um significado físico a ela, pois o número de freqüências que pode existir dentro de uma caixa é infinita, então a soma parece ser infinita. Porém, emergiu dentro da física uma visão de que se nós incluirmos na teoria apenas fótons, a teoria só é válida até um certo limite de tamanho mínimo, a partir do qual outros efeitos se tornam relevantes, digamos como a unificação eletrofraca quando os fótons passam a se misturar com o bóson Z. Ou mesmo que seja possível levar em conta todas as partículas conhecidas do Modelo Padrão, o limite de comprimento passa a ser o comprimento de Planck, que é a escala de tamanho a partir da qual efeitos quânticos da gravidade se tornam importantes. Assim, uma primeira forma de calcular aproximadamente o valor da energia do vácuo é truncar a soma no valor máximo do comprimento de onda, e o resultado é[5]:

\displaystyle{\rho_0 = \frac{E_0}{V} = \frac{\hbar c}{8\pi} \left(\frac{2\pi}{\lambda_c}\right)^4}

onde \lambda_c é o valor máximo que nós podemos aceitar do comprimento de onda. Suponhamos que nosso limite de validade é o raio do próton (\lambda \sim 10^{-15}\;\text{m}), então a densidade de massa equivalente dada por E = mc^2 para essa energia seria de 2×109 ton/cm3! Ou seja, em um centímetro cúbico do espaço, existiria uma massa de um bilhão de toneladas. Tanta massa assim geraria um campo gravitacional gigantesco, porém nenhum tal campo gravitacional é observado. Em contraste, a densidade de massa total do universo observada no diagrama de Hubble é de 1.0×10-29 g/cm3, uma diferença de 44 ordens de grandeza. Colocando o valor de \lambda_c para valores menores, como a massa do top quark — que podemos tomar como o presente limite de validade das teorias de partículas quânticas –, ou a escala de Planck, só aumenta o valor da energia do vácuo. As vezes isso é incorretamente interpretado como uma previsão da teoria que não condiz com os dados experimentais. Na verdade, uma análise mais cuidadosa do cálculo da energia do vácuo[6] revela que somos obrigados a adicionar um termo que está faltando na soma original que é uma constante arbitrária que a teoria da física de partículas não pode determinar:

\rho_\text{real} = \rho_0 + \rho_\text{livre}

onde eu indiquei que o valor observado, ou real, é igual a contribuição dos modos que dão origem ao efeito Casimir, \rho_0, mais a densidade de energia livre que não pode ser determinada em teoria. O que nós podemos fazer, então, é usar a astronomia (ou quem sabe no futuro, experimentos em laboratórios terrestres) para determinar \rho_\text{real} e então usar o valor observado para calibrar \rho_\text{livre}. Mas independente de qual a escolha certa para o comprimento de onda \lambda_c que usemos para obter a energia do vácuo, nós podemos ver que o valor observado já é, dentro da nossa primeira estimativa, 44 ordens de grandeza menor que a densidade do vácuo, o que implica que o parâmetro livre é negativo e idêntico ao valor da energia do vácuo em pelo menos 44 ordens de grandeza de modo a cancelar esse valor muito fina e precisamente para resultar em um \rho_\text{real} pequeno:

1.0 × 10-29 g/cm3 = 2.0 × 1015 g/cm3 – 1.99…90 × 1015 g/cm3.

Por que ocorre esse cancelamento perfeito? Que mecanismo físico, princípio fundamental ou simetria da Natureza é responsável por isso? E de onde vem o resíduo da diferença? Esse é o problema da constante cosmológica: o ajuste fino entre \rho_\text{livre} e \rho_0 necessário para que o campo gravitacional do universo seja pequeno.

Até o momento não há nenhuma explicação razoável para o mecanismo físico desse cancelamento. Há experimentos em andamento (e.g. no grupo de S. K. Lamoreaux na Universidade de Yale) para testar possíveis efeitos gravitacionais na força de Casimir, observando se há alguma variação na força que acompanha o movimento da Terra no campo gravitacional do Sol. Por enquanto, não creio que parece claro na teoria da gravitação porque qualquer fenômeno desse tipo aconteceria, mas isso não é impedimento para os físicos experimentais irem atrás de um possível efeito! Então, se você estava procurando um problema de física tanto teórica como experimental bem difícil e interessante, ai está um para ir trabalhando. 🙂

Notas

  1. Z. f. Physik 35 557 (1925). Eu comentei anteriormente sobre esse artigo no blog aqui.
  2. Casimir, H. G. B., Kon. Ned. Akad. Wetensch. Proc. 51 p. 793-795 (1948), online.
  3. Physica, 24 751 (1958).
  4. Phys. Rev. Lett. 78 p. 5-8 (1997), online.
  5. Para deduzir essa fórmula, você deve transformar a soma em uma integral e escrever para a densidade de estados que \omega^2 = (kc)^2. Você deve lembrar que a soma para E0 vira uma integral sobre número de onda vezes o volume V, daí a relevância da densidade de energia.
  6. Digamos, através da minimização da ação quântica efetiva \Gamma, ou de um simples argumento de renormalização de que a Hamiltoneana pode conter um termo constante livre. Só é possível renormalizar \Gamma introduzindo um parâmetro livre para a energia do vácuo (que não pode ser zero, embora a soma do termo livre com a contribuição dos modos zero de vibração pode!).
  7. G. Bressi et al., Phys. Rev. Lett. 88, 041804 (2002), online.
  8. Esse tipo de arranjo experimental é muito comum. Parece que o princípio básico foi introduzido por Coulomb para medir a força eletrostática, e depois dele, Cavendish, para medir G, e atualmente é empregado para várias medidas de precisão, como violação do princípio da equivalência, além do efeito Casimir.
  9. Versão artística da força de Casimir, imagem de Jay Penni/Federico Capasso, revista Nature, 8 de janeiro de 2009.

Pensamentos não tão aleatórios sobre teoria quântica de campos

sexta-feira, 17 abr 2009; \16\UTC\UTC\k 16 15 comentários

Edição: corrigida a referência de quem calculou as correções 1-loop para a RG.

Uma das coisas que tira o meu sono é uma característica da teoria quântica de campos de que apenas certas Lagrangeanas fazem sentido. Por exemplo, essa aqui faz pleno sentido como uma teoria clássica:

\mathscr{L}_f + \mathscr{L}_s + g \bar{\psi}\psi \phi (1)

onde o primeiro termo é a Lagrangeana de um campo fermiônico livre \psi e o segundo é a mesma coisa para um campo escalar livre \phi. Essa Lagrangeana não faz sentido físico como uma teoria quântica, porque ela prevê que a taxa de reação do espalhamento de dois bósons \phi é infinita (observe que esse espalhamento a 1 loop contém um loop de férmions que é uma integral imprópria sem limite). É um bom exemplo de como apenas requerer que todos os termos de uma Lagrangeana sejam renormalizáveis não é suficiente para que a teoria quântica só contenha observáveis físicos finitos. A teoria pode ter sentido se adicionarmos um novo termo na Lagrangeana: \lambda \phi^4 .

Em princípio esse fenômeno deve estar relacionado com o fato de que a Hamiltoneana na teoria quântica é escrita na forma

H = H_0 + V (2)

onde tanto H0 como H devem ser um elemento da álgebra de Lie do grupo de Poincaré. Isso impõe condições não-triviais sobre V. O problema é que, se você quer ser bem superficial, pode convencer-se que essas condições são satisfeitas supondo algum tipo de “suavidade” para V — que é a palavra mágica dos físicos que não querem falar de matemática –, e que V pode ser escrito como uma integral de um escalar de Lorentz

\int d^3 x \mathscr{H}(\mathbf{x},t) (3).

Porém só isso não pode ser toda a história, porque (1) satisfaz (3), e no entanto não é uma teoria física.

Então, a pergunta que não me faz dormir é a seguinte: como a teoria quântica de campos já sabia que toda interação (1) requer \phi^4? Em outras palavras, onde está essa informação na formulação relativística e quântica da teoria? Ou ainda: há alguma forma de saber que apenas a Lagrangeana com Yukawa + \lambda \phi^4 faz sentido físico, que não seja através da análise das divergências dos diagramas de Feynman da teoria?

Algo que já é sabido algum tempo é que todas teorias quânticas de campos podem ser feitas finitas, basta escrever a Lagrangeana certa. Por exemplo, a Relatividade Geral (RG) quantizada por si só prevê efeitos infinitos a primeira ordem de perturbação. Mas não a seguinte Lagrangeana, onde apenas o primeiro termo corresponde a teoria clássica da RG:

-\frac{M_P^2}{16\pi} R - \alpha_1 R^2 - \alpha_2 R_{\mu\nu} R^{\mu\nu}

que foi computada pela primeira vez por De Witt [Phys Rev 162 1967]. Essa Lagrangeana permite calcular observáveis finitos na teoria quântica da gravitação em primeira ordem em qualquer escala de energia menor que M_P.

Eu me pergunto se essa informação, sobre a existência dos dois últimos termos, já não estava de alguma forma contida na teoria quântica de campos. Talvez toda a série de potências já esteja. Se toda essa série de potências tem alguma simetria que permite determinar cada um dos termos possíveis, parece-me natural perguntar se essa mesma simetria não permite fixar relações entre os coeficientes. Por exemplo, ao escrever a Hamiltoneana de Dirac com coeficientes arbitrários, podemos relacionar os coeficientes impondo a simetria de Lorentz. É análogo a escrever

\alpha_1 \nabla^2 + \alpha_2 \partial_t^2

e deduzir que, no caso desta expressão ser invariante de Lorentz, então \alpha_1/\alpha_2 = -1.

Eu sonho…. 🙂

Edição de fevereiro.

terça-feira, 17 fev 2009; \08\UTC\UTC\k 08 36 comentários

O título é um pedido de desculpas por ter estado tão ausente nessas ultimas semanas, mas nem sempre dá para aparecer por aqui. Então, esse vai ser um post com diversos assuntos, motivado por conversas com colegas ao longo do último mês, a maioria no orkut. Então, nessa edição temos:

  1. História da física (parte 2) – Anomalias
  2. A história do Jim Simons, Renaissance Tech e Stony Brook
  3. Partícula num aro (parte 2) – Mecânica quântica
  4. Rapid communications: pós-graduações no EUA e conferência sobre supercordas

Há algum tempo, um colega me perguntou sobre a relação de laços de Wilson e anomalias. Eu não conhecia a relação e, na verdade, ela nem chega a ser muito profunda. Em vista da oportunidade, deixa eu contar o que são anomalias de uma forma semi-técnica, aborando um pouco da história envolvida.

Tudo começou com um cálculo que foi tentado por Tomonaga onde ele calculou perturbativamente em 1 loop o propagador do fóton \langle J_{em}^{\mu} J_{em}^{\nu} \rangle. Há dois fatos experimentais inequívocos sobre o fóton (que na verdade é um só): ele não tem massa e é trasnversal, ie, há apenas dois estados de polarização. O problema dessa conta é que as quantidades definidas na ação de Maxwell, quando interpretadas quanticamente não são as quantidades medidas. São parâmetros livres, que na verdade são divergentes. As quantidades medidas dependem das interações. Quando elas são levadas em consideração, essas divergências deixam de existir e a ação quântica efetiva passa a ser função de quantidades finitas. Essa é a idéia do que se chama renormalização: em teorias renormalizáveis a ação quântica efetiva tem a mesma expressão funcional quando renormalizada ou não, mas os limites são tomados em pontos diferentes.

Bem, deixando os detalhes técnicos de lado, Tomonaga encontrou uma massa para o fóton e um estado não transveral, correções indesejadas que não podiam ser renormalizadas (Tomonaga, naquela época, usava o curioso termo “amalgamado”). Não demorou muito para as pessoas entenderem o papel das simetrias no cálculo das correções quântica. Bem, o importante para história é que essas inconsistências levou Tomonaga e seus colaboradore, Fukuda e Miyamoto a examinarem o próximo diagrama mais simples: um triângulo, ie \langle J_{\pi}J_{em} ^{\mu}J_{em}^{\nu} \rangle em 1 loop. Novamente, o resultado parecia não preservar invariância de gauge e, algo novo, o acoplamento com um pseudovetor U_{\mu} era diferente de com um pseudoescalar \partial_{\mu}U, o que é inconsistente com a equação de Dirac (na camada de massa \partial_{\mu}(\overline{\psi}\gamma_5\gamma^{\mu}\psi)=-2m\overline{\psi}\gamma_5\psi). Novamente eles perceberam que o problema estava na relação das simetrias com as integrais divergentes que apareciam durante a conta.

Esse trabalho, depois de algum tempo, chegou aos ouvido de Steinberger, em Princeton, através de Yukawa. Eles então decidiram aplicar o então recente método de Pauli-Villars para refazer as contas. E, como os leitores envovidos nessa área devem saber, o resultado foi invariante de Lorentz e invariante de gauge. Contudo, a diferença no acoplamento entre pseudoescalar e do pseudovetor continuava diferente. Em linguagem moderna: há uma anomalia quiral! Eles não sabiam muito o que fazer com esse resultado na época e a melhor sugestão no fim do artigo era esperar pela detecção experimental da reação \pi^0\rightarrow 2\gamma. Acho que poucas pessoas adotariam essa postura hoje em dia :D, mas o importante é que esse decaimento do pi-zero, na época chamado de Neutretto, de fato existe.

O problema, claro, não é simples e demorou até 1951 para Schwinger publicar uma nova forma de ataque ao problema. Num artigo que considero muito bonito “On Gauge Invariance and Vaccum Polarization”, Schwinger notou pela primeira vez com clareza que era necessário que os métodos de resolução das funções de Green fossem a todo instante invariantes de Gauge para que o resultado também fosse. Ele mostrou que a auto-energia do fóton, de fato, cancela na camada de massa e tudo parecia feliz. Mas ele também encontrou que o acoplamento para o pseudovetor e o pseudoescalar eram iguais. Um resultado que parece contrariar a existência de uma anomalia quiral. Schwinger justamente introduzia linhas de Wilson para fazer um “point-spliting” da corrente divergente. Vou deixar comentários extras para o final.

Mas outros muitos anos se passaram, e apesar dos problemas, as pessoas continuaram a usar teorias quânticas de campos para descrever a fenomenologia das interações fracas, que era o assunto quente da época. Em 1963, Rosenfeld, estudando a propriedade dos neutrinos na teoria V-A esbarrou no mesmo problema do diagrama triagular e fazendo a conta de forma a manter a invariância de gauge, ele calculou pela primeira vez a expressão da anomalia quiral, mas não deu prosseguimento à análise do resultado. Nessa época, teorias quânticas de campos não estavam muito em alta. Existiam outras teorias com pretensão de substituí-la, como a teoria de Regge e o programa da matriz-S. Existiam também teorias que pretendiam descrever teoria quântica de campos de uma forma não-perturbativa, como a teoria de álgebras de correntes.

Foi meio natural que as pessoas que trabalhavam com álgebras de correntes tentassem verificar seus resultados perturbativamente com TQC, e várias dessas pessoas deram contribuições determinantes para a criação das teorias modernas de gauge. Em particular, Gell-Mann e Levy, na década de 60, escreveram um artigo analisando as “PCAC” (putz… nem interessa! :roll:, na prática quero dizer \partial_{\mu}j_5^{\mu}=f_{\pi}m_{\pi}^2\pi(x) ) num modelo sigma linear. Na teoria quântica de campos que eles montaram, essa relação era realizada classicamente. É modelinho muito interessante com simetria SO(4) e quebrada espontaneamente. Esse trabalho se tornou uma leitura obrigatória em vários dos centros importantes de teoria quântica de campos na época. Em Stony Brook, B. Lee começou a estudar a renormalização dessa teoria e escreveu um pequeno livro influente sobre o assunto. Um aluno de doutorado de Utretch, G. ‘t Hooft, conheceu Lee na escola de verão de Carsège e resolveu aplicar os métodos para teorias de gauge. Deu no que deu. 😈

Depois disso, não demorou muito para Adler e, indendentemente, Bell e Jackiw entenderem a origem das anomalias como simetrias da ação clássica que não existem na ação efetiva quântica e escrevê-la como é conhecida hoje em dia. Vale notar no artigo do Bell e Jackiw, durante a batalha para entender quando a anomalia aparecia ou não nas contas, o seguinte comentário que vai no coração da questão:

Since the integral is linearly divergent a shift of variable picks up a surface term.

🙂 Que seja. Essa história, claro, não termina por aqui e tem muito mais coisa interessante. Mas fica para outro dia.

Antes de terminar, deixa eu só fazer um comentário sobre a conta do Schwinger. Eu acho que quem entendeu o que estava acontecendo foi o Adler. Schwinger, na sua ânsia justificada de preservar a invariância de gauge, considerava apenas derivadas covariantes na equação de conservação da corrente. Isso gera um termo extra igual a menos a anomalia. Ele também regularizava a corrente usando laços de Wilson, o que, naturalmente, preserva a invariância de gauge e introduz um termo igual a mais a anomalia. E assim, ambos se cancelam. Acontece.


Semana passada, o Jim Simons veio aqui na universidade conversar com os alunos durante o colóquio. Claro que colóquio com o Jim Simons não fica limitado aos alunos, mas lota o auditório. Foi razoavelmente interessante, ele contou sobre sua trajetória. Posso reproduzir um pouco do que ouvi e do que minha memória não fez questão de perder. Eu sei que tem leitores e editores aqui diretamente interessados em análise do mercado financeiro e, se infelizmente não posso dar muitos dados técnicos, pelo menos poderei contar uma história de sucesso.

O colóquio, que foi atípico, teve o título oficial de “Matemática, Bom Senso e Boa Sorte”. Para quem não sabe, O Jim Simons foi diretor do Instituto de Matemática de Stony Brook na década de 60, quando ele ainda não era o 178-ésimo homem mais rico do mundo. Ele hoje é dono da Renaissence Technologies, um fundo de investimento muito bem sucedido. Simons, que é o mesmo das “formas (teoria) de Chern-Simons”, nunca se afastou da universidade e investe muito dinheiro aqui. Ele, há alguns anos, quando o DOE resolveu cortar fundos dos laboratórios nacionais, manteve o BNL funcionando com dinheiro do seu bolso. Recentemente, ele doou quase 100 milhões para a construção do Simons Center for Geometry and Physics:

Simons Center for Geometry and Physics

Durante o colóquio ele anunciou mais uma doação de 20 milhões para o departamento de física. Isso só para citar as grandes doações. O Simons também mantém diversos programas aqui dentro, como um centro de formação em física de aceleradores, um programa para jovens do ensino médio em física de laser, entre outras coisas. O Brasil tem várias pessoas acima dele na lista da Forbes: o Antônio Ermírio de Moraes, Joseph Safra, o Eike Batista e o Jorge Paulo Lemann. O Safra recentemente fez algo semelhante com o IINN que já foi citado várias vezes aqui no blog. O Lemann também mantém programas de colaboração entre o Brasil e a universidade de Harvard, que se não é ideal, pelo menos é bom (ele doou um dinheiro para construção, em SP, de um escritório para organizar essas colaborações). Os demais, eu não sei estão associados à algum projeto desse porte. Mas se não estão, deveriam.

A parte matemática do título é então antiga. Naquela época, Simons era um recém doutor em matemática com um emprego em Princeton cuja carga horária deveria ser dividida metade para matemática e a outra metade para decifrar códigos da Guerra Fria. Só que um dia ele resolveu dar uma declaração para um jornalista dizendo que ele estava usando todas as metades da matemática agora e que só depois iria usar a metade para decifração de códigos de guerra. Bem, não é preciso muita imaginação para saber o que aconteceu com ele no mesmo dia. Despedido de Princeton, ele foi contratado para ser diretor (e efetivamente montar) o recém criado Insituto de Matemática de Stony Brook, um emprego que, para ser sincero, ninguém queria. Ele topou e começou um grupo que deu grandes frutos. Hoje, o programa de pós-graduação de Stony Brook normalmente aparece entre os top 5 do país. Durante sua estada aqui como diretor ele também manteve colaboração com o Yang no Instituto de Física. Os dois foram dos principais responsáveis por criar a ponte entre a física e a matemática das teorias de gauge (conexões de fibrados).

Agora vem a parte boa sorte. Naquela época, Simons investiu dinheiro com um amigo que trabalhava com câmbio e, por sorte, ganhou uma bolada de alguns milhões. E milhões de dólares naquela época era muito mais do que hoje. Milionário de uma hora para outra, ele resolveu mudar de direção na vida. Se esse colega dele podia ganhar dinheiro, ele também poderia. Matemático que era, ele e um outro professor daqui de Stony Brook começaram a tentar criar modelos para investir em câmbio. A realidade é que não deu muito certo, mas Simons conta que naquela época era tão fácil ganhar dinheiro, que ele rapidamente multiplicou seu dinheiro por um fator de 10 (e ele conta que isso nem chegou a impressionar muita gente).

Bom senso é a última parte. A década de 80 veio e ganhar dinheiro ficou um pouco mais difícil. Nesse ponto, ele decidiu novamente investir somente na construção de modelos. Com a ajuda de outro matemático (que me esqueci o nome, acho que ele não está mais na Renaissance Tech, parece que ele não conseguia trabalhar muito bem em equipe), ele abandonou completamente o tipo de investimento que fazia antes para só fazer investimentos baseados nos resultados desses modelos de mercado. Dessa vez deu certo. Hoje em dia, a Renaissance Tech conta com uma equipe composta basicamente de Ph.D.s e se orgulha de ter, mantidas as devidas proporções, um ambiente de trabalho acadêmico num fundo de investimento. Nem todos matemáticos, claro. Parece que hoje em dia há muito cientista da computação, já que além de criar modelos eles tem que lidar com a análise de 3 TB de dados por dia e tomar as decisões antes dos concorrentes. Se há alguma diferença do meio acadêmico real é que o resultado das suas idéias está alí, na sua frente, tudo reduzido a quanto dinheiro você ganhou ou perdeu.

No que volta à matemática. Simons recentemente voltou a trabalhar com matemática. Ele certamente é o aluno mais rico do mundo nessa área :P. E está trabalhando ativamente com o Dennis Sullivan, aqui mesmo em Stony Brook. Interessante, não?


Há algum tempo atrás, eu e Leandro escrevemos sobre a mecânica clássica de uma partícula num aro e como se pode aprender bastante sobre física com esse modelo simples. O post teve uma repercussão ótima e me motiva a fazer uma segunda parte. Vamos agora estudar a mecânica quântica de uma partícula no aro e vamos ver que podemos aprender também uma miríade de coisas através de analogias. Esse post vai ser um pouco mais alto nível, mas com certeza tem seu público.

Vou começar com uma lagrangeana bem geral:

L=\frac{M}{2}\dot{\phi}^2+A\dot{\phi}

Note que o segundo termo, sendo uma derivada total não influencia a equação de movimento que é simplesmente M\ddot{\phi}=0, onde M é o momento de inércia e \phi é uma variável angular.

Duas coisas devem ser notadas, para um determinado tempo inicial e final, há infinitas soluções para as equações de movimento, classificadas por um número inteiro (o número de voltas que ela dá no círculo). Isso é uma consequência da topologia não-trivial, ou mais especificamente, do grupo fundamental não-trivial, do círculo. Esse é o tópico que quero falar.

Além disso note que apesar de não mudar as equações de movimento, o momento canônico e a hamiltiana se alteram:

p =m\dot{\phi}+A;\qquad H=\frac{1}{2M}(p-A)^2

e é por isso que a mecânica quântica desse exemplo é tão bacana. Quantizar o sistema corresponde a tornar \phi,p operadores num espaço de Hilbert tal que [\phi, p]=i. O estado da partícula será então descrito por uma função de onda que obedece à equação de Schrödinger H\psi=E\psi. Para p ser uma quantidade mensurável, é necessário que ele seja auto-adjunto. Certamente, se escolhermos uma representação em que p=-i\partial_{\phi} ele será hermitiano. Porém, para ser auto-adjunto ele temos que definir condições de contorno do tipo \psi(\phi+2\pi)=e^{i\xi}\psi(\phi) onde diferentes escolhas de \xi correspondem à situações físicas distintas que pode, em princípio, serem diferenciadas por experiências de espalhamento. Vale a pena fazer a conta da matriz-S para verificar isso por si próprio, é supreendente a importância das condições de contorno.

Vamos começar com o caso \xi=0. A solução do espectro nesse caso é simples:

\psi_m=e^{im\phi};\qquad E_m=\frac{1}{2M}(m-A)^2;\qquad m\in\mathbb{Z}

Se você conhece o efeito Aharanov-Bohm, vai notar que A nada mais é que um fluxo magnético de valor \theta=2\pi A. Inclusive, fazendo conexão como tópico anterior, acho que as primeiras pessoas a notarem a hoje óbvia descrição desse efeito através da holonomias de conexões em fibrados foi justamente Yang e Simons. Mas voltando, note que a ação correspondente a A será:

S_{top}=\int_{t_1}^{t_2}A\dot{\phi}=\theta\frac{\Delta\phi}{2\pi}

que só depende das posições iniciais e finais. Essa ação também conta quantas vezes a partícula deu a volta no círculo. Como é comum escrever \theta para o fluxo magnético, esse tipo de termo ficou conhecido como termo \theta, sobre o qual já falei várias vezes aqui.

Note ainda que \theta múltiplo de 2\pi não afeta o espectro e que para \theta múltiplo ímpar de \pi, o espectro é simétrico por paridade.

Uma pessoa mais ousada arriscaria dizer: “Esse termo A eu tiro com uma transformação de gauge (classicamente: trasnformação canônica) da solução”. Você pode até tentar, só que aí suas condições de contorno vão corresponder a \xi=-\theta que, como eu argumentei, é fisicamente distinta.

Um outro método de quantização é o de integral de trajetórias. Nesse caso, a ação do termo topológico fatora e a função partição euclidiana fica escrita como:

Z=\sum_{Q=-\infty}^{\infty}e^{i\theta Q}\int_{\phi(0)-\phi(T)=2\pi Q}\mathcal{D}\phi\,e^{-\int_0^T d\tau M\dot{\phi}^2/2}

para baixas temperaturas (ie, longos tempos euclidianos), só o estado de menor energia importa. Se considerarmos M\rightarrow 0, o estado de menor energia fica duplamente degenerado e esse estado passa a ser igual a uma partícula de spin 1/2. Não estou dizendo que essa é a origem do spin, não há nenhuma simetria SU(2) nesse problema, mas um modelo parecido com esse pode e é utilizado como uma teoria efetiva para (quasi-)partículas de spin 1/2 e, além disso, partículas de spin 1/2 são fermions e a origem das duas possíveis estatísticas em 3 dimensões – férmions e bósons – tem tudo a ver com esse tipo de análise topológica.

Termos \theta se multiplicam na física e eu acho que esse pequeno exemplo deu para ilustrar várias de suas características:

  • Realiza representações irredutíveis unitárias do grupo fundamental do espaço-alvo. Bem, não discuti isso, mas é por isso que o termo se chama topológico;
  • Responsável pela interferência quântica entre setores toplógicos. Note que quando escrevi a função partição após rotação de Wick (supondo que ela seja possível), a única superposição quântica residual é devido ao termo topológico;
  • Não afeta as equações de movimento;
  • Muda as condições de quantização do espectro quântico;
  • É um termo periódico, não quantizado contudo;
  • \theta=0,\pi possuem simetrias adicionais;
  • \theta=\pi implica em degenerescência do espectro;
  • Equivalente a uma mudança nas condições de contorno.

Claro que esse não é o único termo topológico possível. Para fazer conexão agora com o primeiro tópico que eu escrevi, no estudo de anomalias é bem relevante a ação de Wess-Zumino-Witten (é o termo de anomalia integrado), que também é um termo topológico. Há muitos outros, mas eles ficam para outra chance. (Se eu for cumprir todas essas continuações, não trabalho mais :P)


Ping-pong rápido:

  1. Eu, quando estava aplicando para os EUA, juntei nessa comunidade do orkut:

    GRE – Física (orkut)

    muita informação sobre o processo de vir estudar aqui com o intuito de ajudar as pessoas que querem mas não encontram ajuda, como foi meu caso. A realidade é que poucos alunos de física no Brasil tentam vir para os EUA. Acho que muitos não tentam não é porque não querem, mas porque não tem informações suficientes. Infelizmente, muita informação que estava na comunidade foi perdida ou está desatualizada. Mais do que isso, os mesmos motivos que estão fazendo a gente se mudar do orkut para o BC e para o AP, estão me motivando, junto com um colega brasileiro que também é doutorando aqui em Stony Brook, a criar um fonte mais acessível para essas informações. Manterei vocês atualizados. No entanto, eu sei que alguns colegas e leitores daqui estudam no exterior e, então, eu “convoco” vocês a divulgar mais as informações, de forma organizada, como é o processo de aplicação para ajudar as pessoas mais novas e incentivá-las a ir atrás de uma boa formação profissional.

  2. Está acontecendo no KITP/UCSB uma conferência sobre supercordas com vários cursos bacanas de coisas realmente modernas e atualizadas nessa área.

    Para quem quiser ver as palestras: Fundamental Aspects of Superstring Theory

    É uma conferência longa com várias palestras didáticas. Além disso, ela está comemorando o octagésimo aniversário do Stanley Mandelstam que teve um papel proeminente para o desenvolvimento dos primórdios dessa teoria.

Até a próxima.

%d blogueiros gostam disto: