Arquivo

Posts Tagged ‘Gravidade’

Quem colapsou a função de onda do universo?

segunda-feira, 28 mar 2011; \13\UTC\UTC\k 13 2 comentários

Como ninguém perguntou no último post 😦 faço eu aqui a pergunta. Existe uma dificuldade conceitual na idéia da origem da estrutura do universo.

Para explicar o problema, deixe-me considerar o caso dos fótons da radiação cósmica de fundo. A temperatura média observada desses fótons é 2.73 K. Essa média é obtida da seguinte forma: o satélite recebe um conjunto de fótons vindos da direção n da abóboda celeste. Cada fóton recebido por unidade de tempo tem uma temperatura diferente; mas somando todos os fótons ao longo de um tempo t suficientemente longo, é possível determinar com uma precisão menor que 1 mK qual a temperatura dos fótons vindo daquela direção, chamemo-la T(n). Como eu disse, prever o valor exato da função T(n) é impossível porque requer saber exatamente qual a posição da Terra em relação ao ponto exato no espaço onde ocorreu o último espalhamento Compton que o fóton sofreu antes de chegar no satélite. No lugar disso, se faz a média T0 sobre todos os pontos da esfera celeste, ou seja, sobre todas as direções n. Essa média independe da direção. Esse é o valor 2.7 K. Nós podemos definir o desvio da média: ΔT(n)=T(n) – T0. A média do desvio da média é zero, mas não é zero a média do produto de dois ΔT(n), isto é o desvio padrão da média. Isso é análogo em mecânica quântica ao fato que a média da posição X pode ser zero, enquanto o mesmo não vale para X2.

A idéia proposta por Mukhanov e Chibisov é que essa média do céu é igual a mesma média obtida em mecânica quântica para a mesma variável. A dificuldade conceitual é que essas duas médias tem significados diferentes. A da mecânica quântica (MQ) significa o seguinte: você prepara o universo para ter início quando o tempo é zero em um estado \Psi, e mede a temperatura dos fótons na direção n em 12 bilhões de anos depois, o que te dará um valor T(n). Você então precisa colocar o universo novamente no estado \Psi no início e medir novamente T(n) 12 bilhões de anos depois, que vai lhe dar outro valor, e assim por diante. Uma série de medidas em vários universos diferentes é a média da MQ. Já a média utilizada na teoria clássica é de um mesmo universo sobre diferentes direções. Poder-se-ia questionar que quando a função de onda do nosso universo colapsou, a distribuição do campo gravitacional congelou em uma configuração específica da mecânica quântica. Essa configuração, tirada uma média sobre o espaço, é que constitui os observáveis astronômicos, e não a média sobre todas as possíveis realizações das flutuações do campo gravitacional, que é a média da física quântica. Mais objetivamente, como, quando e por que as probabilidades quânticas, como o emaranhamento, deixaram de ser flutuações quânticas do campo gravitacional e passaram a ser flutuações clássicas de intensidade do campo gravitacional? Será que toda vez que eu observo um fóton na radiação cósmica de fundo, eu colapso a função de onda de todo o universo? 🙂

Anúncios

O universo é quântico I

sexta-feira, 25 mar 2011; \12\UTC\UTC\k 12 4 comentários

A gravitação quântica pode estar ali na esquina…

Este vai ser o primeiro do que eu espero ser uma série de posts sobre os recentes avanços em cálculos de gravitação quântica em Cosmologia. Serão em tom de divulgação, mas com alguns detalhes técnicos aqui e ali. Eu não vou me preocupar em dar detalhes de referências no texto porque toma tempo e quem tiver interesse é só procurar ou perguntar. 🙂

Essa história começa com o seguinte problema. Suponha que eu aqui na Terra com um telescópio queira saber toda a evolução que trouxe a sopa primordial do universo até a formação de todas as galáxias:

 

A distribuição das galáxias no céu visto da Terra depende da posição relativa da Terra as galáxias vizinhas, o que nenhuma teoria cosmológica pode nos dizer. O que nós podemos calcular são na verdade aspectos probabilísticos do universo, como a densidade de massa média em um volume que contém muitas galáxias, ou o número de galáxias a uma dada distância d de outra galáxia. Olhando cada galáxia nas figuras dos telescópios e determinando quantas galáxias estão ao redor dela a uma certa distância d e depois tirando a média dessa quantidade para todas as galáxias vistas no telescópio pode-se tirar um estimador aproximado de como as galáxias estão distribuídas, e então comparar essa função de d com uma previsão da física.

Naturalmente, a física clássica não pode fornecer essa previsão: não faz parte do arcabouço conceitual clássico o conceito de probabilidades associadas aos observáveis físicos. As equações da Relatividade Geral para um fluido como a matéria escura, uma vez dadas as condições iniciais, tem uma evolução futura única. Quando os cosmólogos nos anos 60 toparam com essa questão, a estratégia foi introduzir artificialmente variáveis aleatórias no problema. Então, por exemplo, se A(\mathbf{x}, t) é um observável cosmológico (como a massa que existe no universo), os cosmólogos passaram a escreve-lo assim:

A(\mathbf{x}, t) = \sum_n \alpha_n(\mathbf{x}) A_n (t)

onde A_n(t) é cada uma das possíveis evoluções temporais da Relatividade Geral (t é o tempo) e \alpha(\mathbf{x}) é uma variável estrangeira a teoria que tem algum tipo de distribuição de probabilidade para como o observável se distruibui no espaço, por exemplo:

\langle\alpha_n \rangle = 0
\langle \alpha_n \alpha_m \rangle = P_{nm}

etc., onde \langle O \rangle quer dizer que estamos calculando o valor médio da variável aleatória O com respeito a alguma lei de probabilidade (por exemplo, no problema de um dado não viciado, cada face pode ter uma regra de probabilidade 1/6, e nós poderíamos definir a média de cada face \langle\alpha_i\rangle = 1/6, e a chance de tirar duas faces iguais \langle\alpha_i\alpha_j\rangle = (1/6)\times(1/6)). Na física clássica não existe nada que possa nos dizer a priori qual a distribuição de probabilidades (a não ser um chute!). (Na verdade a distribuição é feita no espaço de Fourier e não sobre o espaço-tempo).

A solução desse problema foi proposta em 1981 pelos russos Viatcheslav Mukhanov e Gennadiy Vasilevich Chibisov, então do Instituto de Física Teórica de Lebedev. Muita gente também dá crédito aos físicos do ocidente que puxaram a descoberta no contexto do modelo inflacionário logo em seguida: Stephen Hawking, Alan Guth e So-Young Pi, James Bardeen, Paul Steinhardt e Michael Turner.

Mukhanov e Chibisov fizeram um cálculo proposto a eles pelo colega Starobinsky: computar as flutuações quânticas do campo gravitacional em um modelo cosmológico proposto por Starobinsky. A suspeita era que os efeitos poderiam ser “grandes” e invalidar todo o modelo cosmológico. O que Mukhanov e Chibisov encontraram é que a distribuição de probabilidades do campo gravitacional quantizado no modelo de Starobinsky era idêntica a distribuição de massa do universo que acreditava-se na época ser necessária para garantir a formação das galáxias no modelo do Big Bang (apesar de que a distribuição de galáxias ainda não tinha sido observada em 1982!). Ora, se a fórmula é idêntica, a física deve ser a mesma: eles propuseram então que a origem da distribuição das galáxias era a gravitação quântica no universo primordial. A solução é muito elegante, pois promover os observáveis cosmológicos a observáveis em mecânica quântica permite associar a eles distribuições de probabilidades de forma natural. Mais importante, permite prever a distribuição de probabilidades do universo.

Hoje em dia a idéia é assim: o universo começou no vácuo, e passou por um período em que as distâncias entre dois pontos cresceram exponencialmente — a inflação. As flutuações quânticas do vácuo são pequenas, mas durante o período inflacionário elas são esticadas de um tamanho de 10-25 cm (cem bilhões de bilhões de vezes menor que o próton) até ao tamanho de uma galáxia. Essa flutuações querem dizer que a intensidade do campo gravitacional não é a mesma no espaço, o campo gravitacional tem uma probabilidade associada a ele de ter valores diferentes, igual como as probabilidades associadas a posição do elétron no átomo de hidrogênio. Os picos e vales de intensidade do campo gravitacional são essas flutuações. Eu já tinha escrito sobre isso no blog aqui.

Mas como é possível que o formato do campo gravitacional quântico no universo primordial possa ter dado origem as galáxias, se a inflação aconteceu mais de 100 milhões de anos antes das galáxias começarem a se formar? A física posterior a inflação não iria bagunçar o campo gravitacional do universo, como por exemplo, através de transições de fases, ou as colisões de prótons a altas energias, ou a formação do plasma de quarks e gluons?

Devido a inflação, essas flutuações se tornam tão grandes — do tamanho de uma galáxia! — que elas são muito maiores que a distância que a luz pode percorrer durante boa parte da história do universo. Quando o universo tinha 3 minutos, por exemplo, a distância que a luz pode percorrer desde o início do universo é de 3 minutos-luz; em comparação, uma galáxia tem cerca de 30 mil anos-luz de diâmetro. Só quando o universo já tinha mais idade que essas flutuações quânticas começam a ser influenciadas por outros efeitos físicos. Por uma boa coincidência de escalas, a temperatura do universo aos 3 minutos de idade era cerca de 1 MeV, que é a escala de energia típica da física nuclear, então esses outros efeitos que alteram a distribuição quântica primordial são física muito bem conhecida: física nuclear “para baixo”.

É curioso como se fala tanto que a física do LHC e do RHIC tem a ver com o Big Bang quando na verdade se sabe que qualquer efeito dessas escalas de energia não tem relevância para cosmologia.

Alguém ai entendeu alguma coisa?

No próximo post eu vou falar sobre os trabalhos recentes sobre as interações dos grávitons no universo primordial que afetam os observáveis cosmológicos, que em breve pode constituir um dos primeiros testes das interações da gravitação quântica graças ao satélite Planck. E depois sobre como se trombou com as diversas dificuldades da quantização da gravidade, e como a Cosmologia tem dado uma luz sobre como fazer contas com a Relatividade Geral quantizada.

Uma palestra técnica sobre o assunto você pode ver aqui, é o seminário “Cosmological Correlations” do Steven Weinberg. Já está desatualizada, mas eu não conheço nenhuma outra mais moderna.

Quando buracos negros colidem

domingo, 26 jul 2009; \30\UTC\UTC\k 30 3 comentários

Em 1964, Susan Hahn e Richard Lindquist, então na IBM Nova York, decidiram estudar numericamente a evolução temporal de dois buracos de minhoca (Ann. Phys. 29:2 304 (1964)). Parece uma tarefa fácil: você decompõe as equações da Relatividade Geral em uma forma adequada, coloca no computador e pede a resposta! Mas Hahn e Lindquist encontraram uma pedra no caminho: o programa congelava antes de dar qualquer resposta útil. A simulação era impossível. O que eles descobriram foi um problema que demorou mais de quarenta anos para ser solucionado: como resolver as equações da Relatividade Geral em um computador?

Várias tentativas foram realizadas desde o pioneiro trabalho de Hahn e Lindquist em busca do tratamento numérico adequado para a Relatividade Geral e envolveu físicos teóricos eminentes como Kip Thorne e Saul Teukolsky, mas sem nenhum sucesso. Em 1990, o projeto LIGO, o experimento que tem a maior chance de em breve detectar as ondas gravitacionais, trouxe grande pressão para a resolução desse problema. Estimava-se que as maiores fontes de luminosidade em ondas gravitacionais no universo seriam as fusões de buracos negros, provavelmente os objetos de mais fácil acesso ao experimento. Todavia, o cálculo da irradiação gravitacional desse fenômeno não pode ser feito pelas técnicas analíticas de solução da Relatividade Geral: é necessário obter uma resposta aproximada numericamente. A National Science Foundation nos Estados Unidos iniciou em 1990 então um programa específico de financiamento para um esforço de resolver o problema.

A grande revolução surgiu em um artigo submetido a 4 de julho de 2005 ao arXiv: Frans Pretorius, da Universidade de Alberta do Canadá e do CalTech, Estados Unidos, tornou pública a primeira simulação numérica bem sucedida da fusão de dois buracos negros. O resultado mais importante da simulação é a forma da onda gravitacional em função do tempo (cf. figura).

Onda gravitacional da fusão de buracos negros, como medida em um ponto fixo no espaço em função do tempo.

Onda gravitacional da fusão de buracos negros, como medida em um ponto fixo no espaço em função do tempo.

As simulações numéricas permitiram descobrir que a fusão de buracos negros emite cerca de 4% da massa total do binário em forma de ondas gravitacionais. Para um binário de buracos negros supermassivos — mil a um milhão de vezes mais pesado que o Sol — , como os que existem no centro de quase toda galáxia no universo, a potência irradiada pelo processo de fusão é da ordem de 1023 vezes a luminosidade intrínseca do Sol. Para comparação, todas as estrelas do universo observável iluminando juntas o espaço tem uma potência de 1021 sóis. Uma única fusão de buracos negros emite em ondas gravitacionais mil vezes mais energia que 100 bilhões de galáxias juntas emitem em luz!

Mas quando dois buracos negros vão fundir no universo? Acredita-se que no núcleo de quase toda galáxia há um buraco negro, então quando duas galáxias colidem (se misturam seria uma expressão mais adequada) é possível que os buracos negros de seus centros formem um binário que após algumas voltas entram em rota de colisão. Fusão de galáxias é um processo comum na história, acredita-se que toda galáxia hoje passou por pelo menos uma. A Via Láctea está atualmente em fusão com sua vizinha elíptica, a galáxia anã Sagitário, e em cerca de 3 bilhões de anos colidirá com a galáxia de Andromeda.

O seguinte vídeo é uma simulacão numérica completa da fusão de dois buracos negros, trabalho do grupo de relatividade numérica do Centro Espacial Goddard da NASA. O que você vê em cores é a amplitude do campo gravitacional para um dos modos de polarização da onda emitida (o fundo estrelado é artificial, não é incluído na simulação). Mais do que um filme bonito, essas simulações permitirão abrir uma nova porta para a astronomia e física do universo primordial, como veremos.

Agora, voltando ao problema da programação da Relatividade. Um programa que faz esse tipo de simulação é o openGR, desenvolvido pelo Centro de Relatividade da Universidade do Texas em Austin, que como nome diz é um programa livre. Até o momento, apenas os problemas de fusão de buracos negros foram investigados. Um próximo passo natural é a evolução do campo gravitacional cosmológico. No futuro, as simulações do universo primordial conterão simultaneamente a evolução do campo gravitacional com todas as reações do plasma contido no universo — é literalmente uma simulação detalhada da evolução de tudo que há no universo, a geometria inclusive. De imediato, isso terá importância para a descrição minunciosa da variação espacial da temperatura da radiação cósmica de fundo — anisotropias da CMB, para ser curto — , que fornece informação do conteúdo do universo e da evolução dos bárions, neutrinos, fótons e matéria escura durante os primeiros 500 mil anos do cosmos. Por exemplo, o fato dos neutrinos terem massa pode ser visto nas anisotropias da CMB, portanto é possível que o satélite Planck forneça o primeiro valor experimental da massa dessas partículas elementares, embora para verificar isso não é necessário grande detalhe na evolução temporal da Relatividade Geral — um cálculo analítico que trata as inomogeneidades do universo como pequenas é suficiente. Todavia, há regimes — as transições de fase no universo primordial — em que as anisotropias não podem ser tratadas como pequenas perturbações no campo gravitacional e um cálculo numérico se torna útil, embora não definitivamente a única escolha (há uma outra possibilidade, o uso de métodos aproximados analíticos).

LIGO: confrontando cálculo com experimento

Leia mais…

Alternativas a unificação

quarta-feira, 25 mar 2009; \13\UTC\UTC\k 13 3 comentários

O princípio vingente para descrever a física de partículas nas escalas de tamanho de 10-13 cm (1 GeV) até 10-15 cm (100 GeV) é o de que há uma simetria na lei de evolução temporal, quer dizer, certas transformações que mantém as leis da física invariantes. Há dois conjuntos distintos de transformações independentes que constituem o que se chama o Modelo Padrão da física, e em matemática esses conjuntos são denotados por SU(3) e SU(2)\times U(1). O conjunto U(1) e.g. consiste nas transformações em que um número complexo z é multiplicado por uma fase complexa:

z' = e^{i \theta} z .

Há um teorema, devido ao Sheldon Glashow e Murray Gell-Mann que diz que todas as simetrias admissíveis para teorias onde há uma corrente que se conserva (que no eletromagnetismo é a condição da conservação da carga elétrica) são um entre os conjuntos que os matemáticos chamam de grupos de Lie simples que podem ou não serem combinados também com o conjunto de transformações chamadas de U(1). Graças ao matemático Élie Cartan, há uma classificação completa (uma lista) de todos os grupos de Lie simples. A lista é infinita porém enumerável e é muito útil porque permite os físicos teóricos terem uma tabela completa de todas as teorias físicas que fazem sentido. Mas também é muito frustrante: embora o princípio de simetria de conservação das cargas descreve muito bem o mundo subatômico, há uma quantidade infinita de possibilidades de teorias e não há nenhuma racionalização disponível que permita decidir por que o Modelo Padrão escolheu SU(3) e SU(2)\times U(1). Ou dito de forma diferente: há algo de especial nessas simetrias?

Talvez não. Talvez todos os grupos de Lie simples existam na Natureza de forma independente do Modelo Padrão, porém ainda não foram observados. John Donoghue e Preema Pais recentemente mostraram que dentro deste cenário é possível haver unificação de todas as forças fundamentais (excetuando-se a gravitação) (arxiv:0903.3929). A idéia básica é que há uma teoria subjacente que não daria nenhum privilégio para SU(2) e SU(3), mas geraria toda a cadeia de simetrias SU(N), com infinitos férmions e interações. Porém, se todas essas interações tiverem uma origem comum, é possível simultaneamente ajustar que estas forças se tornam todas iguais em magnitude numa certa escala de energia próxima a escala de Planck e ao mesmo tempo há uma hierarquia entre as forças: SU(4), p.ex., o próximo grupo depois do SU(3), é confinante (como a QCD) na escala de pelo menos 1 TeV, e os próximos grupos são confinantes em escalas mais altas. Desse modo, a massa dos estados ligados, os hádrons destas forças, seriam maiores que 1 TeV. Todas as partículas geradas por essa cascata de simetrias são mais pesadas que qualquer partícula do atual do Modelo Padrão, portanto não estão excluídas.

Esse é um exemplo de como hoje em dia a noção de unificação na física vem ganhando novas janelas. Em 98, Arkani-Hamed, Dimopoulos e Dvali notaram que se há dimensões extras espaciais no universo então é permitido que a constante da gravitação universal seja bem maior do que o observado em 3 dimensões. Em unidades de energia, a constante de Newton é a massa de Planck que é 1019 GeV, mas com o número adequado de dimensões extras grandes é possível trazer a massa de Planck para 103 GeV, que é próxima da escala de energia da unificação eletrofraca (246 GeV), e portanto ambas as escalas (gravitacional e força fraca) seriam iguais. Esta é uma outra noção de unificação.

Uma das mais bonitas e interessantes, ao meu ver, é a motivada pelas descobertas das dualidades em teorias de campos: a propriedade que alguns sistemas físicos descritos por teorias de campo tem de que o mesmo sistema físico pode ser descrito por diferentes teorias de campo. A informação que eu tenho é que essa idéia surgiu mais ou menos nos anos 70 nos trabalhos do Sidney Coleman, Jorge Andre Swieca e outros, mas ganhou notoriedade mais tarde com os trabalhos do Witten e Maldacena. É como se cada teoria de campo fosse uma escolha diferente de coordenadas (o Rafael já postou sobre isso no blog aqui, aqui e aqui.). Nesse caso a unificação pode ser de uma natureza diferente: talvez o que nos parece uma teoria desconexa com simetrias que não conversam entre si, sem nenhuma unificação, é na verdade apenas uma escolha ruim de coordenadas de uma teoria onde há realmente uma unificação, só que evidente apenas em outro sistema de coordenadas (quero dizer campos). No caso do exemplo do Donoghue e Pais, seria interessante saber se um universo com todos os grupos de Lie simples de simetrias seria dual a uma descrição usando apenas poucos campos, ou mesmo uma teoria gravitacional.

Gravidade d=3 [3]

domingo, 26 out 2008; \43\UTC\UTC\k 43 1 comentário

Antes de começar a falar de como podemos descrever essa teoria, vamos entender porque vale a pena estudar ela.

Primeiramente é uma teoria que tem as mesmas bases da Relatividade Geral em d=4, mas com muito menos graus de liberdade, como vimos anteriormente. Na verdade, não temos graus de liberdade locais. Com isso, os únicos graus de liberdade da teoria são os graus de liberdade globais. É ai que a mágica ocorre: com esses poucos graus de liberdade, um efeito que veremos mais para frente se justifica: A equivalencia entre os difeomorfismos e as simetrias globais da teoria. Então um dos grandes problemas da gravidade em d=4, que é a construção de observaveis invariantes por difeormofismos, não existe mais. Ou seja, nós podemos construir uma teoria de gravitação quantica em d=3.

Com essa teoria, apesar de ser muito mais simples que a Gravitação em d=4, podemos agora estudar aspectos fundamentais da teoria: Transições topológicas, problemas do tempo etc…. E com isso ter uma compreensão maior de como seria essa teoria de gravitação quantica em d=4.

Gravidade d=3 [2]

domingo, 19 out 2008; \42\UTC\UTC\k 42 Deixe um comentário

Agora já entendemos que o número de graus de liberdade na teoria da gravitação pura é bastante reduzido. Quais consequencias imediatas isso acarreta?

As eq. de movimento da relatividade Geral são as chamadas Eq. de Einstein. Elas são R_{\mu\nu}-\frac{1}{2}g_{\mu\nu}R=0 (desconsiderando qualquer campo de matéria). Dela, podemos imediatamente descobrir que R=0 e R_{\mu\nu}=0 e portanto o Tensor de Riemann mencionado no post anterior também será identicamente nulo.

Isso poderia passar, para alguém que estudou um pouco de Relatividade Geral, que a teoria de Gravidade em d=3 é uma teoria trivial, já que o espaço seria sempre plano, e portanto sem dinamica. Só que nesse esquema ainda falta um ingrediente importate: A Topologia. As equações de Einstein não determinam a topologia do espaço, e portanto nosso trabalho agora será estudar ‘os graus de liberdade globais’, que surgem na teoria, advindos dos diferentes tipos de topologias.

Isso leva diretamente a primeira descriação desse modelo, que é chamada de Estruturas Geométricas.

Gravidade em d=3

domingo, 12 out 2008; \41\UTC\UTC\k 41 3 comentários

Faz tempo que estou com vontade de voltar a escrever alguma coisa em blog. Aproveitando a fase, vou falar um pouco de coisas que tem surgido na Física por ai.

Porque é interessante estudar gravitação em um número tão baixo de dimensões?

A maioria das pessoas ouvem falar em teorias com dimensões extras. Muitas vezes essas teorias tem a intenção de serem teorias fundamentais, mas isso não ocorre na gravitação em 2+1. Lá estudamos a teoria realmente como um toy model. Alguma vantagem temos em estudar esse toy model?

A gravidade é uma teoria geométrica do espaço. As propriedades de curvatura no espaço estão expressas em uma entidade chamada Tensor de Riemann. Em 4 dimensões, é um resultado bem conhecido que esse tensor tem 20 componentes indepedentes. Como nesse número de dimensões temos 10 equações de movimento para a teoria (as chamadas Eq. de Einstein), ainda temos dez componentes ‘livres’. Agora em tres dimensões uma mágica acontece. O número de componentes do tensor de Riemann é seis, que é o mesmo número de equações de movimento. Isso mostra que propriedades geométricas serão unicamente determinadas pelas equações de movimento.

Esse é um dos motivos da simplicidade da gravidade 2+1. De outro modo, você pode tentar contar o número do ‘gráviton’ da teoria. Para isso determinaremos a quantidade de graus de liberdade locais. Teremos n\frac{n+1}{2}-n componentes, mais suas derivadas temporais, o que resulta em n(n-1). E dessas podemos eliminar n componentes via escolha de coordenadas e n vínculos nas equações de Einstein. Isso da uma quantidade total de n(n-3).

Em d=4 isso são 4 graus de liberdade, e em d=3 são zero! Isso significa que não existem grávitons na teoria em d=3. Isso é outra amostra da simplicidade da teoria, que mais pra frente permite que efetivamente a quantizemos.

No próximo post tento explicar quais consequencias saem dessa simplicidade, o que nos gera efetivamente três manerias de descrever a teoria!

%d blogueiros gostam disto: