Arquivo

Posts Tagged ‘cosmologia’

Buracos negros por todo o universo

quarta-feira, 15 jun 2011; \24\America/New_York\America/New_York\k 24 2 comentários

Imagem composta do Telescópio Hubble (luz visível) e Telescópio Chandra (raios X) de galáxias a cerca de 12 bilhões de anos-luz de distância (redsfhit 6 a 7), quando o universo tinha cerca de 800 milhões de anos. A cor azul representa a imagem em raios X, vermelho no infravermelho, e demais cores no visível. Clique para ampliar.

Notícia marcante no dia de hoje: a NASA anunciou que amanhã a Nature publicará a primeira imagem em raios X do universo quando ele tinha apenas cerca de 800 milhões de anos, e… a primeira visão de buracos negros em escalas cosmológicas! Segundo o anúncio da NASA, a imagem em raios X permite estimar que para mais de 30% de todas as galáxias tem um buraco negro supermassivo no centro — astros até um bilhão de vezes mais pesados que o Sol — senão todas elas.

A imagem é do Telescópio Espacial Chandra de raios X. Este é um feito técnico impressionante, pois esses objetos a essa distância 12 bilhões de anos-luz são quase invisíveis mesmo aos melhores telescópios de raios X. A câmera do telescópio ficou 46 dias ininterruptos capturando a imagem. Buracos negros supermassivos são em princípio visíveis ao telescópio porque muitas vezes eles são acompanhados de estrelas vizinhas que começam a ter seu material sugado em direção ao buraco negro, e os elétrons do gás que compõe a estrela são acelerados com energias tipicamente próximas da região dos raios X altamente energéticos a medida que o gás entra no buraco negro (vide figura abaixo).

Simulações numéricas mostram que as primeiras estrelas do universo eram muito pesadas, viveram poucos milhões de anos e colapsaram para formar buracos negros supermassivos. O resultado de Chandra era portanto esperado.

A imagem é suplementar ao Telescópio Espacial Hubble que já mapeou a mesma região do céu na mesma distância mas na freqüência da luz visível. Os astrônomos já haviam observado que há correlações entre a massa dos buracos negros e a taxa de formação de estrelas na galáxias onde eles habitam no caso de galáxias relativamente próximas (e portanto, de idade similar a da nossa) e também com o formato da distribuição de matéria escura nas galáxia, em muito devido ao trabalho do astrônomo de Dartmouth Ryan Hickox. Porque os buracos negros influenciam a formação de estrelas e aglutinação de massa nas galáxias ainda não se sabe. O estudo que sairá amanhã na Nature é o primeiro a analisar a formação de buracos negros em galáxias tão antigas, mas os detalhes só amanhã.

Para mais sobre a relação da formação de buracos negros e galáxias, considere esse colóquio de Ryan Hickox (60min, em inglês).


Ilustração do que acontece quando uma estrela passa perto de um buraco negro. A medida que o gás cai no buraco, os elétrons do gás da estrela são acelerados e emitem raios X, visíveis ao telescópio Chandra. Crédito da foto: NASA (domínio público).

Atualização 1 16/06: artigo publicado hoje na Nature.

Fermi-LAT pode ter confirmado resultado do PAMELA

sexta-feira, 20 maio 2011; \20\America/New_York\America/New_York\k 20 1 comentário

Hoje a Physics World reportou que a colaboração Fermi-LAT fez uma divulgação preliminar durante um congresso de que eles podem ter confirmado o excesso de pósitrons nos raios cósmicos que atingem a Terra na região de 10 a 100 GeV observados pelo PAMELA. Esse resultado é do mais confuso, porque o Fermi-LAT não observa tal excesso para os elétrons.

 Espectro de pósitrons cósmicos do satélite PAMELA.

Espectro de pósitrons cósmicos obtido pelo satélite PAMELA. A linha sólida é o cálculo Moska & Strong. Não incluido o fluxo previsto por fontes pontuais temporárias.

Muitas pessoas irão falar que esse excesso pode ser explicado com processos astrofísicos comuns, mas isso tem que ser visto com muito ceticismo porque genericamente qualquer processo de aceleração clássico deveria gerar um espectro de potência que diminui com o aumento da energia dos pósitrons, como 1/En para n > 0. Porém, o PAMELA, e agora o Fermi-LAT, observam um crescimento do número de pósitrons de 10 a 100 GeV, o que contradiz intuitivamente a possibilidade do excesso vir de aceleramento astrofísico. Além disso, por que o processo astrofísico iria acelerar pósitrons nesta energia mas não os elétrons?

O que provocou a inflação?

quinta-feira, 5 maio 2011; \18\America/New_York\America/New_York\k 18 2 comentários

Dia sim, dia não, aparece um artigo no arXiv especulando sobre modelos específicos da inflação, e hoje mesmo apareceu um especulando sobre inflação advinda da QCD. Sabe-se pouco sobre a inflação, mas uma coisa que se sabe é o seguinte: o que causou a inflação não foi nada dentro do Modelo Padrão.

Para ocorrer inflação só é necessário um ingrediente: um campo escalar que seja a principal componente de energia do universo. Os demais requisitos são fáceis de ajustar: você sempre pode considerar uma região do espaço suficientemente pequena em comparação com as possíveis anisotropias desse campo dentro do qual a inflação ocorre, e sempre pode fazer o campo escalar decair a partir de um certo instante de tempo acoplando-o a outros campos. O que mais se tem na física de partículas são campos escalares neutros com acoplamento a outras partículas mais leves, então é fácil construir vários cenários com pións, kaons, Higgs…, você escolhe!

Mas nenhum desses pode estar certo. Isso é porque a principal função da inflação cosmológica (e a principal evidência de que ela ocorreu) é gerar a distribuição de probabilidades das anisotropias do universo. Uma vez que consideramos um campo escalar qualquer, o tamanho das anisotropias da radiação cósmica de fundo requerem que o parâmetro de Hubble na época da inflação seja de

H_* = \sqrt{\epsilon_*} \times 2.24(10)\times 10^{13} \; \text{GeV}

Ainda não é possível medir \epsilon_* com precisão, porém dentro de suposições razoáveis os dados do WMAP indicam este parâmetro deve ser da ordem de 10-2 (o valor exato depende do modelo usado para ajustar os dados). Isso sugere que durante a inflação, o parâmetro de Hubble era da ordem de 1012 GeV. Seja lá o que causou a inflação, espera-se que a física dessa escala de energia receba correções de efeitos de uma escala de energia M ainda mais alta. Então nós não podemos esperar que nenhuma teoria que recebe correções de efeitos físicos com M < 1012 GeV possa ter relação com a inflação cosmológica, como é caso de todos os campos do Modelo Padrão. Certamente você pode ajustar finamente que essas correções desapareçam, mas não há nenhuma boa motivação para isso. Dado o valor de H_* a densidade de energia durante a inflação deve ser da ordem de 1016 GeV, então um palpite mais razoável é que a inflação ocorreu devido a algum processo associado a essa escala, que pode ser algo como alguma unificação supersimétrica das forças fundamentais, ou o áxion se você olhar para o fato que M do áxion coincide com H*.

O universo é quântico II, novas divergências em TQC

terça-feira, 5 abr 2011; \14\America/New_York\America/New_York\k 14 5 comentários

Será que existem divergências em teorias quânticas de campos (TQC) em espaços-tempo curvos que não podem ser removidas por renormalização?

Como o título já deve dar a entender, esse segundo post já vai ser sobre um aspecto técnico.

Leia mais

Quem colapsou a função de onda do universo?

segunda-feira, 28 mar 2011; \13\America/New_York\America/New_York\k 13 2 comentários

Como ninguém perguntou no último post 😦 faço eu aqui a pergunta. Existe uma dificuldade conceitual na idéia da origem da estrutura do universo.

Para explicar o problema, deixe-me considerar o caso dos fótons da radiação cósmica de fundo. A temperatura média observada desses fótons é 2.73 K. Essa média é obtida da seguinte forma: o satélite recebe um conjunto de fótons vindos da direção n da abóboda celeste. Cada fóton recebido por unidade de tempo tem uma temperatura diferente; mas somando todos os fótons ao longo de um tempo t suficientemente longo, é possível determinar com uma precisão menor que 1 mK qual a temperatura dos fótons vindo daquela direção, chamemo-la T(n). Como eu disse, prever o valor exato da função T(n) é impossível porque requer saber exatamente qual a posição da Terra em relação ao ponto exato no espaço onde ocorreu o último espalhamento Compton que o fóton sofreu antes de chegar no satélite. No lugar disso, se faz a média T0 sobre todos os pontos da esfera celeste, ou seja, sobre todas as direções n. Essa média independe da direção. Esse é o valor 2.7 K. Nós podemos definir o desvio da média: ΔT(n)=T(n) – T0. A média do desvio da média é zero, mas não é zero a média do produto de dois ΔT(n), isto é o desvio padrão da média. Isso é análogo em mecânica quântica ao fato que a média da posição X pode ser zero, enquanto o mesmo não vale para X2.

A idéia proposta por Mukhanov e Chibisov é que essa média do céu é igual a mesma média obtida em mecânica quântica para a mesma variável. A dificuldade conceitual é que essas duas médias tem significados diferentes. A da mecânica quântica (MQ) significa o seguinte: você prepara o universo para ter início quando o tempo é zero em um estado \Psi, e mede a temperatura dos fótons na direção n em 12 bilhões de anos depois, o que te dará um valor T(n). Você então precisa colocar o universo novamente no estado \Psi no início e medir novamente T(n) 12 bilhões de anos depois, que vai lhe dar outro valor, e assim por diante. Uma série de medidas em vários universos diferentes é a média da MQ. Já a média utilizada na teoria clássica é de um mesmo universo sobre diferentes direções. Poder-se-ia questionar que quando a função de onda do nosso universo colapsou, a distribuição do campo gravitacional congelou em uma configuração específica da mecânica quântica. Essa configuração, tirada uma média sobre o espaço, é que constitui os observáveis astronômicos, e não a média sobre todas as possíveis realizações das flutuações do campo gravitacional, que é a média da física quântica. Mais objetivamente, como, quando e por que as probabilidades quânticas, como o emaranhamento, deixaram de ser flutuações quânticas do campo gravitacional e passaram a ser flutuações clássicas de intensidade do campo gravitacional? Será que toda vez que eu observo um fóton na radiação cósmica de fundo, eu colapso a função de onda de todo o universo? 🙂

O universo é quântico I

sexta-feira, 25 mar 2011; \12\America/New_York\America/New_York\k 12 4 comentários

A gravitação quântica pode estar ali na esquina…

Este vai ser o primeiro do que eu espero ser uma série de posts sobre os recentes avanços em cálculos de gravitação quântica em Cosmologia. Serão em tom de divulgação, mas com alguns detalhes técnicos aqui e ali. Eu não vou me preocupar em dar detalhes de referências no texto porque toma tempo e quem tiver interesse é só procurar ou perguntar. 🙂

Essa história começa com o seguinte problema. Suponha que eu aqui na Terra com um telescópio queira saber toda a evolução que trouxe a sopa primordial do universo até a formação de todas as galáxias:

 

A distribuição das galáxias no céu visto da Terra depende da posição relativa da Terra as galáxias vizinhas, o que nenhuma teoria cosmológica pode nos dizer. O que nós podemos calcular são na verdade aspectos probabilísticos do universo, como a densidade de massa média em um volume que contém muitas galáxias, ou o número de galáxias a uma dada distância d de outra galáxia. Olhando cada galáxia nas figuras dos telescópios e determinando quantas galáxias estão ao redor dela a uma certa distância d e depois tirando a média dessa quantidade para todas as galáxias vistas no telescópio pode-se tirar um estimador aproximado de como as galáxias estão distribuídas, e então comparar essa função de d com uma previsão da física.

Naturalmente, a física clássica não pode fornecer essa previsão: não faz parte do arcabouço conceitual clássico o conceito de probabilidades associadas aos observáveis físicos. As equações da Relatividade Geral para um fluido como a matéria escura, uma vez dadas as condições iniciais, tem uma evolução futura única. Quando os cosmólogos nos anos 60 toparam com essa questão, a estratégia foi introduzir artificialmente variáveis aleatórias no problema. Então, por exemplo, se A(\mathbf{x}, t) é um observável cosmológico (como a massa que existe no universo), os cosmólogos passaram a escreve-lo assim:

A(\mathbf{x}, t) = \sum_n \alpha_n(\mathbf{x}) A_n (t)

onde A_n(t) é cada uma das possíveis evoluções temporais da Relatividade Geral (t é o tempo) e \alpha(\mathbf{x}) é uma variável estrangeira a teoria que tem algum tipo de distribuição de probabilidade para como o observável se distruibui no espaço, por exemplo:

\langle\alpha_n \rangle = 0
\langle \alpha_n \alpha_m \rangle = P_{nm}

etc., onde \langle O \rangle quer dizer que estamos calculando o valor médio da variável aleatória O com respeito a alguma lei de probabilidade (por exemplo, no problema de um dado não viciado, cada face pode ter uma regra de probabilidade 1/6, e nós poderíamos definir a média de cada face \langle\alpha_i\rangle = 1/6, e a chance de tirar duas faces iguais \langle\alpha_i\alpha_j\rangle = (1/6)\times(1/6)). Na física clássica não existe nada que possa nos dizer a priori qual a distribuição de probabilidades (a não ser um chute!). (Na verdade a distribuição é feita no espaço de Fourier e não sobre o espaço-tempo).

A solução desse problema foi proposta em 1981 pelos russos Viatcheslav Mukhanov e Gennadiy Vasilevich Chibisov, então do Instituto de Física Teórica de Lebedev. Muita gente também dá crédito aos físicos do ocidente que puxaram a descoberta no contexto do modelo inflacionário logo em seguida: Stephen Hawking, Alan Guth e So-Young Pi, James Bardeen, Paul Steinhardt e Michael Turner.

Mukhanov e Chibisov fizeram um cálculo proposto a eles pelo colega Starobinsky: computar as flutuações quânticas do campo gravitacional em um modelo cosmológico proposto por Starobinsky. A suspeita era que os efeitos poderiam ser “grandes” e invalidar todo o modelo cosmológico. O que Mukhanov e Chibisov encontraram é que a distribuição de probabilidades do campo gravitacional quantizado no modelo de Starobinsky era idêntica a distribuição de massa do universo que acreditava-se na época ser necessária para garantir a formação das galáxias no modelo do Big Bang (apesar de que a distribuição de galáxias ainda não tinha sido observada em 1982!). Ora, se a fórmula é idêntica, a física deve ser a mesma: eles propuseram então que a origem da distribuição das galáxias era a gravitação quântica no universo primordial. A solução é muito elegante, pois promover os observáveis cosmológicos a observáveis em mecânica quântica permite associar a eles distribuições de probabilidades de forma natural. Mais importante, permite prever a distribuição de probabilidades do universo.

Hoje em dia a idéia é assim: o universo começou no vácuo, e passou por um período em que as distâncias entre dois pontos cresceram exponencialmente — a inflação. As flutuações quânticas do vácuo são pequenas, mas durante o período inflacionário elas são esticadas de um tamanho de 10-25 cm (cem bilhões de bilhões de vezes menor que o próton) até ao tamanho de uma galáxia. Essa flutuações querem dizer que a intensidade do campo gravitacional não é a mesma no espaço, o campo gravitacional tem uma probabilidade associada a ele de ter valores diferentes, igual como as probabilidades associadas a posição do elétron no átomo de hidrogênio. Os picos e vales de intensidade do campo gravitacional são essas flutuações. Eu já tinha escrito sobre isso no blog aqui.

Mas como é possível que o formato do campo gravitacional quântico no universo primordial possa ter dado origem as galáxias, se a inflação aconteceu mais de 100 milhões de anos antes das galáxias começarem a se formar? A física posterior a inflação não iria bagunçar o campo gravitacional do universo, como por exemplo, através de transições de fases, ou as colisões de prótons a altas energias, ou a formação do plasma de quarks e gluons?

Devido a inflação, essas flutuações se tornam tão grandes — do tamanho de uma galáxia! — que elas são muito maiores que a distância que a luz pode percorrer durante boa parte da história do universo. Quando o universo tinha 3 minutos, por exemplo, a distância que a luz pode percorrer desde o início do universo é de 3 minutos-luz; em comparação, uma galáxia tem cerca de 30 mil anos-luz de diâmetro. Só quando o universo já tinha mais idade que essas flutuações quânticas começam a ser influenciadas por outros efeitos físicos. Por uma boa coincidência de escalas, a temperatura do universo aos 3 minutos de idade era cerca de 1 MeV, que é a escala de energia típica da física nuclear, então esses outros efeitos que alteram a distribuição quântica primordial são física muito bem conhecida: física nuclear “para baixo”.

É curioso como se fala tanto que a física do LHC e do RHIC tem a ver com o Big Bang quando na verdade se sabe que qualquer efeito dessas escalas de energia não tem relevância para cosmologia.

Alguém ai entendeu alguma coisa?

No próximo post eu vou falar sobre os trabalhos recentes sobre as interações dos grávitons no universo primordial que afetam os observáveis cosmológicos, que em breve pode constituir um dos primeiros testes das interações da gravitação quântica graças ao satélite Planck. E depois sobre como se trombou com as diversas dificuldades da quantização da gravidade, e como a Cosmologia tem dado uma luz sobre como fazer contas com a Relatividade Geral quantizada.

Uma palestra técnica sobre o assunto você pode ver aqui, é o seminário “Cosmological Correlations” do Steven Weinberg. Já está desatualizada, mas eu não conheço nenhuma outra mais moderna.

Satélite Planck completa mapa de um ano

terça-feira, 6 jul 2010; \27\America/New_York\America/New_York\k 27 2 comentários

Edição 08/06/10: editado para melhor compreensão. 🙂

Olá! Estou meio ausente da Internet nas últimas duas semanas, e provavelmente assim ficarei pelo próximo mês, mas em um minutinho que me dêem agora explicarei um pouco sobre a recente notícia da imagem do satélite Planck divulgada ontem, para dar um contexto melhor que o divulgado pelos jornais não-especializados:

Mapa de um ano de dados da CMB da espaçonave Planck
Versão ampliada.
O que é esta imagem?

Esta imagem é um mapa da abóbada celeste da radiação cósmica de fundo que foi produzida no universo entre 420 — 450 mil anos após o início do tempo, quando os prótons quentes que sobraram das reações nucleares dos primeiros minutos do Big Bang combinaram-se com os elétrons que permeavam o universo em forma de gás. Leia mais…

Estranha natureza da matéria escura

domingo, 25 abr 2010; \16\America/New_York\America/New_York\k 16 2 comentários


Fotografia em raios X da galáxia NGC 720 do telescópio Chandra da NASA (lado esquerdo) revelaram a estrutura de matéria escura da galáxia (foto óptica ao lado direito), que agora desfavorece a existência de interações da matéria escura causadas por um bóson escuro leve.
Quem acompanha o blog viu que no final de 2008, o satélite europeu Pamela apresentou qual o número de prótons e pósitrons que bombardeiam a Terra vindo da galáxia e descobriu que para energias acima de aproximadamente 10 GeV, o número de pósitrons começa a aumentar, enquanto o número de prótons continua a diminuir[1].
Como um pósitron consegue chegar a 10 GeV de energia, que corresponde a uma temperatura de 1014 K, quando a temperatura no núcleo do Sol é de apenas 107 K? De onde veio essa energia do próton?
Em 1949, Enrico Fermi mostrou que esse tipo de energia para raios cósmicos é natural[2]. Existem prótons e elétrons espalhados pela galáxia, que vieram de processos astrofísicos, largados aqui e ali por estrelas e supernovas. Eventualmente eles encontram o campo magnético que existe na galáxia e ficam presos, mas esse campo possui inomogeneidades, gradientes, e a partícula quando encontra um pico de intensidade do campo magnético recebe uma força maior que a média que a mantém presa no campo e acaba sendo liberada com uma energia maior. Quanto mais energética é a partícula, mais difícil é desviá-la do seu caminho, então podemos em primeira aproximação imaginar que os acréscimos são inversamente proporcionais a energia que a partícula já possuia antes de receber o pontapé do campo magnético. Então a probabilidade de observar uma partícula com energia E na Terra deve ser inversamente proporcional a sua energia,

 
P(E) \propto 1/E^\gamma

onde \gamma > 0 é um fator a ser determinado experimentalmente. Esse mecanismo de Fermi não poderia explicar o súbito crescimento do número de partículas com energias acima de 10 GeV observados no Pamela e no ATIC, e por isso o crescimento foi interpretado como um sinal de nova física.
Mas se esse excesso fosse devido a aniquilação de matéria escura na galáxia produzindo pósitrons, então a probabilidade de aniquilação de matéria escura teria que ser muito maior que o valor esperado no cenário de WIMPs. Por isso, Neil Weiner e colaboradores sugeriram que deveria existir uma nova partícula leve que só interage com a matéria escura, porque tal interação introduziria um fator de aumento na probabilidade de aniquilação da matéria escura que depende da velocidade do gás de matéria escura:

 
S = \displaystyle{\frac{\pi \alpha_X / v_\text{rel}}{1 - \exp(-\pi \alpha_X/v_\text{rel})}}

Infelizmente, este mês relata Jonathan Feng e colaboradores na Phys. Rev. Lett. que essa interação já está excluída devido ao formato das galáxias[3]. Motivados por estudos numéricos do formato dos halos de matéria escura quando se inclui interações[4], eles argumentam que a introdução de interação favorece a formação de halos mais esféricos do que aqueles que seriam formados desprezando interações, e então usam os dados sobre a elipsidade do halo da galáxia NGC 720 que foi estudado com as imagens de raios X do telescópio Chandra[5] e comparam com as simulações numéricas em função da intensidade da interação da matéria escura para restringir a seção de choque. O principal resultado deles é o gráfico da Fig. 1, que mostra que o valor do aumento da seção de choque S compatível com os dados do satélite Pamela não é compatível com o valor limite de S permitido pelo formato do halo de matéria escura de NGC 720.

Fig. 1, gráfico de S versus massa da partícula de matéria escura, da ref. 2. A região verde indica a parte favorecida pelos dados do Fermi, a vermelha pelos dados do Pamela. A linha tracejada indica o limite em S extraído da forma da galáxia NGC 720, e a linha azul da abundância de matéria escura. A discrepância se dá no fato que para produzir as regiões verde e vermelho, é necessário que a partícula intermediadora da aniquilação de matéria escura tenha massa 250 MeV, que já está excluído nesta região que requer uma massa de, no máximo, 30 MeV.

Esse resultado é consistente com a interpretação de que não há nenhum excesso no espectro de raios cósmicos, como os novos dados do satélite Fermi sugerem.

Referências

  1. Velhas e novas evidências da matéria escura
  2. E. Fermi, Phys. Rev. 75, 1169–1174 (1949).
  3. J. L. Feng, M. Kaplinghat, H.-B. Yu, Phys. Rev. Lett. 104, 151301 (2010).
  4. Romeel Davé et al. ApJ 547 574 (2001).
  5. David A. Buote et al ApJ 577 183 (2002).

Origem do universo e a seta do tempo

quinta-feira, 8 abr 2010; \14\America/New_York\America/New_York\k 14 10 comentários

Uma palestra interessante do Sean Carroll sobre o problema da seta do tempo, em novembro de 2009 na Universidade de Sidney:

http://sciencestage.com/v/21993/the-origin-of-the-universe-and-the-arrow-of-time.-sean-carroll.html

Parte do que se tornou o mais recente livro do Sean. 🙂

Sean acredita que é possível demonstrar a segunda lei da Termodinâmica, no sentido de que a entropia deve crescer no tempo. Um ovo sempre vira um omelete, ele diz, mas não o inverso. No entanto, o ovo veio da galinha, mas de onde veio a entropia baixa do universo que permitiu ele aumentar em entropia com o passar do tempo?

Mas eu fiquei confuso com o argumento do Sean. Primeiro, ele diz que é possível demonstrar a segunda lei da Termodinâmica. Mas logo em seguida, ele diz:

“[Boltzmann] explica porque se você começar com menor entropia você vai para maior entropia. Mas claramente deixa uma pergunta sem resposta: por que o sistema começou com baixa entropia? (…) É fácil prever usando apenas as idéias de Boltzmann que começando hoje a entropia amanhã será maior. É impossível usando apenas as idéias de Boltzmann dizer porque a entropia era menor ontem. De fato, (…) como as leis da física são invariantes por reversão temporal, você pode provar que a entropia era maior ontem, do mesmo modo que você pode provar que ela será maior amanhã.”

Carroll parece está concordando, no final, com o conhecido paradoxo de Loschmidt (como eu falei neste outro post.), ou, de forma mais transparente na minha opinião, com o fato que, até onde eu saiba, a única equação que parece mostrar uma característica de crescimento no tempo para a entropia é o enunciado do teorema H, e esta equação é também simétrica por inversão temporal, tendo portanto duas possíveis soluções para qualquer processo físico: aumento de entropia ou diminuição de entropia, como função do tempo. A única forma de obter uma única solução para todos os processos físicos, é assumir que não é válida a inversão temporal na equação do teorema H. Contudo, isso está em conflito dentro da minha cabeça com a idéia de que a segunda lei da Termodinâmica pode ser provada.

Além desse argumento confuso, que eu até o momento não consigo concordar, eu tendo a apontar dois outros problemas com essa idéia:

  1. entropia é uma escolha de descrição estatística de sistemas, portanto é estranho dizer que o efeito só aparece por causa de uma escolha de descrição. Em princípio seria possível calcular exatamente a evolução temporal de um gás sabendo as velocidades iniciais e posições de todas as moléculas, e só existiria um único estado microscópico do sistema em cada instante de tempo. É apenas uma questão de escolha de descrição — ou aproximação fisica útil — fazer uma média temporal sobre os estados do sistema e então contar todos os estados possíveis que ele poderia estar, que é a descrição Termodinâmica. Seguindo o raciocínio de E. T. Jaynes, sabemos que essa descrição é de fato a melhor inferência estatística possível de ser feita dada um conjunto de conhecimento a priori e isso independente até mesmo da validade da Termodinâmica — i.e. de quão boa é essa aproximação estatística para a dinâmica do sistema. É muito difícil para mim acreditar que a seta do tempo desapareceria se nós tivéssemos um computador suficientemente poderoso para calcular a dinâmica de um gás ideal…
  2.  

  3. por que a gravitação parece desconsiderar essa simetria de inversão temporal? Pelo princípio de inversão temporal, para cada buraco negro, deve haver um buraco branco no universo, mas isso não é observado. O universo está em expansão com {\dot{H} < 0} e se {\dot{H} > 0} não ocorreria apenas uma inversão temporal como a positividade da energia de um gás ideal — que não é um teorema, mas um preconceito teórico bem razoável — seria violada. Em termos de teorias de campo em universos em expansão, isso se traduziria numa teoria que viola a unitariedade, com um sinal negativo para a energia cinética.

Contudo um ponto de encontro: eu acho que posso concordar com a questão reformulada da seguinte forma: porque existe uma condição de contorno para a equação do teorema H de que o valor inicial da entropia é menor que o final? Isso é apenas uma reformulação do problema.

Demonstrado novo parâmetro cosmológico

quinta-feira, 11 mar 2010; \10\America/New_York\America/New_York\k 10 1 comentário

Em 2007, Pengjie Zhang e outros cosmólogos teóricos sugeriram que a observação da posição e velocidade das galáxias com o desvio da propagação da luz dessas galáxias até nós serviria de uma medida da distribuição de massa do universo. (arXiv:0704.1932). Até então, a técnica utilizada pelo projeto astronômico do telescópio Sloan Digital Sky Survey (SDSS) consistia em medir a distribuição de galáxias e o desvio para o vermelho da galáxia e extrapolar o resultado para a distribuição de massa assumindo que a matéria escura deve seguir aproximadamente a mesma distribuição espacial que os prótons e nêutrons (bárions). Isso não é exatamente verdade porque os bárions formam um gás que interage muito mais facilmente com os fótons da radiação cósmica de fundo do que a matéria escura, e como resultado, os bárions são mantidos a uma temperatura próxima da radiação de fundo antes da formação das estrelas. Esse gás quente de bárions tem pressão presumivelmente maior que a pressão da matéria escura. Em Relatividade Geral, nós podemos deduzir a relação entre a fração da massa de bárions que acompanha a matéria escura e pode-se dizer que o contraste de densidade de bárions é de 10% a 17% menor que o de matéria escura quando se inclui a pressão do gás. Mais importante é talvez o fato de que devido a pressão dos bárions, existem concentrações densas de matéria escura no universo onde não existem galáxias. Todas essas concentrações de matéria escura pura são perdidas na estimativa original do SDSS.

A idéia de Zhang foi de utilizar as velocidades das galáxias e suas posições e relacionar com a lente gravitacional observada. Combinando astutamente estes dois observáveis diferentes de galáxias, é possível eliminar o efeito da pressão dos bárions pelo menos para certas partes da distribuição espacial da matéria total do universo. O observável é sensível a taxa de crescimento de estruturas (quão rápido/forte é a formação das galáxias) que depende sensivelmente com a teoria da gravitação subjacenete, e dessa forma medindo-a é possível testar diferentes teorias da gravitação. No artigo de Zhang, eles mostraram que com a sensibilidade projetada do telescópio SKA, seria possível distinguir a Relatividade Geral de MOND, f(R) e uma teoria de dimensões espaciais extras (conhecida pela sigla de seus autores, DGP) — isso tudo são outros candidatos para teoria da gravitação.

Agora, uma estudante de pós-graduação de Princeton, Reinabelle Reyes, junto com vários outros astrofísicos e astrônomos, demonstrou que a técnica é eficiente (Nature 464, 256-258 (2010)) usando os dados do SDSS. Na realidade, este resultado não é um teste preciso da Relatividade Geral — embora é um teste independente –, e tampouco produziu algo de novo em termos de excluir teorias pois já era sabido de lentes gravitacionais que MOND sem matéria escura não é consistente com os dados (e.g., este post). As barras de erro ainda são muito grandes para poder discernir entre a Relatividade Geral e as alternativas, contudo o que vem como importante é a demonstração de que é possível medir o parâmetro diretamente com erros sob controle. O programa agora será diminuir as incertezas nos telescópios futuros, e quem sabe, projetar um telescópio otimizado para essa medida, que não é o caso do SDSS, de modo a permitir a exclusão ou confirmação mais definitiva de alternativas a Relatividade de Einstein.

Sean Carroll no Colbert Report

quinta-feira, 11 mar 2010; \10\America/New_York\America/New_York\k 10 1 comentário

Ontem o Sean Carroll esteve no Colbert Report falando sobre seu livro de divulgação. Como o WordPress não deixa inserir vídeos nos posts, eu só posso passar o link abaixo:

http://www.colbertnation.com/the-colbert-report-videos/267142/march-10-2010/sean-carroll

E como parte da história, a pergunta final do Steve 🙂

Dilbert.com

A força do vácuo: o efeito Casimir e a energia escura

terça-feira, 2 mar 2010; \09\America/New_York\America/New_York\k 09 9 comentários

Visualização do efeito Casimir

Dois objetos são atraídos devido a força do vácuo existente entre eles.[9]

O efeio Casimir, previsto em 1948 pelo físico holandês Hendrik Casimir da Phillips, só foi demonstrado em 1997, e constitui evidência de que o vácuo tem uma energia associada. É um fenômeno puramente da mecânica quântica e nele reside uma das maiores icógnitas da física contemporânea: o problema da constante cosmológica.

Energia em Física Clássica e Quântica

Embora no nosso quotidiano nós usamos a palavra energia de forma coloquial como sinônimo de vigor, eficácia ou determinação, em Física, energia possui um significado mais específico. Quando descrevemos o movimento de uma partícula de massa m em física clássica, a energia associada a essa partícula é uma função E(\mathbf{x},\mathbf{v}) da posição e da velocidade da partícula que é constante ao longo do tempo devido ao fato de que se eu encontro uma solução x(t) da equação de Newton, então x(t+a) para um número real arbitrário a é também solução da equação de Newton. Incluindo-se efeitos da Relatividade, essa quantidade é

E = \sqrt{(pc)^2 + (mc^2)^2}

onde p = mv/\sqrt{1-v^2/c^2} é o momento da partícula. Em mecânica quântica, nós podemos ver a origem da energia de forma análoga: introduz-se a energia através da simetria de translação temporal da mecânica quântica, aplicando um teorema devido ao matemático Marshall Stone que diz que a simetria temporal se traduz na existência da energia.

A Energia do Vácuo

Como em física clássica a energia é associada ao movimento de uma partícula, veio então com uma certa surpresa a descoberta de Werner Heisenberg, Pascual Jordan e Max Born de 1925, em um dos artigos de fundação da mecânica quântica[1], que mesmo uma caixa de volume V sem nenhum fóton dentro deveria ter uma energia associada, segundo a mecânica quântica, de

E_0 = \displaystyle\frac{1}{2}\sum_{k}\hbar \omega_k

onde o índice zero em E0 subentende que é a energia da ausência de todas as partículas (o vácuo) e a soma é sobre todas as possíveis freqüências \omega_k que podem existir dentro da caixa. Isso é devido ao fato de que se descreve a luz na ausência de qualquer efeito causado por uma partícula carregada como uma oscilação do campo eletromagnético, decomposta em uma soma sobre osciladores harmônicos de freqüência \omega_k. Como em mecânica quântica o oscilador harmônico possui uma energia mínima de \hbar\omega_k/2, segue o resultado da energia mínima do campo eletromagnético. O estado físico que se associa a essa energia mínima é o vácuo.

O significado dessa energia do vácuo ficou durante muitos anos obscuro: não se sabia como dar um resultado finito para essa soma, então tipicamente o tratamento de problemas da luz ou outras partículas era realizado negligenciando a soma, sob a justificativa de que pode-se escolher o zero de energia. Porém, há pelo menos duas circunstâncias conhecidas em que isso não é possível: quando efeitos gravitacionais são incluídos, o que dá origem ao chamado problema da constante cosmológica, ou quando há uma mudança no volume da caixa V que contém o vácuo, que produz o efeito Casimir.

Efeito Casimir

Se nós tivermos uma região de vácuo e permitimos que o volume V dessa região mude, então também mudam as energias permitidas existir dentro desse volume. Não é difícil entender porque: se um dos lados da caixa tem comprimento L, o comprimento de onda da luz que poderia existir dentro da caixa não pode ser maior que L (só frações de L são permitidos). Se o comprimento da caixa muda para L + δL, então a soma sobre k da energia do vácuo muda e passa a incluir agora os modos de comprimento de onda L + δL. Variar a energia do sistema requer trabalho, então mudar o tamanho da caixa vai exigir a ação de uma força. A força resultante do trabalho que altera a energia do vácuo ao aumentar a distância d de duas placas metálicas de área A foi calculada por Casimir[2], do centro de pesquisa da Phillips de Eindhoven, em 1948:

F = \displaystyle{{\hbar c} \frac{\pi^2 A}{240 d^4}}.

Para duas placas de 1 cm2 de área separadas por uma distância de 1μm, essa força é um milionésimo do peso de 1 grama na superfície da Terra! Certamente pequena, mas não impossível de ser observada. Se nós colocarmos duas placas metálicas na vertical fixas a uma distância d, então será necessário aplicar a força de Casimir para evitar que o vácuo atraia as duas placas.

A primeira demonstração de que o efeito provavelmente existia, foi feita por Marcus Sparnaay também da Phillips, em 1958, utilizando placas metálicas planas paralelas (um capacitor!)[3]. Acontece que como a força é muito pequena, é experimentalmente difícil obter precisão suficiente no deslocamento das placas devido a problemas de alinhamento, e Sparnaay conseguiu observar o efeito de atração das placas, mas não foi capaz de medir o valor exato. A verificação do resultado numérico em detalhe só foi possível em 1997 em um experimento realizado por Steve K. Lamoreaux[4], então na Universidade de Washington em Seattle, que observou a existência do efeito Casimir entre uma placa metálica e outra esférica com d variando entre 0.6μm a 6μm — uma ordem de grandeza! Esse experimento demonstra o contra-intuitivo fenômeno quântico que o vácuo de fato tem energia associada a ele!

Desde a descoberta de Lamoreaux, o efeito já foi medido para materiais e geometrias diferentes. Um grupo na Itália em 2002 conseguiu com menor precisão medir o efeito para a geometria original de placas paralelas[7]. Já foi até medido o efeito Casimir repulsivo no final de 2008 — i.e. levitação quântica!

Arranjo experimental para medir o efeito Casimir

Roberto Onofrio (esq.), e seu aluno de pós-graduação, Michael Brown-Hayes, e um esquema experimental típico com uma câmera de vácuo para medida da força de Casimir, neste caso entre um cilindro e um plano (dezembro de 2005, Dept. de Física, Dartmouth College). Crédito da foto: Vox of Dartmouth, 12/05.

No experimento original de Lamoreaux, dois filmes finos de cobre revestem uma placa plana fixa e outra esférica móvel. A placa móvel pode deslocar-se ao longo de um círculo de raio R presa a uma barra, de modo a encontrar a placa fixa em um ponto desse círculo. A barra é presa a um fio metálico para formar um pêndulo de torsão. A medida precisa da força atuando entre as placas no vácuo é feita mantendo a balança parada usando uma voltagem regulável que aplica uma força eletrostática ao extremo oposto da barra com respeito a posição da placa esférica (dois desenhos esquemáticos podem ser encontrados no artigo original de Lamoreaux)[8].

A energia do vácuo por todo o universo: o problema da constante cosmológica

Quando a energia do vácuo foi descoberta, não se sabia dar um significado físico a ela, pois o número de freqüências que pode existir dentro de uma caixa é infinita, então a soma parece ser infinita. Porém, emergiu dentro da física uma visão de que se nós incluirmos na teoria apenas fótons, a teoria só é válida até um certo limite de tamanho mínimo, a partir do qual outros efeitos se tornam relevantes, digamos como a unificação eletrofraca quando os fótons passam a se misturar com o bóson Z. Ou mesmo que seja possível levar em conta todas as partículas conhecidas do Modelo Padrão, o limite de comprimento passa a ser o comprimento de Planck, que é a escala de tamanho a partir da qual efeitos quânticos da gravidade se tornam importantes. Assim, uma primeira forma de calcular aproximadamente o valor da energia do vácuo é truncar a soma no valor máximo do comprimento de onda, e o resultado é[5]:

\displaystyle{\rho_0 = \frac{E_0}{V} = \frac{\hbar c}{8\pi} \left(\frac{2\pi}{\lambda_c}\right)^4}

onde \lambda_c é o valor máximo que nós podemos aceitar do comprimento de onda. Suponhamos que nosso limite de validade é o raio do próton (\lambda \sim 10^{-15}\;\text{m}), então a densidade de massa equivalente dada por E = mc^2 para essa energia seria de 2×109 ton/cm3! Ou seja, em um centímetro cúbico do espaço, existiria uma massa de um bilhão de toneladas. Tanta massa assim geraria um campo gravitacional gigantesco, porém nenhum tal campo gravitacional é observado. Em contraste, a densidade de massa total do universo observada no diagrama de Hubble é de 1.0×10-29 g/cm3, uma diferença de 44 ordens de grandeza. Colocando o valor de \lambda_c para valores menores, como a massa do top quark — que podemos tomar como o presente limite de validade das teorias de partículas quânticas –, ou a escala de Planck, só aumenta o valor da energia do vácuo. As vezes isso é incorretamente interpretado como uma previsão da teoria que não condiz com os dados experimentais. Na verdade, uma análise mais cuidadosa do cálculo da energia do vácuo[6] revela que somos obrigados a adicionar um termo que está faltando na soma original que é uma constante arbitrária que a teoria da física de partículas não pode determinar:

\rho_\text{real} = \rho_0 + \rho_\text{livre}

onde eu indiquei que o valor observado, ou real, é igual a contribuição dos modos que dão origem ao efeito Casimir, \rho_0, mais a densidade de energia livre que não pode ser determinada em teoria. O que nós podemos fazer, então, é usar a astronomia (ou quem sabe no futuro, experimentos em laboratórios terrestres) para determinar \rho_\text{real} e então usar o valor observado para calibrar \rho_\text{livre}. Mas independente de qual a escolha certa para o comprimento de onda \lambda_c que usemos para obter a energia do vácuo, nós podemos ver que o valor observado já é, dentro da nossa primeira estimativa, 44 ordens de grandeza menor que a densidade do vácuo, o que implica que o parâmetro livre é negativo e idêntico ao valor da energia do vácuo em pelo menos 44 ordens de grandeza de modo a cancelar esse valor muito fina e precisamente para resultar em um \rho_\text{real} pequeno:

1.0 × 10-29 g/cm3 = 2.0 × 1015 g/cm3 – 1.99…90 × 1015 g/cm3.

Por que ocorre esse cancelamento perfeito? Que mecanismo físico, princípio fundamental ou simetria da Natureza é responsável por isso? E de onde vem o resíduo da diferença? Esse é o problema da constante cosmológica: o ajuste fino entre \rho_\text{livre} e \rho_0 necessário para que o campo gravitacional do universo seja pequeno.

Até o momento não há nenhuma explicação razoável para o mecanismo físico desse cancelamento. Há experimentos em andamento (e.g. no grupo de S. K. Lamoreaux na Universidade de Yale) para testar possíveis efeitos gravitacionais na força de Casimir, observando se há alguma variação na força que acompanha o movimento da Terra no campo gravitacional do Sol. Por enquanto, não creio que parece claro na teoria da gravitação porque qualquer fenômeno desse tipo aconteceria, mas isso não é impedimento para os físicos experimentais irem atrás de um possível efeito! Então, se você estava procurando um problema de física tanto teórica como experimental bem difícil e interessante, ai está um para ir trabalhando. 🙂

Notas

  1. Z. f. Physik 35 557 (1925). Eu comentei anteriormente sobre esse artigo no blog aqui.
  2. Casimir, H. G. B., Kon. Ned. Akad. Wetensch. Proc. 51 p. 793-795 (1948), online.
  3. Physica, 24 751 (1958).
  4. Phys. Rev. Lett. 78 p. 5-8 (1997), online.
  5. Para deduzir essa fórmula, você deve transformar a soma em uma integral e escrever para a densidade de estados que \omega^2 = (kc)^2. Você deve lembrar que a soma para E0 vira uma integral sobre número de onda vezes o volume V, daí a relevância da densidade de energia.
  6. Digamos, através da minimização da ação quântica efetiva \Gamma, ou de um simples argumento de renormalização de que a Hamiltoneana pode conter um termo constante livre. Só é possível renormalizar \Gamma introduzindo um parâmetro livre para a energia do vácuo (que não pode ser zero, embora a soma do termo livre com a contribuição dos modos zero de vibração pode!).
  7. G. Bressi et al., Phys. Rev. Lett. 88, 041804 (2002), online.
  8. Esse tipo de arranjo experimental é muito comum. Parece que o princípio básico foi introduzido por Coulomb para medir a força eletrostática, e depois dele, Cavendish, para medir G, e atualmente é empregado para várias medidas de precisão, como violação do princípio da equivalência, além do efeito Casimir.
  9. Versão artística da força de Casimir, imagem de Jay Penni/Federico Capasso, revista Nature, 8 de janeiro de 2009.

Fermi-LAT põe nova restrição a decaimento de matéria escura

quarta-feira, 13 jan 2010; \02\America/New_York\America/New_York\k 02 1 comentário

Anteriormente no blog, eu falei sobre a excitação da possível descoberta de interação da matéria escura com elétrons. A idéia é que existe um modelo para o cálculo do espectro dos raios cósmicos na nossa galáxia que se ajusta bem aos dados para certos limites, mas está no momento sistematicamente abaixo do valor experimental para energias altas (maior que 100 GeV). Entre tais evidências do excesso experimental, figura uma medida precisa do número de elétrons cósmicos acima de 10 GeV pelo balão atmosférico ATIC em outubro de 2008 e radiação gama medida pelo satélite EGRET da NASA e antecessor do Fermi-LAT, e pelo satélite INTEGRAL da Agência Espacial Européia (ESA). Não muito tempo depois da descoberta do ATIC, o satélite Fermi da NASA publicou resultados sobre os elétrons cósmicos contradizendo o excesso alegado pelo ATIC.

Em 16 de dezembro do ano passado, em uma notícia que passou-me desapercebida, Fermi tornou pública novas medidas dos raios gama que contradizem o excesso observado pelo EGRET e que estão de acordo com o modelo de difusão de raios cósmicos. Se as medidas do Fermi-LAT estiverem corretas, o excesso (se é que há algum) de raios gama é muito menor do que o sugerido pelo experimento EGRET, desmotivando a introdução de novas interações da matéria escura com os léptons. Todavia, se isso for o caso, tampouco deve-se interpretar o resultado do satélite PAMELA (que mediu pósitrons sistematicamente acima do modelo de difusão) como indicativo de interação da matéria escura. Se o resultado do Fermi-LAT for vindicado, então ainda não foi desta vez que foi possível vasculhar parte da natureza do setor escuro do universo. Porém, eu quero deixar uma ressalva com respeito a publicação do Fermi-LAT: embora a colaboração conclui que há consistência da medida com o modelo, pode-se ver do gráfico (que eu reproduzo aqui abaixo), que as medidas são sistematicamente acima da previsão teórica. Isso pode não ser útil para identificar essas interações como sinal claro de matéria escura, mas é para entender mais detalhes da produção e propagação de raios cósmicos.


Resultado do espectro de raios gama da nossa galáxia medido pelo Fermi-LAT. Os pontos vermelhos no topo do gráfico são os dados, incertezas indicadas pela faixa vermelha. A região tracejada de preto é a previsão final do modelo teórico.

Atualizações do Ultra Deep Field, Planck e LHC

quarta-feira, 9 dez 2009; \50\America/New_York\America/New_York\k 50 Deixe um comentário

Planck

Já faz algum tempo que eu gostaria de passar a notícia (atrasada) que o satélite Planck vai bem, obrigado. No presente momento, o cronograma atualizado da missão espera que em 2012 os resultados das medidas precisas de anisotropia da radiação cósmica de fundo se tornem públicas.

Ultra Deep Field

Logo depois que o Hubble sofreu sua atualização este ano, a câmera do Hubble Ultra Deep Field (HUDF) permitiu detectar as primeiras galáxias com redshift z ~ 8 (o recorde era z ~ 7). E ontem a imagem do HUDF foi atualizada.

Hubble Ultra Deep Field 2009

LHC

O LHC realizou a primeira colisão de prótons a energia de 2.36 TeV.

Fofoca do CDMS…

quinta-feira, 3 dez 2009; \49\America/New_York\America/New_York\k 49 11 comentários

Fofoca de Física é punk… 😎

Mas, anda correndo na boca miúda… que o CDMS está prestes a fazer um “anúncio público” no dia 18 de Dezembro (exatos 15 dias de hoje)! Inclusive, continua a fufuca, com direito a artigo publicado na Nature e tudo mais. 😈

Não dá pra contar a fonte, claro (senão, não seria fufuca 😉 ), … mas, dá pra dizer que a notícia veio desde o “alto escalão“, do “alto clero“, direto pros mortais…

😈

Fiquem ligados!

Como começou a expansão do universo?

quarta-feira, 25 nov 2009; \48\America/New_York\America/New_York\k 48 3 comentários

Lendo artigos de um grupo de cosmólogos teóricos bem ativos na atualidade, eu cruzei com a observação interessante levantada por Paolo Creminelli, Leonardo Senatore, Markus Luty e Alberto Nicolis, de que na teoria da gravitação atual, a taxa da expansão do universo sempre diminui. A taxa de expansão é o que se chama o parâmetro de Hubble, H. As galáxias relativamente próximas a nós estão se afastando com uma velocidade que é proporcional ao valor atual de H vezes a distância: v = Hatuald. Quanto maior H, mais rápido as galáxias a uma dada distância d se afastam.

Para teorias de campos que respeitam o princípio de relatividade e que possuem apenas soluções estáveis, a variação do parâmetro de Hubble no tempo é sempre negativa:

\Delta H/\Delta t < 0

que está de acordo com a idéia que a gravitação é atrativa. Portanto, mesmo em um universo com expansão acelerada, o que significa que a taxa da variação da distância média entre galáxias aumenta com o tempo, a taxa de expansão do universo diminui com o tempo, e portanto a gravitação de fato desacelera a expansão. Isso é importante porque garante, entre outras coisas, que a gravidade pode atrair matéria para uma região do espaço e formar aglomerados, como as galáxias. Essa condição também assegura que exista um mínimo para a energia do conteúdo do universo, o que se traduz no importante fato de que existe um estado de vácuo estável em cada instante, e que partículas não podem ser criadas do nada sem custo de energia. Em poucas palavras, garante certos critérios de estabilidade física da teoria.

No universo primordial H tinha um certo valor HI maior que o atual, mas se imaginarmos ingenuamente que a expansão do universo deveria ter começado com um processo físico que gradualmente levou o valor de H de zero para HI, precisamos que a variação no tempo de H possa ser positiva, pelo menos no momento da origem do universo. Isso não quer dizer que essa visão ingênua esteja certa, mas seria de fato interessante estudar a possibilidade de um processo físico que leve H de zero para um valor não nulo. Mas como é possível garantir simultaneamente que H cresça no tempo e que a estabilidade física da teoria seja satisfeita?

Creminelli e os demais sugeriram o seguinte: e se nós permitimos que essa violação da estabilidade ocorra de forma controlada para escalas de tamanho sempre maiores que o raio visível do universo? Em outras palavras, seria possível obter simultaneamente uma variação positiva no tempo para H e uma teoria em que sempre em escalas de tamanho suficientemente pequenas você tem efetivamente estabilidade?

O truque reside em começar com uma teoria para a inflação que seja salutar e estudar as perturbações do campo inflacionário (o inflaton) produzidas pelas flutuações quânticas e mostrar que essas perturbações podem contribuir para H de forma a provocar \Delta H / \Delta t > 0. Porém essas perturbações todas podem ser controladas para terem tempo de vida sempre maior que a idade do universo, de modo que nenhum observador é capaz de ver os efeitos físicos da instabilidade, a não ser através de H. Que isso é de fato possível não é trivial, e eu não sei explicar sem mostrar a matemática. Nós podemos começar com uma teoria absolutamente genérica de que existe um certo campo escalar \phi que domina a densidade de energia do universo, e então mostrar que as flutuações quânticas desse campo contribuem para H de modo que a variação no tempo de H seja positiva. Para que o universo sempre possua estabilidade física dentro de todas as regiões causais, deduz-se que a escala de energia da energia escura não pode ser muito maior que aproximadamente 100 GeV. Isso não está completamente descartado uma vez que esta energia é do setor escuro da Natureza, aquele que interage muito fracamente com os prótons, elétrons, fótons, etc., a não ser gravitacionalmente. Se você lembrar de um post anterior, eu já discuti como é possível que exista interações novas da matéria escura exatamente nessa escala de energia.

Uma série de artigos técnicos sobre esse assunto são estes:
arXiv:hep-th/0606090, arXiv:0911.2701, arXiv:0811.0827.

Versão um pouco mais técnica. Visto que

\dot{H} = -4\pi G (\epsilon + p )

para equações de estado p = w \epsilon com w > -1 sempre temos \dot{H} < 0. Para obter \dot{H} > 0 é necessário violar a condição de energia nula (NEC) \epsilon + p > 0. Isso pode ser feito apenas no setor das inomogeneidades da energia e pressão, i.e. calculando-se \delta p e \delta \epsilon, sendo que \bar{\epsilon} e \bar{p}, onde a barra significa a solução homogênea e isotrópica, é sadia. Isso cria um w efetivo menor que -1, violando a NEC. Mas como \delta p e \delta \epsilon são funções do espaço, as componentes de Fourier \delta p_q e \delta \epsilon_q podem ter instabilidade apenas para números de onda q suficientemente grandes, i.e. sempre satisfazendo q/aH \ll 1. Isto é equivalente a tomar que o período característico dos modos instáveis em um instante de tempo é maior que a idade do universo naquele instante. Para evitar a instabilidade gravitacional, a freqüência de Jeans associada ao modo instável também precisa ser menor que H.

Tomografia do universo revela evidência de energia escura

terça-feira, 3 nov 2009; \45\America/New_York\America/New_York\k 45 5 comentários

Resultado da análise de lentes gravitacionais usando o telescópio espacial Hubble revelou evidência independente da expansão acelerada do universo.

O conjunto de evidências favoráveis ao modelo do Big Bang com expansão acelerada acaba de crescer. Um grupo de astrônomos e astrofísicos de países da Europa, Estados Unidos e China — chamada colaboração COSMOS — finalizou uma detalhada análise da distribuição de lentes gravitacionais que indica que o universo é descrito pelo modelo do Big Bang com aceleração. O grupo utilizou dados de uma câmera do telescópio espacial Hubble que fotografa galáxias próximas a Terra dentro de uma área de aproximadamente (1.6°)2. Através de um método de estimativa do desvio para o vermelho da luz das galáxias, COSMOS mediu parte da distribuição de massa do universo em diferentes distâncias para concluir que esta exige um termo de aceleracão para a expansão do universo. Cosmólogos medem a contribuição da aceleração do universo em termos de um parâmetro conhecido como a (densidade da) constante cosmológica, que é zero em universo em expansão desacelerada, e positivo para um universo acelerado, \Omega_\Lambda. O recente resultado, publicado hoje, revela que

\Omega_\Lambda > 0.32.

Esse número significa que pelo menos 32% da densidade de energia do universo está na forma da componente responsável pela expansão acelerada, genericamente chamada de energia escura.

O método usado pelo grupo COSMOS é inédito, e é importante porque revela uma medida da aceleração da expansão do universo que independe da calibração de distância inventada com as medidas de supernovas tipo Ia — esta foi a relação entre intensidade da luz emitida pela supernova em função de sua distância, que permitiu a descoberta da aceleração do universo em 1998.

Lentes gravitacionais fracas

Fig. 1: Imagem do telescópio espacial Hubble do aglomerado de galáxias Abell 2218. O campo gravitacional das galáxias do aglomerado distorce a imagem de galáxias que estejam atrás deste, que tem sua forma esticada em uma elipse, que são os arcos visíveis ao redor do aglomerado.

Toda vez que um raio de luz passa perto de uma massa M, o campo gravitacional de M atrai o raio de luz, causando uma deflexão. Esta deflexão foi vista pela primeira vez por Arthur Eddington e constituiu uma das primeiras evidências a favor da teoria da Relatividade Geral de Einstein. Um conjunto de galáxias funciona como a massa M para galáxias próximas que estejam atrás do aglomerado vistas em relação a Terra, causando um desvio visível em fotografias, como a imagem do aglomerado de Abell 2218. Nesse caso, o fenômeno é conhecido como lente gravitacional forte.

Como todo objeto no universo emite luz que, inexoravelmente, passa perto de diversas massas M até chegar a Terra, é possível dizer que toda imagem vista por nós contém algum nível de distorção gravitacional. O efeito é esquematizado na Fig. 2, e nesse caso é conhecido como lente gravitacional fraca. Nesse caso, a deflexão da luz é causada por várias massas m distantes da linha de propagação da luz, causando um pequeno desvio da posição da fonte de luz. Embora o desvio seja pequeno, e não seja possível determinar a posição original do astro, é possível observar o padrão de distorção causado pelo meio material entre a fonte e nós, Fig. 2. Esse padrão permite inferir a quantidade de massa gravitacional que existe entre as galáxias sendo observadas e nós na Terra.

Fig. 2: Desenho esquemático de lente gravitacional fraca. A distorção na distribuição foi exagerada para melhor visualização. Imagem da Wikipedia. O lado esquerdo ilustra a imagem sem lente gravitacional, o lado direito com.

Tomografia de lentes gravitacionais

A colaboração COSMOS utilizou um católogo de lentes gravitacionais fracas associado a uma medida do desvio para o vermelho das galáxias na amostra. A distorção da imagem causada pelo campo gravitacional é o que dá informação sobre o conteúdo do universo, e a variação com desvio para o vermelho permite saber como este conteúdo evolui com a distância. O método então permite acompanhar no tempo a evolução da distribuição de massa do universo, e ficou conhecido como tomografia de lentes gravitacionais fracas.

Não é possível, naturalmente, definir qual é a posição exata de cada galáxia devido a distorção da posição causada pela desconhecida distribuição do campo gravitacional, no entanto, é possível obter informação sobre a correlação da distribuição de galáxias, isto é, a probabilidade de se encontrada uma galáxia na posição x, outra ser encontra na posição y. A medida da distribuição da fonte do campo gravitacional em função da distância contém a informação de que há um grande componente na fonte do campo gravitacional que é independente da distância: é a constante cosmológica.

Assumindo que o universo é plano, os dados de COSMOS indicam que no momento mais recente do universo (i.e. para desvios para o vermelho da luz da ordem de um), a densidade de matéria é aproximadamente

\Omega_m = 0.27.

Isso significa que aproximadamente 27% da densidade de energia do universo hoje se encontra na forma de massa com baixas velocidades em comparação a da luz. Como o universo hoje é composto predominantemente por massa e talvez energia escura, sabendo que a soma de todas as densidades de energia é igual a 1 (que é verdade apenas para o universo plano), conclui-se que cerca de 73% da densidade de energia está em forma de energia escura. Permitindo que a geometria do universo não seja necessariamente plana, não é possível extrair um único valor para \Omega_\Lambda, no entanto, é possível demonstrar que os dados implicam que a quantidade

q_0 = \Omega_m / 2 - \Omega_\Lambda

é negativa, logo \Omega_\Lambda não pode ser zero, e portanto o universo é acelerado.

O que ainda não se sabe sobre a aceleração do universo

COSMOS demonstrou que lentes gravitacionais fracas podem ser utilizadas para extrair informação cosmológica útil. O próximo passo é entender a evolução temporal das distribuições de massa do universo e da energia escura. A evolução temporal (se alguma) da energia escura é o que pode nos dizer sua origem física: se ela é uma constante cosmológica, ou se é mais outro campo físico da Natureza.

Mais informações

  1. Tim Schrabback et al., arXiv:0911.0053
  2. Matthias Bartelmann, Peter Schneider, astro-ph/9912508.
  3. Wikipedia

MOND talvez requer matéria escura

segunda-feira, 13 jul 2009; \29\America/New_York\America/New_York\k 29 1 comentário

Um dos últimos refúgios para uma alternativa a existência de matéria escura no universo é o modelo conhecido por MOND. Benkenstein formulou uma versão relativística, conhecida pela sigla TeVeS. Em dois artigos recentes, Mairi Sakellariadou et al. (arXiv:0901.3932 e arXiv:0907.1463) do King’s College de Londres encontram evidência de que o modelo TeVeS não suporta simultaneamente as lentes gravitacionais e as curvas de rotação de galáxia sem exigir um componente de matéria escura. Para isso, eles analisaram as lentes gravitacionais e as curvas de rotação de seis galáxias. Para explicar lentes gravitacionais, a teoria exige um conjunto de constantes diferente do que ela exige para as curvas de rotação. Até o melhor ajuste das lentes deduz automaticamente uma quantidade de massa superior a massa luminosa das galáxias. Ou seja, ainda se ignorarmos as curvas de rotação, as lentes gravitacionais impõe a existência de matéria escura no modelo TeVeS — inclusive aproximadamente na mesma quantidade da Relatividade Geral.

Obter a massa luminosa das galáxias é relativamente fácil. Uma estimativa é contar o número de estrelas e multiplicar pela massa do Sol. No trabalho em questão, os autores utilizaram um resultado de um grupo de astrônomos que é preciso e sofisticado: a massa total luminosa é extraída de uma simulação da estrutura galática combinada com as propriedades conhecidas dos tipos de estrelas luminosas pertencentes a estas regiões, usando medidas astronômicas de luminosidade por freqüência como entrada.

Mais: pequena explicação em português sobre lentes gravitacionais e colóquio no IF-USP de Martín Makler (CBPF).

Satélite Planck foi lançado com sucesso

quinta-feira, 14 maio 2009; \20\America/New_York\America/New_York\k 20 1 comentário

Lançamento dos satélites Planck e Herschel, da ESA, realizado hoje na Guiana Francesa.

Lançamento dos satélites Planck e Herschel, da ESA, realizado hoje na Guiana Francesa.


O satélite Planck da Agência Espacial Européia (ESA) foi lançado hoje com sucesso da base em Kourou na Guiana Francesa. Cerca de 25 minutos depois do lançamento do foguete, o satélite foi ejetado em órbita preliminar e agora encontra-se em comunicação com a base da ESA em Darmstadt na Alemanha. Estão programadas para amanhã as primeiras manobras do satélite para entrar em sua órbita definitiva, procedimento que é estimado durar cerca de dois meses. Quando Planck estiver em sua órbita definitiva, os dados começarão a ser tomados.

Junto com Planck, a missão também colocou em órbita o satélite Herschel, que fará astronomia no infravermelho da Via Láctea e outras galáxias, fornecendo dados sobre a formação das estrelas.

Satélite Planck, sala de limpeza da base de lançamento na Guiana Francesa, 26 de fevereiro de 2009.

Satélite Planck, sala de limpeza da base de lançamento na Guiana Francesa, 26 de fevereiro de 2009.

O satélite Planck estudará a radiação cósmica de fundo (CMB) de microondas, a relíquia do Big Bang formada quando o universo tinha cerca de 400 mil anos de idade. O principal objetivo é medir as anisotropias da CMB — i.e. temperatura da radiação em função da posição no céu — com uma precisão de uma parte em um milhão, dez vezes mais preciso que o antecessor, WMAP, e também no limite de precisão atual dada a contaminação não-cosmológica de microondas no céu. Estas anisotropias contém informação sobre a semente que deu origem as galáxias no universo. Um dos modelos mais debatidos atualmente para a origem dessas anisotropias é a inflação (eu falei sobre esse mecanismo no blog aqui), e Planck permitirá investigar estes modelos com melhor precisão. As anisotropias da CMB também fornecem informação detalhada sobre o conteúdo do universo antes da formação da CMB permitindo excluir modelos de matéria escura.

Além das anisotropias, Planck medirá a polarização da CMB. Há um certo modo de polarização destes fótons que só pode ser produzido por ondas gravitacionais. Antes da formação da CMB, os fótons no universo eram absorvidos e re-emitidos tão rapidamente entre elétrons e prótons que a probabilidade de um fóton produzido por um processo físico antes da formação da CMB chegar até nós hoje é quase nula. Ao contrário dos fótons, as ondas gravitacionais tem poder de penetração muito maior trazendo detalhes do conteúdo do universo até a escala de Planck. As medidas de polarização da CMB podem refutar ou validar modelos da inflação que ocorre nesta escala.

Os primeiros dados do satélite talvez torna-se-ão públicos em 2011.


Este curto vídeo educacional da ESA fala sobre os satélites Planck e Herschel (em inglês).

Mais informações

Matéria escura continua elusiva

terça-feira, 5 maio 2009; \19\America/New_York\America/New_York\k 19 2 comentários

A colaboração Large Area Telescope (LAT) do satélite Fermi da NASA publicou ontem os primeiros dados do espectro de elétrons nos raios cósmicos. O resultado do Fermi-LAT comparado com alguns outros experimentos eu reproduzo aqui na figura abaixo. (Você talvez queira ler um post relacionado antes de continuar)

Veja o resumo. Baixe aqui o documento completo (grátis).
Intensidade <i>J</i> versus energia <i>E</i> dos elétrons cósmicos.

Intensidade J versus energia E dos elétrons cósmicos.

A conclusão da colaboração Fermi-LAT na publicação recente é a seguinte:

A observação que o espectro é muito mais intenso que o convencional [i.e. o modelo teórico da linha tracejada] pode ser explicada assumindo um espectro mais intenso na fonte, que não está excluído por outras medidas. No entanto, o achatamento significativo dos dados do LAT acima da previsão do modelo para E > 70 GeV pode também sugerir a presença de uma ou mais fontes de elétrons cósmicos de altas energias. Nós observamos que o espectro de LAT pode ser ajustado adicionando um novo componente primário de elétrons e pósitrons (…). A principal razão de adicionar esta componente é reconciliar as previsões teóricas com tanto Fermi e PAMELA (…). Esta última não pode ser reproduzida apenas com as interações de raios cósmicos galáticos com o meio interestelar.

Permitam-me trocar em miúdos e explicar alguns detalhes. Como vocês podem ver do gráfico, estamos comparando experimentos muito diferentes com um mesmo modelo. O modelo é bem simplificado, uma vaca esférica no vácuo com distribuição uniforme de leite, que acredita-se contém os principais efeitos relevantes para a propagação de elétrons e pósitrons pela galáxia (como efeito Compton inverso, espalhamento pela luz das estrelas, etc.). O modelo de fato se encaixa bem para baixas energias (E < 100 GeV) para os elétrons, prótons, e várias outras componentes dos raios cósmicos. O ATIC é um experimento de balão atmosférico, então o fato de seus dados estarem acima do Fermi-LAT não é surpreendente — ATIC mede inevitavelmente uma contaminação de elétrons e pósitrons secundários, aqueles produzidos pela colisão de prótons na alta atmosfera. Mesmo combinando apenas os experimentos mais recentes, os dados estão em todo o lugar da região de intensidade então que conclusão pode ser tirada disso tudo?

É sistemático do HEAT, ATIC, PAMELA e Fermi-LAT, que a intensidade J cresce acima de ~ 10 GeV. É possível argumentar que esse comportamento dos dados é impossível de ser reproduzido pelo modelo de difusão de raios cósmicos na galáxia com produção secundária de pósitrons e elétrons com interação no meio interestelar (Serpico, P. D, arxiv.org:0810.4846). Portanto, se acreditarmos que pelo menos o comportamento dos dados está correto — o que parece o caso, já que está sendo observado por fontes independentes — , o sinal mais provavelmente vem de uma fonte primária de elétrons e pósitrons. Esta fonte pode ser pulsares, aniquilação de matéria escura, ou mesmo processos hadrônicos em supernovas que não foram incluídos no modelo teórico. Eu poderia aqui continuar citando referências de ajustes aos dados do PAMELA e do ATIC, contudo, os dados do Fermi-LAT mostram claramente que isso no momento não vai levar a nada! A primeira coisa que precisamos é entender qual é o espectro de elétrons, pósitrons e prótons nessa região. As barras de erro do ATIC em comparação com seus antecessores me fizeram crer que podíamos confiar naquele resultado e ir adiante, mas o Fermi (que é ainda mais preciso) prova que a coisa é mais complicada — em especial, observe que a lombada pronunciada do ATIC desapareceu no Fermi-LAT! Uma vez que se viu que essa região de energia pode conter física interessante, o natural agora é que os físicos experimentais envolvidos nestas colaborações vão gastar um bom tempo para nos dizer isso de forma precisa. Só então será possível começar uma análise dos candidatos.

Filhos de uma flutuação quântica

segunda-feira, 27 abr 2009; \18\America/New_York\America/New_York\k 18 6 comentários

Post de divulgação 😉

Edição 23/02/10: corrigido uns problemas de erros conceituais na parte das anisotropias e adicionado um comentário técnico para deixar mais claro para quem possa entendê-lo. Da época de quando escrevi esse post para hoje eu deixei de saber apenas algo superficial para entender todos os detalhes da astrofísica do problema, e agora deve estar um pouco mais preciso, espero eu.

A teoria da inflação cosmológica foi originalmente introduzida para resolver certos problemas da teoria do Big Bang que os físicos teóricos chamam de naturalidade. Não são obstáculos a validade do Big Bang, mas características estranhas do modelo que servem de guia para onde talvez exista alguma explicação faltando. Contudo, as razões originais para a inflação hoje são pouco importantes em face ao que a maioria dos cosmólogos entende como o verdadeiro triunfo da inflação: a origem da galáxias como produto de um mecanismo físico da mecânica quântica. Não apenas somos poeira das estrelas, somos também relíquias do princípio da incerteza de Heisenberg.

Leia mais…

PI Summer School 2009

sexta-feira, 13 mar 2009; \11\America/New_York\America/New_York\k 11 Deixe um comentário

Forwarding message:

Dear Colleague,

The registration is now open for the Perimeter Institute Summer School,
*“Exploring the Cosmological Frontiers”*, which will be held June 24 to July 1, 2009. This will be the seventh of an ongoing series of annual summer schools in theoretical physics. This year’s lecturers include: Neta Bahcall, Alessandra Buonanno, Paolo Creminelli, Olivier Dore, Jaume Garriga, Stephen Hawking, Jean-Luc Lehners, Avi Loeb, Leonard Susskind, Neil Turok and Neal Weiner.
Perimeter Institute Summer School 2009: Particle Physics, Cosmology & Strings: June 24 – July 1.

— End.

Nota: no site do PI, vejam os novos “Distinguished Research Chairs”… O que será que o PI está tramando? Dominar o mundo? :O

Aff… não bastava eles terem tomado uns meses do Hawking, fizeram o Turok de diretor!

A semana nos arXivs…

sexta-feira, 6 mar 2009; \10\America/New_York\America/New_York\k 10 3 comentários



Quero fazer uns comentários sobre o artigo/entrevista (“Is There a Higgs”) do Brain Cox acima… continue lendo… 😉

Leia mais…

%d blogueiros gostam disto: