Arquivo

Posts Tagged ‘astrofísica’

Satélite Planck completa mapa de um ano

terça-feira, 6 jul 2010; \27\UTC\UTC\k 27 2 comentários

Edição 08/06/10: editado para melhor compreensão. 🙂

Olá! Estou meio ausente da Internet nas últimas duas semanas, e provavelmente assim ficarei pelo próximo mês, mas em um minutinho que me dêem agora explicarei um pouco sobre a recente notícia da imagem do satélite Planck divulgada ontem, para dar um contexto melhor que o divulgado pelos jornais não-especializados:

Mapa de um ano de dados da CMB da espaçonave Planck
Versão ampliada.
O que é esta imagem?

Esta imagem é um mapa da abóbada celeste da radiação cósmica de fundo que foi produzida no universo entre 420 — 450 mil anos após o início do tempo, quando os prótons quentes que sobraram das reações nucleares dos primeiros minutos do Big Bang combinaram-se com os elétrons que permeavam o universo em forma de gás. Leia mais…

Anúncios

Buracos negros de laboratório

quarta-feira, 30 set 2009; \40\UTC\UTC\k 40 Deixe um comentário

Analogia em Física

Não é só a boa prática de didática que se vale das analogias. A física também faz bom uso dessa idéia. Você sabia que é possível, por exemplo, estudar as leis de Newton debaixo d’água usando circuitos elétricos? Bom, mais ou menos. Acontece que a equação que descreve a quantidade de carga elétrica presente em um circuito com um capacitor, resistor e uma bobina (um indutor) é a mesma associada ao movimento de uma massa presa a uma mola na presença de um meio que provoca resistência. É claro que os símbolos presentes nessa equação nesses dois casos representam elementos da realidade diferentes. No movimento massa-mola, a função que aparece na equação é a posição da massa, e os coeficientes da equação são dados pela massa, a constante da mola e a viscosidade do fluido. No caso do circuito, a função é carga elétrica no capacitor e os coeficientes estão relacionados a bobina, capacitância e resistência do circuito. Em física se diz que o circuito é um análogo do sistema massa-mola imerso em um fluido.

Mais especificamente, a equação que descreve o movimento de uma massa m presa a uma mola de constante k levando em conta a resistência do fluido é
m\ddot{x} + \beta \dot{x} + k x = 0
Já a carga elétrica Q em um capacitor de capacitância C em um circuito formado por um indutor de indutância L e resistência R satisfaz a equação
L \ddot{Q} + R\dot{Q} + Q/C = 0.

Se as equações são as mesmas, então as soluções das equações também são as mesmas. O objetivo de estudar análogos é encontrar sistemas que são fáceis de serem construídos em laboratórios e suscetíveis ao controle do experimentador que sejam análogos de um sistema difícil de ser estudado em laboratório. Dessa forma, como as equações são as mesmas, isso permite ao menos dar uma confiança indireta, uma evidência, de que se uma certa teoria não foi testada em um certo regime apenas, mas descreve muito bem outros aspectos da Natureza, então se for possível encontrar um análogo que seja fácil de reproduzir em laboratório daquele regime não-testado, será possível ao menos verificar que as soluções matemáticas da teoria de fato admitem (ou não) um determinado comportamento. Se usarmos um circuito para representar uma massa presa a uma mola em um fluido, não seremos capazes de testar se as leis de Newton descrevem corretamente o movimento da massa mas se assumirmos que ela descreve, podemos testar as soluções da teoria de Newton.

Claro que no caso da teoria de Newton essa tarefa é trivial, porque nós podemos testar a teoria de Newton diretamente. Basta colocar uma massa presa a uma mola dentro de um tubo transparente cheio de água e usar um cronômetro para medir o deslocamento em função do tempo da massa. É quando a teoria que temos não nos permite testes em laboratórios que os análogos se tornam realmente importantes.

Construindo buracos negros em laboratórios

Imagem em raios X colorida artificialmente do satélite Chandra da NASA de Sagitário A*, o buraco negro no centro da Via Láctea.

Imagem em raios X colorida artificialmente do satélite Chandra da NASA de Sagitário A*, o buraco negro no centro da Via Láctea.

Um grupo de Dartmouth College nos Estados Unidos, Paul Nation, Miles Blencowe e Alex Rimberg junto com E. Buks de Technion em Israel, mostrou como construir um análogo de um buraco negro. Nesse caso não apenas é possível obter equações análogas ao horizonte de eventos como também o processo de criação de pares de partículas-antipartículas do vácuo que provoca a radiação Hawking! Como a radiação Hawking de buracos negros é muitíssimo fraca, associada a uma temperatura da ordem de 10-10K, é improvável que seja possível medi-la diretamente e logo análogos se tornam preciosos.

O análogo proposto pelo grupo funciona da seguinte forma. Primeiro, você considera uma série de vários elementos de circuitos supercondutores em série chamados de SQUIDs. Esses elementos são usados para medir variações minúsculas em campos magnéticos, campos que podem ser tão pequenos quanto 10-18 T — para uma comparação, o campo magnético da Terra é da ordem de 50×10-6 T. Além disso, você passa um pulso eletromagnético de microondas que vai se propagar através da cadeia de SQUIDs. Se você tiver um número suficientemente grande de SQUIDs em cadeia — da ordem de 2 mil –, você pode aproximar a equação que descreve a variação da corrente ao longo do circuito por uma equação que descreve algo parecido com uma onda. Uma vez que temos uma equação desse tipo, é possível escreve-la em uma forma que representa a equação de movimento de um campo escalar na presença de um campo gravitacional. Isso é possível graças ao fato de que, devido ao princípio da equivalência, um campo gravitacional é equivalente a uma geometria do espaço e do tempo. Sendo assim, quando você escreve a equação de movimento de uma onda em um dado espaço-tempo, essa equação vai depender da geometria — o movimento da película vibrante de um tambor depende se você curva ou não o material. Paul Nation mostrou que essa equação de onda para a corrente elétrica no circuito interpretada como a equação de um campo escalar na presença de um campo gravitacional, coincide com uma “fatia” da equação de um campo escalar na presença de um buraco negro. Essa fatia corresponde a coordenada do tempo como medido por um observador que cai em direção ao buraco negro.

É o pulso eletromagnético que se propaga ao longo da cadeia que define o “horizonte de eventos”. Nesse caso, as flutuações quânticas do campo eletromagnético permitem a criação de um par de fótons que acompanha o pulso. Esse par de fótons que se propagará ao longo da cadeia representa o análogo da radiação de Hawking.

Infelizmente ainda não é possível montar o equipamento proposto porque até o presente momento o número máximo de SQUIDs que podem ser colocados em cadeia é da ordem de centenas. Aparentemente é impossível no presente momento construir uma cadeia tão comprida quanto a necessária para realizar a idéia (não me pergunte por quê…).

Uma vantagem imediata da realização do circuito de SQUIDs é que a temperatura da radiação Hawking produzida é da ordem de 100 mK, e como SQUIDs são operados a poucos mK, o efeito é muito superior a qualquer flutuação térmica presente no circuito, o que é importante porque a radiação Hawking é quase-térmica, portanto difícil de ser distinguida a qualquer temperatura maior que a temperatura do buraco negro. Como é igualmente possível medir os dois fótons da radiação (o que está fora do horizonte e o que está dentro), é possível distinguir experimentalmente o sinal da radiação Hawking de um sinal espúrio fazendo medidas correlacionadas de dois fótons com a mesma freqüência. Isso permite descriminar claramente a radiação Hawking de qualquer outro fenômeno térmico ocorrendo no material.

Além disso, o grupo notou que existe um limite controlável do experimento em que a fase de propagação da onda através da cadeia pode tornar-se quântica. Em última análise, todo o sistema é descrito pela mecânica quântica, mas mantendo um certo limite sobre as freqüências utilizadas, é possível manter o valor do fluxo do campo magnético através do SQUID essencialmente clássico. Isso corresponde em termos da mecânica quântica a manter a dispersão do valor médio do fluxo do campo muito pequena em comparação ao valor do campo. Mas se essa dispersão (a flutuação quântica) for próxima ao valor médio, a aproximação clássica deixa de valer e as correções da mecânica quântica se tornam relevantes. Dessa forma é possível reintroduzir flutuações quânticas no parâmetro que define a equação de onda que é o análogo do campo gravitacional. Assim, é possível introduzir um análogo de flutuações quânticas do campo gravitacional e testar a robustez do cálculo de Hawking (que despreza as flutuações quânticas do campo gravitacional). Isso no sentido de que é possível parametrizar livremente o tamanho dessas flutuações e responder a seguinte pergunta: podem os desconhecidos efeitos quânticos da gravitação alterar substancialmente a validade da conta da radiação Hawking? Se sim, quão grande esses efeitos devem ser para invalidar o tratamento clássico do campo gravitacional? Essas são ambas perguntas bem interessantes para entender melhor a gravidade.

Posts relacionados:

Quando buracos negros colidem

domingo, 26 jul 2009; \30\UTC\UTC\k 30 3 comentários

Em 1964, Susan Hahn e Richard Lindquist, então na IBM Nova York, decidiram estudar numericamente a evolução temporal de dois buracos de minhoca (Ann. Phys. 29:2 304 (1964)). Parece uma tarefa fácil: você decompõe as equações da Relatividade Geral em uma forma adequada, coloca no computador e pede a resposta! Mas Hahn e Lindquist encontraram uma pedra no caminho: o programa congelava antes de dar qualquer resposta útil. A simulação era impossível. O que eles descobriram foi um problema que demorou mais de quarenta anos para ser solucionado: como resolver as equações da Relatividade Geral em um computador?

Várias tentativas foram realizadas desde o pioneiro trabalho de Hahn e Lindquist em busca do tratamento numérico adequado para a Relatividade Geral e envolveu físicos teóricos eminentes como Kip Thorne e Saul Teukolsky, mas sem nenhum sucesso. Em 1990, o projeto LIGO, o experimento que tem a maior chance de em breve detectar as ondas gravitacionais, trouxe grande pressão para a resolução desse problema. Estimava-se que as maiores fontes de luminosidade em ondas gravitacionais no universo seriam as fusões de buracos negros, provavelmente os objetos de mais fácil acesso ao experimento. Todavia, o cálculo da irradiação gravitacional desse fenômeno não pode ser feito pelas técnicas analíticas de solução da Relatividade Geral: é necessário obter uma resposta aproximada numericamente. A National Science Foundation nos Estados Unidos iniciou em 1990 então um programa específico de financiamento para um esforço de resolver o problema.

A grande revolução surgiu em um artigo submetido a 4 de julho de 2005 ao arXiv: Frans Pretorius, da Universidade de Alberta do Canadá e do CalTech, Estados Unidos, tornou pública a primeira simulação numérica bem sucedida da fusão de dois buracos negros. O resultado mais importante da simulação é a forma da onda gravitacional em função do tempo (cf. figura).

Onda gravitacional da fusão de buracos negros, como medida em um ponto fixo no espaço em função do tempo.

Onda gravitacional da fusão de buracos negros, como medida em um ponto fixo no espaço em função do tempo.

As simulações numéricas permitiram descobrir que a fusão de buracos negros emite cerca de 4% da massa total do binário em forma de ondas gravitacionais. Para um binário de buracos negros supermassivos — mil a um milhão de vezes mais pesado que o Sol — , como os que existem no centro de quase toda galáxia no universo, a potência irradiada pelo processo de fusão é da ordem de 1023 vezes a luminosidade intrínseca do Sol. Para comparação, todas as estrelas do universo observável iluminando juntas o espaço tem uma potência de 1021 sóis. Uma única fusão de buracos negros emite em ondas gravitacionais mil vezes mais energia que 100 bilhões de galáxias juntas emitem em luz!

Mas quando dois buracos negros vão fundir no universo? Acredita-se que no núcleo de quase toda galáxia há um buraco negro, então quando duas galáxias colidem (se misturam seria uma expressão mais adequada) é possível que os buracos negros de seus centros formem um binário que após algumas voltas entram em rota de colisão. Fusão de galáxias é um processo comum na história, acredita-se que toda galáxia hoje passou por pelo menos uma. A Via Láctea está atualmente em fusão com sua vizinha elíptica, a galáxia anã Sagitário, e em cerca de 3 bilhões de anos colidirá com a galáxia de Andromeda.

O seguinte vídeo é uma simulacão numérica completa da fusão de dois buracos negros, trabalho do grupo de relatividade numérica do Centro Espacial Goddard da NASA. O que você vê em cores é a amplitude do campo gravitacional para um dos modos de polarização da onda emitida (o fundo estrelado é artificial, não é incluído na simulação). Mais do que um filme bonito, essas simulações permitirão abrir uma nova porta para a astronomia e física do universo primordial, como veremos.

Agora, voltando ao problema da programação da Relatividade. Um programa que faz esse tipo de simulação é o openGR, desenvolvido pelo Centro de Relatividade da Universidade do Texas em Austin, que como nome diz é um programa livre. Até o momento, apenas os problemas de fusão de buracos negros foram investigados. Um próximo passo natural é a evolução do campo gravitacional cosmológico. No futuro, as simulações do universo primordial conterão simultaneamente a evolução do campo gravitacional com todas as reações do plasma contido no universo — é literalmente uma simulação detalhada da evolução de tudo que há no universo, a geometria inclusive. De imediato, isso terá importância para a descrição minunciosa da variação espacial da temperatura da radiação cósmica de fundo — anisotropias da CMB, para ser curto — , que fornece informação do conteúdo do universo e da evolução dos bárions, neutrinos, fótons e matéria escura durante os primeiros 500 mil anos do cosmos. Por exemplo, o fato dos neutrinos terem massa pode ser visto nas anisotropias da CMB, portanto é possível que o satélite Planck forneça o primeiro valor experimental da massa dessas partículas elementares, embora para verificar isso não é necessário grande detalhe na evolução temporal da Relatividade Geral — um cálculo analítico que trata as inomogeneidades do universo como pequenas é suficiente. Todavia, há regimes — as transições de fase no universo primordial — em que as anisotropias não podem ser tratadas como pequenas perturbações no campo gravitacional e um cálculo numérico se torna útil, embora não definitivamente a única escolha (há uma outra possibilidade, o uso de métodos aproximados analíticos).

LIGO: confrontando cálculo com experimento

Leia mais…

Pierre Auger enfraquece relação entre UHECR e núcleos ativos de galáxias

terça-feira, 14 jul 2009; \29\UTC\UTC\k 29 Deixe um comentário

Durante a 31a Conferência Internacional de Raios Cósmicos na Polônia (7 – 15 Julho 2009), a colaboração Pierre Auger tornou pública uma maior quantidade de dados de raios cósmicos de altas energias (UHECR) — maior que 107 TeV — e concluiu que a relação entre núcleos ativos de galáxias (AGNs) e a origem destes raios cósmicos está mais fraca do que eles haviam encontrado em novembro de 2007. Acredita-se que AGNs diferem das galáxias comuns por possuírem um buraco negro central que acelera matéria produzindo radiação eletromagnética em quantidade muito superior aquela que poderia ser obtida dentro de estrelas.

Na primeira análise, publicada na revista Science, 18 de 27 eventos encontravam-se a menos de 3° de um AGN. Na nova análise de julho de 2009, 17 eventos de 44 foram encontrados na direção de AGNs. Os dados são parcos e a colaboração conclui que mais informação é necessária para creditar AGNs como fontes dos raios cósmicos de ultra energia. Uma análise estatística no momento indica todavia que a probabilidade de tal correlação ser medida para uma distribuição isotrópica de fontes é de apenas 1%. Esse resultado aparentemente favorável pode ser contudo artificial devido ao pequeno número de dados.

Matéria escura continua elusiva

terça-feira, 5 maio 2009; \19\UTC\UTC\k 19 2 comentários

A colaboração Large Area Telescope (LAT) do satélite Fermi da NASA publicou ontem os primeiros dados do espectro de elétrons nos raios cósmicos. O resultado do Fermi-LAT comparado com alguns outros experimentos eu reproduzo aqui na figura abaixo. (Você talvez queira ler um post relacionado antes de continuar)

Veja o resumo. Baixe aqui o documento completo (grátis).
Intensidade <i>J</i> versus energia <i>E</i> dos elétrons cósmicos.

Intensidade J versus energia E dos elétrons cósmicos.

A conclusão da colaboração Fermi-LAT na publicação recente é a seguinte:

A observação que o espectro é muito mais intenso que o convencional [i.e. o modelo teórico da linha tracejada] pode ser explicada assumindo um espectro mais intenso na fonte, que não está excluído por outras medidas. No entanto, o achatamento significativo dos dados do LAT acima da previsão do modelo para E > 70 GeV pode também sugerir a presença de uma ou mais fontes de elétrons cósmicos de altas energias. Nós observamos que o espectro de LAT pode ser ajustado adicionando um novo componente primário de elétrons e pósitrons (…). A principal razão de adicionar esta componente é reconciliar as previsões teóricas com tanto Fermi e PAMELA (…). Esta última não pode ser reproduzida apenas com as interações de raios cósmicos galáticos com o meio interestelar.

Permitam-me trocar em miúdos e explicar alguns detalhes. Como vocês podem ver do gráfico, estamos comparando experimentos muito diferentes com um mesmo modelo. O modelo é bem simplificado, uma vaca esférica no vácuo com distribuição uniforme de leite, que acredita-se contém os principais efeitos relevantes para a propagação de elétrons e pósitrons pela galáxia (como efeito Compton inverso, espalhamento pela luz das estrelas, etc.). O modelo de fato se encaixa bem para baixas energias (E < 100 GeV) para os elétrons, prótons, e várias outras componentes dos raios cósmicos. O ATIC é um experimento de balão atmosférico, então o fato de seus dados estarem acima do Fermi-LAT não é surpreendente — ATIC mede inevitavelmente uma contaminação de elétrons e pósitrons secundários, aqueles produzidos pela colisão de prótons na alta atmosfera. Mesmo combinando apenas os experimentos mais recentes, os dados estão em todo o lugar da região de intensidade então que conclusão pode ser tirada disso tudo?

É sistemático do HEAT, ATIC, PAMELA e Fermi-LAT, que a intensidade J cresce acima de ~ 10 GeV. É possível argumentar que esse comportamento dos dados é impossível de ser reproduzido pelo modelo de difusão de raios cósmicos na galáxia com produção secundária de pósitrons e elétrons com interação no meio interestelar (Serpico, P. D, arxiv.org:0810.4846). Portanto, se acreditarmos que pelo menos o comportamento dos dados está correto — o que parece o caso, já que está sendo observado por fontes independentes — , o sinal mais provavelmente vem de uma fonte primária de elétrons e pósitrons. Esta fonte pode ser pulsares, aniquilação de matéria escura, ou mesmo processos hadrônicos em supernovas que não foram incluídos no modelo teórico. Eu poderia aqui continuar citando referências de ajustes aos dados do PAMELA e do ATIC, contudo, os dados do Fermi-LAT mostram claramente que isso no momento não vai levar a nada! A primeira coisa que precisamos é entender qual é o espectro de elétrons, pósitrons e prótons nessa região. As barras de erro do ATIC em comparação com seus antecessores me fizeram crer que podíamos confiar naquele resultado e ir adiante, mas o Fermi (que é ainda mais preciso) prova que a coisa é mais complicada — em especial, observe que a lombada pronunciada do ATIC desapareceu no Fermi-LAT! Uma vez que se viu que essa região de energia pode conter física interessante, o natural agora é que os físicos experimentais envolvidos nestas colaborações vão gastar um bom tempo para nos dizer isso de forma precisa. Só então será possível começar uma análise dos candidatos.

Os melhores livros de divulgação

domingo, 29 mar 2009; \13\UTC\UTC\k 13 29 comentários

Que tal uma lista de utilidade pública com alguns dos melhores livros de divulgação? 🙂

Bom, naturalmente que a lista será parcial. Vai ser baseada na experiência pessoal dos editores do blog, mas a vantagem é que você pode usá-la como ponto de partida se quer algumas sugestões de leitura leve para as férias, ou então se você gostou de alguns dos livros da lista, há potencial de gostar dos demais. 🙂 Volte sempre para checar atualizações na lista! 😉

Não vamos tentar fazer uma resenha de cada livro que ficaria muito longo, você pode ver essas resenhas por ai na Internet, no site das editoras e livrarias. Ah, e a lista não tem nenhuma ordem em especial, certo?

Vamos lá:

Disponível em português:

  • A Dança do Universo, Marcelo Gleiser
  • DNA: O Segredo da Vida, James D. Watson
  • Uma breve história do tempo, Stephen W. Hawking
  • Como a mente funciona, Steven Pinker
  • A falsa medida do homem, Stephen Jay Gould
  • O mundo assombrado pelos demônios, Carl Sagan
  • QED: A Estranha Teoria da Luz e da Matéria, Richard P. Feynman
  • O que é uma lei física?, Richard P. Feynman
  • Einstein para principiantes, Joseph Schwartz, Michael McGuinness
  • Os Três Primeiros Minutos, Steven Weinberg
  • O Universo Inflacionário, Alan H. Guth
  • Será que Deus joga dados?, Ian Stewart
  • O Quark e o Jaguar, Murray Gell-Mann
  • As aventuras e descobertas de Darwin a bordo do Beagle, Richard Darwin Keynes
  • O que é Matemática?, Richard Courant e Herbert Robbins
  • O último teorema de Fermat, Simon Singh
  • História da Matemática, Carl Boyer, Uta C. Merzbacher. Não é divulgação, mas é excelente e acessível.
  • História química de uma vela, Michael Faraday
  • Cronologia das ciências e das descobertas, Isaac Asimov
  • A Filha de Galileu, Dave Sobel

Apenas em inglês:
Estes você pode comprar na Amazon.com, ou na Barnes & Noble. Você só pagará o livro, frete e a taxa de câmbio. Não há imposto cobrado de importação para livros.

  • Huygens & Barrow, Newton & Hooke, Vladimir I. Arnold
  • From Galileo to Einstein (aka Biography of Physics), George Gamow
  • Longing for the Harmonies, Frank Wilczek e Betsy Devine
  • Black Holes and Time Warps, Kip Thorne
  • Men of Mathematics, E. T. Bell
  • Einstein’s Legacy, Julian Schwinger
  • Gravity, George Gamow
  • Cosmology: The Science of the Universe, E. Harrison

Velhas e novas evidências da matéria escura, e um pouco do lado negro da força

quinta-feira, 12 mar 2009; \11\UTC\UTC\k 11 10 comentários

Ilustração da situação do espectro de raios cósmicos. Com o lado negro da força no meio.

Ilustração da situação do espectro de raios cósmicos. Com o lado negro da força no meio.


Ah, terminado esse trimestre, dois seminários de cursos concluídos. Daí pensei em compartilhar com vocês o que eu aprendi para dar um desses seminários: os possíveis novos sinais (de outubro de 2008) da existência da matéria escura que vieram do satélite PAMELA e do balão ATIC. 🙂 Fica ai quem quiser… Primeiro eu falo sobre as velhas evidências, depois sobre as novas.

Coisas velhas

Já estava na hora de falar de matéria escura nesse blog. Essa história começou quando o Zwicky descobriu que a razão massa/luminosidade de galáxias espirais é pelo menos mais de 10 vezes maior que a do Sol. A luminosidade é uma medida da potência irradiada da luz (aquela em Watts), essa se mede diretamente na Terra. E a massa se acha utilizando a lei de Newton da gravidade para deduzir a distribuição de velocidades das estrelas nas galáxias. Mais tarde, Vera Rubin fez várias medidas precisas das velocidades das estrelas em várias galáxias espirais e obteve sistematicamente que a velocidade é mais ou menos constante mesmo longe do centro luminoso da galáxia (onde a maioria das estrelas se encontram). Isso só pode ser explicado no paradigma da gravitação de Newton se há uma distribuição aproximadamente uniforme de massa que se estende para bem além da galáxia visível (chamado halo de matéria escura).

Mas esse efeito não é, de repente, da Relatividade Geral? A resposta é não, por duas razões muito importantes. A primeira é que a velocidade das estrelas nas galáxias é tão pequena em comparação com a da luz que é válida a lei de Newton. E isso é possível ser quantificado com a aproximação pós-Newtoniana da Relatividade Geral, que é confirmada com enorme precisão nas medidas da NASA/CalTech da órbita das sondas espaciais e da Lua no Lunar Ranging Interferometer (saca só este artigo). A segunda é que mesmo a Relatividade Geral em toda a sua glória (resolvida exatamente, sem nenhuma aproximação) exige a matéria escura, por causa do diagrama de Hubble.

Qual é a desse diagrama? Na Relatividade Geral se calcula o valor do parâmetro de Hubble (que não é constante) em função da idade do universo em termos dos constituintes do universo: radiação, matéria massiva e qualquer outra coisa que você quiser colocar. A grande utilidade dessa variável cosmológica é que a dependência dela com a idade é distinta para cada diferente componente. P.ex. a matéria massiva contribui com uma potência (1+z)3 para H2, onde z é o desvio para o vermelho das linhas espectrais (quanto maior z menor é a idade do universo), mas a radiação contribui com (1+z)4, a energia escura contribui com \approx (1+z)^0 (constante) e por ai vai (err.. na verdade tem que fazer uma integral dessa série de potências… mas permita-me simplificar, ok?). Então é fácil saber quanto tem de matéria massiva no universo: medindo o valor de H em função de z utilizando diversos dados astronômicos, basta ajustar uma série de potência aos dados e extrair o coeficiente do termo adequado. Resultado: ~ 30% da densidade de energia do universo é matéria massiva. Mas isso não pode ser bárions ou léptons (prótons, nêutrons / elétron e neutrino), porque a abundância primordial de hélio-4, hélio-3, hidrogênio, deutério, lítio, boro e outros restringe que esse tipo de material só soma 4%-5% no máximo. Portanto, cerca de 25% da densidade de massa do universo é composta de algo desconhecido (a matéria escura).

Coisas novas

Há um modelo astrofísico no mercado que prevê o número de partículas como elétrons, pósitrons, prótons, etc. que devem chegar a Terra — os raios cósmicos — vindo de processos naturais de estrelas na galáxia, a versão mais sofisticada atual é do Igor Moskalenko (Stanford U) e Andrew Strong (Max Planck). Esse modelo faz um bom trabalho em prever quase todo o espectro de raios cósmicos de poucos MeV até 10 TeV (são aqueles que vem da nossa própria galáxia). Isso é visto com nitidez nas Figs. 1 e 2. Mas na Fig. 2 você vê que há uma lombada nos dados que o modelo perde. E na Fig. 3 você vê que o modelo está completamente fora. Qual a explicação para a lombada do ATIC na região de 300 – 800 GeV? E o excesso de pósitrons do PAMELA em comparação com o cálculo astrofísico?

Agora, outro ponto de informação interessante. O satélite INTEGRAL/SPI mediu uma emissão de luz que vem do centro da galáxia que é devida a reação elétron+pósitron->fótons. De onde vem esses pósitrons no centro da galáxia? Os dados do INTEGRAL já excluiram a possibilidade de supernovas. Até o momento os astrofísicos não tem idéia…

Espectro de antiprotons medidos pelo satélite PAMELA (Out 2008). As linhas correspondem a modelos, a sólida a um do tipo Moska&Strong.

Fig. 1. Espectro de antiprotons medidos pelo satélite PAMELA (Out 2008). As linhas correspondem a modelos, a sólida a um do tipo Moska&Strong.

Espectro de elétrons cósmicos na Terra medido pelo balão ATIC (Nature, Out 2008). A curva tracejada é o resultado do cálculo Moska&Strong somado com fontes pontuais astrofísicas de conhecimento do ATIC que estavam ativas no momento das medidas (a contribuição destas é exageradas nas curvas corloridas).

Fig. 2. Espectro de elétrons cósmicos na Terra medido pelo balão ATIC (Nature, Out 2008). A curva tracejada é o resultado do cálculo Moska&Strong somado com fontes pontuais astrofísicas de conhecimento do ATIC que estavam ativas no momento das medidas (a contribuição destas é exageradas nas curvas corloridas).

Medidas precisas do espectro de pósitrons cósmicos do satélite PAMELA. A linha sólida é o cálculo Moska & Strong. Esse gráfico não é tão bom quanto do ATIC porque PAMELA não incluiu (ainda) o fluxo previsto por qualquer fonte pontual temporária (diferente do ATIC).

Fig. 3. Medidas precisas do espectro de pósitrons cósmicos do satélite PAMELA. A linha sólida é o cálculo Moska & Strong. Esse gráfico não é tão bom quanto do ATIC porque PAMELA não incluiu (ainda) o fluxo previsto por qualquer fonte pontual temporária (diferente do ATIC).

A-Ha. Ai há uma janela de descobertas. Enquanto alguns se perguntam que mecanismo de aceleração de partículas carregadas foi esquecido (um pulsar, talvez) no modelo Moska&Strong, outros propõem que os excessos vistos por PAMELA, ATIC e INTEGRAL são da matéria escura. Dentro de um modelo genérico para a matéria escura conhecido por WIMPs (de weakly interacting massive particles, partículas massivas que interagem pela força eletrofraca), é previsto que na galáxia atualmente deve haver aniquilação de WIMPs com anti-WIMPs. WIMPs aparecem muitas vezes em modelos além do Modelo Padrão (que resolvem o chamado problema da hierarquia): dimensões extras, supersimetria (SUSY), Little Higgs, etc. Dentro do modelo de que existem mais dimensões espaciais no universo, mas que são grandes ~ 10-16 cm (i.e. TeV) em comparação com o comprimento de Planck, esses dados podem ser naturalmente explicados. Isso já havia sido mostrado na publicação original do ATIC na Nature, todavia há trabalhos mais detalhados disponíveis. Não tem muito jogo de cintura possível aqui porque a seção de choque de produção dessas partículas é fixada automaticamente pela densidade de matéria, e a escala de massa (embora não o valor exato) é fixada pela massa do bóson W.

O Modelo Padrão Supersimétrico Mínimo (MSSM) não consegue, por si só, explicar os dados do PAMELA. A seção de choque do MSSM fixada pela densidade de matéria escura observada astronomicamente precisa de um fator pelo menos de 30 para explicar o número de pósitrons observados. Dependendo de como você brinca com os parâmetros dos modelos supersimétricos, esse fator pode chegar a 100, 1000… 1010. Mas nem tudo está perdido para supersimetria. Fatores de 100 ou 1000 foram recentemente descobertos como esperados se você introduzir uma nova interação na teoria, que interage fortemente com a matéria escura, mas não com as partículas já conhecidas. Curiosamente, os dados do PAMELA e do ATIC sugerem que essa nova interação tem que ser leve em comparação com a escala TeV, digamos de poucos GeV de massa ou menos. Se essa nova interação escura for devida a uma partícula de massa da ordem de até 100 MeV, ela pode explicar a origem do sinal do INTEGRAL, porque permite um mecanismo no qual há uma pequena diferença de massa entre estados da matéria escura que é da ordem de MeV, e transições entre esses estados estão na região certa de energia para criar pares elétron-pósitrons (o par tem 1 MeV de massa). Com isso se explica tanto o sinal do PAMELA e ATIC, que exige uma partícula de matéria escura pesada > 600 GeV para produzir elétrons/pósitrons nas energias observadas, com o INTEGRAL/SPI que exige matéria escura ~ 1-100 MeV.

E então? Nova física? Novas partículas? Uma nova força que age apenas nas matéria escura portanto, uma força escura? 🙂

Citation Needed

  1. ATIC: J. Chang et al. (ATIC), Nature 456, 362 (2008).
  2. PAMELA: antiprotons, positrons
  3. Nova força escura: N. Weiner et al.; Katz & Sundrum Model para SUSY.
%d blogueiros gostam disto: