Arquivo

Posts Tagged ‘matéria escura’

Fermi-LAT pode ter confirmado resultado do PAMELA

sexta-feira, 20 maio 2011; \20\America/New_York\America/New_York\k 20 1 comentário

Hoje a Physics World reportou que a colaboração Fermi-LAT fez uma divulgação preliminar durante um congresso de que eles podem ter confirmado o excesso de pósitrons nos raios cósmicos que atingem a Terra na região de 10 a 100 GeV observados pelo PAMELA. Esse resultado é do mais confuso, porque o Fermi-LAT não observa tal excesso para os elétrons.

 Espectro de pósitrons cósmicos do satélite PAMELA.

Espectro de pósitrons cósmicos obtido pelo satélite PAMELA. A linha sólida é o cálculo Moska & Strong. Não incluido o fluxo previsto por fontes pontuais temporárias.

Muitas pessoas irão falar que esse excesso pode ser explicado com processos astrofísicos comuns, mas isso tem que ser visto com muito ceticismo porque genericamente qualquer processo de aceleração clássico deveria gerar um espectro de potência que diminui com o aumento da energia dos pósitrons, como 1/En para n > 0. Porém, o PAMELA, e agora o Fermi-LAT, observam um crescimento do número de pósitrons de 10 a 100 GeV, o que contradiz intuitivamente a possibilidade do excesso vir de aceleramento astrofísico. Além disso, por que o processo astrofísico iria acelerar pósitrons nesta energia mas não os elétrons?

Estranha natureza da matéria escura

domingo, 25 abr 2010; \16\America/New_York\America/New_York\k 16 2 comentários


Fotografia em raios X da galáxia NGC 720 do telescópio Chandra da NASA (lado esquerdo) revelaram a estrutura de matéria escura da galáxia (foto óptica ao lado direito), que agora desfavorece a existência de interações da matéria escura causadas por um bóson escuro leve.
Quem acompanha o blog viu que no final de 2008, o satélite europeu Pamela apresentou qual o número de prótons e pósitrons que bombardeiam a Terra vindo da galáxia e descobriu que para energias acima de aproximadamente 10 GeV, o número de pósitrons começa a aumentar, enquanto o número de prótons continua a diminuir[1].
Como um pósitron consegue chegar a 10 GeV de energia, que corresponde a uma temperatura de 1014 K, quando a temperatura no núcleo do Sol é de apenas 107 K? De onde veio essa energia do próton?
Em 1949, Enrico Fermi mostrou que esse tipo de energia para raios cósmicos é natural[2]. Existem prótons e elétrons espalhados pela galáxia, que vieram de processos astrofísicos, largados aqui e ali por estrelas e supernovas. Eventualmente eles encontram o campo magnético que existe na galáxia e ficam presos, mas esse campo possui inomogeneidades, gradientes, e a partícula quando encontra um pico de intensidade do campo magnético recebe uma força maior que a média que a mantém presa no campo e acaba sendo liberada com uma energia maior. Quanto mais energética é a partícula, mais difícil é desviá-la do seu caminho, então podemos em primeira aproximação imaginar que os acréscimos são inversamente proporcionais a energia que a partícula já possuia antes de receber o pontapé do campo magnético. Então a probabilidade de observar uma partícula com energia E na Terra deve ser inversamente proporcional a sua energia,

 
P(E) \propto 1/E^\gamma

onde \gamma > 0 é um fator a ser determinado experimentalmente. Esse mecanismo de Fermi não poderia explicar o súbito crescimento do número de partículas com energias acima de 10 GeV observados no Pamela e no ATIC, e por isso o crescimento foi interpretado como um sinal de nova física.
Mas se esse excesso fosse devido a aniquilação de matéria escura na galáxia produzindo pósitrons, então a probabilidade de aniquilação de matéria escura teria que ser muito maior que o valor esperado no cenário de WIMPs. Por isso, Neil Weiner e colaboradores sugeriram que deveria existir uma nova partícula leve que só interage com a matéria escura, porque tal interação introduziria um fator de aumento na probabilidade de aniquilação da matéria escura que depende da velocidade do gás de matéria escura:

 
S = \displaystyle{\frac{\pi \alpha_X / v_\text{rel}}{1 - \exp(-\pi \alpha_X/v_\text{rel})}}

Infelizmente, este mês relata Jonathan Feng e colaboradores na Phys. Rev. Lett. que essa interação já está excluída devido ao formato das galáxias[3]. Motivados por estudos numéricos do formato dos halos de matéria escura quando se inclui interações[4], eles argumentam que a introdução de interação favorece a formação de halos mais esféricos do que aqueles que seriam formados desprezando interações, e então usam os dados sobre a elipsidade do halo da galáxia NGC 720 que foi estudado com as imagens de raios X do telescópio Chandra[5] e comparam com as simulações numéricas em função da intensidade da interação da matéria escura para restringir a seção de choque. O principal resultado deles é o gráfico da Fig. 1, que mostra que o valor do aumento da seção de choque S compatível com os dados do satélite Pamela não é compatível com o valor limite de S permitido pelo formato do halo de matéria escura de NGC 720.

Fig. 1, gráfico de S versus massa da partícula de matéria escura, da ref. 2. A região verde indica a parte favorecida pelos dados do Fermi, a vermelha pelos dados do Pamela. A linha tracejada indica o limite em S extraído da forma da galáxia NGC 720, e a linha azul da abundância de matéria escura. A discrepância se dá no fato que para produzir as regiões verde e vermelho, é necessário que a partícula intermediadora da aniquilação de matéria escura tenha massa 250 MeV, que já está excluído nesta região que requer uma massa de, no máximo, 30 MeV.

Esse resultado é consistente com a interpretação de que não há nenhum excesso no espectro de raios cósmicos, como os novos dados do satélite Fermi sugerem.

Referências

  1. Velhas e novas evidências da matéria escura
  2. E. Fermi, Phys. Rev. 75, 1169–1174 (1949).
  3. J. L. Feng, M. Kaplinghat, H.-B. Yu, Phys. Rev. Lett. 104, 151301 (2010).
  4. Romeel Davé et al. ApJ 547 574 (2001).
  5. David A. Buote et al ApJ 577 183 (2002).

Demonstrado novo parâmetro cosmológico

quinta-feira, 11 mar 2010; \10\America/New_York\America/New_York\k 10 1 comentário

Em 2007, Pengjie Zhang e outros cosmólogos teóricos sugeriram que a observação da posição e velocidade das galáxias com o desvio da propagação da luz dessas galáxias até nós serviria de uma medida da distribuição de massa do universo. (arXiv:0704.1932). Até então, a técnica utilizada pelo projeto astronômico do telescópio Sloan Digital Sky Survey (SDSS) consistia em medir a distribuição de galáxias e o desvio para o vermelho da galáxia e extrapolar o resultado para a distribuição de massa assumindo que a matéria escura deve seguir aproximadamente a mesma distribuição espacial que os prótons e nêutrons (bárions). Isso não é exatamente verdade porque os bárions formam um gás que interage muito mais facilmente com os fótons da radiação cósmica de fundo do que a matéria escura, e como resultado, os bárions são mantidos a uma temperatura próxima da radiação de fundo antes da formação das estrelas. Esse gás quente de bárions tem pressão presumivelmente maior que a pressão da matéria escura. Em Relatividade Geral, nós podemos deduzir a relação entre a fração da massa de bárions que acompanha a matéria escura e pode-se dizer que o contraste de densidade de bárions é de 10% a 17% menor que o de matéria escura quando se inclui a pressão do gás. Mais importante é talvez o fato de que devido a pressão dos bárions, existem concentrações densas de matéria escura no universo onde não existem galáxias. Todas essas concentrações de matéria escura pura são perdidas na estimativa original do SDSS.

A idéia de Zhang foi de utilizar as velocidades das galáxias e suas posições e relacionar com a lente gravitacional observada. Combinando astutamente estes dois observáveis diferentes de galáxias, é possível eliminar o efeito da pressão dos bárions pelo menos para certas partes da distribuição espacial da matéria total do universo. O observável é sensível a taxa de crescimento de estruturas (quão rápido/forte é a formação das galáxias) que depende sensivelmente com a teoria da gravitação subjacenete, e dessa forma medindo-a é possível testar diferentes teorias da gravitação. No artigo de Zhang, eles mostraram que com a sensibilidade projetada do telescópio SKA, seria possível distinguir a Relatividade Geral de MOND, f(R) e uma teoria de dimensões espaciais extras (conhecida pela sigla de seus autores, DGP) — isso tudo são outros candidatos para teoria da gravitação.

Agora, uma estudante de pós-graduação de Princeton, Reinabelle Reyes, junto com vários outros astrofísicos e astrônomos, demonstrou que a técnica é eficiente (Nature 464, 256-258 (2010)) usando os dados do SDSS. Na realidade, este resultado não é um teste preciso da Relatividade Geral — embora é um teste independente –, e tampouco produziu algo de novo em termos de excluir teorias pois já era sabido de lentes gravitacionais que MOND sem matéria escura não é consistente com os dados (e.g., este post). As barras de erro ainda são muito grandes para poder discernir entre a Relatividade Geral e as alternativas, contudo o que vem como importante é a demonstração de que é possível medir o parâmetro diretamente com erros sob controle. O programa agora será diminuir as incertezas nos telescópios futuros, e quem sabe, projetar um telescópio otimizado para essa medida, que não é o caso do SDSS, de modo a permitir a exclusão ou confirmação mais definitiva de alternativas a Relatividade de Einstein.

Fermi-LAT põe nova restrição a decaimento de matéria escura

quarta-feira, 13 jan 2010; \02\America/New_York\America/New_York\k 02 1 comentário

Anteriormente no blog, eu falei sobre a excitação da possível descoberta de interação da matéria escura com elétrons. A idéia é que existe um modelo para o cálculo do espectro dos raios cósmicos na nossa galáxia que se ajusta bem aos dados para certos limites, mas está no momento sistematicamente abaixo do valor experimental para energias altas (maior que 100 GeV). Entre tais evidências do excesso experimental, figura uma medida precisa do número de elétrons cósmicos acima de 10 GeV pelo balão atmosférico ATIC em outubro de 2008 e radiação gama medida pelo satélite EGRET da NASA e antecessor do Fermi-LAT, e pelo satélite INTEGRAL da Agência Espacial Européia (ESA). Não muito tempo depois da descoberta do ATIC, o satélite Fermi da NASA publicou resultados sobre os elétrons cósmicos contradizendo o excesso alegado pelo ATIC.

Em 16 de dezembro do ano passado, em uma notícia que passou-me desapercebida, Fermi tornou pública novas medidas dos raios gama que contradizem o excesso observado pelo EGRET e que estão de acordo com o modelo de difusão de raios cósmicos. Se as medidas do Fermi-LAT estiverem corretas, o excesso (se é que há algum) de raios gama é muito menor do que o sugerido pelo experimento EGRET, desmotivando a introdução de novas interações da matéria escura com os léptons. Todavia, se isso for o caso, tampouco deve-se interpretar o resultado do satélite PAMELA (que mediu pósitrons sistematicamente acima do modelo de difusão) como indicativo de interação da matéria escura. Se o resultado do Fermi-LAT for vindicado, então ainda não foi desta vez que foi possível vasculhar parte da natureza do setor escuro do universo. Porém, eu quero deixar uma ressalva com respeito a publicação do Fermi-LAT: embora a colaboração conclui que há consistência da medida com o modelo, pode-se ver do gráfico (que eu reproduzo aqui abaixo), que as medidas são sistematicamente acima da previsão teórica. Isso pode não ser útil para identificar essas interações como sinal claro de matéria escura, mas é para entender mais detalhes da produção e propagação de raios cósmicos.


Resultado do espectro de raios gama da nossa galáxia medido pelo Fermi-LAT. Os pontos vermelhos no topo do gráfico são os dados, incertezas indicadas pela faixa vermelha. A região tracejada de preto é a previsão final do modelo teórico.

Fofoca do CDMS…

quinta-feira, 3 dez 2009; \49\America/New_York\America/New_York\k 49 11 comentários

Fofoca de Física é punk… 😎

Mas, anda correndo na boca miúda… que o CDMS está prestes a fazer um “anúncio público” no dia 18 de Dezembro (exatos 15 dias de hoje)! Inclusive, continua a fufuca, com direito a artigo publicado na Nature e tudo mais. 😈

Não dá pra contar a fonte, claro (senão, não seria fufuca 😉 ), … mas, dá pra dizer que a notícia veio desde o “alto escalão“, do “alto clero“, direto pros mortais…

😈

Fiquem ligados!

MOND talvez requer matéria escura

segunda-feira, 13 jul 2009; \29\America/New_York\America/New_York\k 29 1 comentário

Um dos últimos refúgios para uma alternativa a existência de matéria escura no universo é o modelo conhecido por MOND. Benkenstein formulou uma versão relativística, conhecida pela sigla TeVeS. Em dois artigos recentes, Mairi Sakellariadou et al. (arXiv:0901.3932 e arXiv:0907.1463) do King’s College de Londres encontram evidência de que o modelo TeVeS não suporta simultaneamente as lentes gravitacionais e as curvas de rotação de galáxia sem exigir um componente de matéria escura. Para isso, eles analisaram as lentes gravitacionais e as curvas de rotação de seis galáxias. Para explicar lentes gravitacionais, a teoria exige um conjunto de constantes diferente do que ela exige para as curvas de rotação. Até o melhor ajuste das lentes deduz automaticamente uma quantidade de massa superior a massa luminosa das galáxias. Ou seja, ainda se ignorarmos as curvas de rotação, as lentes gravitacionais impõe a existência de matéria escura no modelo TeVeS — inclusive aproximadamente na mesma quantidade da Relatividade Geral.

Obter a massa luminosa das galáxias é relativamente fácil. Uma estimativa é contar o número de estrelas e multiplicar pela massa do Sol. No trabalho em questão, os autores utilizaram um resultado de um grupo de astrônomos que é preciso e sofisticado: a massa total luminosa é extraída de uma simulação da estrutura galática combinada com as propriedades conhecidas dos tipos de estrelas luminosas pertencentes a estas regiões, usando medidas astronômicas de luminosidade por freqüência como entrada.

Mais: pequena explicação em português sobre lentes gravitacionais e colóquio no IF-USP de Martín Makler (CBPF).

Mistérios do Universo Escuro: a palestra Buhl de 2009…

sexta-feira, 12 jun 2009; \24\America/New_York\America/New_York\k 24 Deixe um comentário

Matéria escura continua elusiva

terça-feira, 5 maio 2009; \19\America/New_York\America/New_York\k 19 2 comentários

A colaboração Large Area Telescope (LAT) do satélite Fermi da NASA publicou ontem os primeiros dados do espectro de elétrons nos raios cósmicos. O resultado do Fermi-LAT comparado com alguns outros experimentos eu reproduzo aqui na figura abaixo. (Você talvez queira ler um post relacionado antes de continuar)

Veja o resumo. Baixe aqui o documento completo (grátis).
Intensidade <i>J</i> versus energia <i>E</i> dos elétrons cósmicos.

Intensidade J versus energia E dos elétrons cósmicos.

A conclusão da colaboração Fermi-LAT na publicação recente é a seguinte:

A observação que o espectro é muito mais intenso que o convencional [i.e. o modelo teórico da linha tracejada] pode ser explicada assumindo um espectro mais intenso na fonte, que não está excluído por outras medidas. No entanto, o achatamento significativo dos dados do LAT acima da previsão do modelo para E > 70 GeV pode também sugerir a presença de uma ou mais fontes de elétrons cósmicos de altas energias. Nós observamos que o espectro de LAT pode ser ajustado adicionando um novo componente primário de elétrons e pósitrons (…). A principal razão de adicionar esta componente é reconciliar as previsões teóricas com tanto Fermi e PAMELA (…). Esta última não pode ser reproduzida apenas com as interações de raios cósmicos galáticos com o meio interestelar.

Permitam-me trocar em miúdos e explicar alguns detalhes. Como vocês podem ver do gráfico, estamos comparando experimentos muito diferentes com um mesmo modelo. O modelo é bem simplificado, uma vaca esférica no vácuo com distribuição uniforme de leite, que acredita-se contém os principais efeitos relevantes para a propagação de elétrons e pósitrons pela galáxia (como efeito Compton inverso, espalhamento pela luz das estrelas, etc.). O modelo de fato se encaixa bem para baixas energias (E < 100 GeV) para os elétrons, prótons, e várias outras componentes dos raios cósmicos. O ATIC é um experimento de balão atmosférico, então o fato de seus dados estarem acima do Fermi-LAT não é surpreendente — ATIC mede inevitavelmente uma contaminação de elétrons e pósitrons secundários, aqueles produzidos pela colisão de prótons na alta atmosfera. Mesmo combinando apenas os experimentos mais recentes, os dados estão em todo o lugar da região de intensidade então que conclusão pode ser tirada disso tudo?

É sistemático do HEAT, ATIC, PAMELA e Fermi-LAT, que a intensidade J cresce acima de ~ 10 GeV. É possível argumentar que esse comportamento dos dados é impossível de ser reproduzido pelo modelo de difusão de raios cósmicos na galáxia com produção secundária de pósitrons e elétrons com interação no meio interestelar (Serpico, P. D, arxiv.org:0810.4846). Portanto, se acreditarmos que pelo menos o comportamento dos dados está correto — o que parece o caso, já que está sendo observado por fontes independentes — , o sinal mais provavelmente vem de uma fonte primária de elétrons e pósitrons. Esta fonte pode ser pulsares, aniquilação de matéria escura, ou mesmo processos hadrônicos em supernovas que não foram incluídos no modelo teórico. Eu poderia aqui continuar citando referências de ajustes aos dados do PAMELA e do ATIC, contudo, os dados do Fermi-LAT mostram claramente que isso no momento não vai levar a nada! A primeira coisa que precisamos é entender qual é o espectro de elétrons, pósitrons e prótons nessa região. As barras de erro do ATIC em comparação com seus antecessores me fizeram crer que podíamos confiar naquele resultado e ir adiante, mas o Fermi (que é ainda mais preciso) prova que a coisa é mais complicada — em especial, observe que a lombada pronunciada do ATIC desapareceu no Fermi-LAT! Uma vez que se viu que essa região de energia pode conter física interessante, o natural agora é que os físicos experimentais envolvidos nestas colaborações vão gastar um bom tempo para nos dizer isso de forma precisa. Só então será possível começar uma análise dos candidatos.

LHC e nova física

segunda-feira, 23 mar 2009; \13\America/New_York\America/New_York\k 13 6 comentários

09 dez. 2008: remoção de ímãs para reparo no LHC. O acelerador deve voltar a funcionar em outubro deste ano.

09 dez. 2008: remoção de ímãs para reparo no LHC. O acelerador deve voltar a funcionar em outubro deste ano.

Boa noite de segunda-feira! 🙂

Hoje há dois posts interessantes na blogoesfera sobre o LHC parcialmente sobre o mesmo tema. Um do Marcelo Gleiser e outro do Peter Woit comentando um recente texto de Freeman Dyson sobre o último livro do Frank Wilczek. O ponto em comum é o seguinte: os filtros de dados do LHC não poderiam esconder física nova?

Para entender a pergunta, permitam-me usar um exemplo já mais ou menos bem estabelecido, o WMAP Haze. Os satélites COBE e WMAP medem fótons que chegam aos detetores e apenas isso. Cabe aos físicos experimentais fazer uma análise dos dados para extrair o que é considerado a radiação cósmica de fundo (CMB) prevista pelo Big Bang de qualquer outro tipo de sinal que chega ao detetor. Em parte esse problema não é muito difícil porque a teoria é de que a CMB é praticamente homogênea e isotrópica no referencial da Terra, com pequenas contaminações devido a mudança de referencial — já que a Terra não está em repouso em relação a CMB. Isso está consistente com os dados, que mostram uma radiação na região de microondas que é aproximadamente homogênea e isotrópica quando se faz uma média da intensidade da luz sobre todo o ângulo sólido do céu. Entre as contaminações possíveis, há a contribuição de microondas da nossa própria galáxia. Esta é fácil de identificar porque estes fótons estão em sua maioria no plano da galáxia. No entanto, há um excesso de fótons em algumas freqüências específicas no plano da nossa galáxia que não vêm de estrelas porque a distribuição espacial é difusa, e não vêm do plasma de hidrogênio existente na galáxia, porque não concorda em energia. Essa emissão é conhecida como o “WMAP Haze”1. A colaboração WMAP remove essa contribuição da CMB de forma arbitrária, e assume que ela deve ser resultado de supernovas de mecanismos físicos pouco entendidos. Porém, Douglas Finkbeiner, astrofísico de Harvard, aponta que esse sinal pode também ser devido a aniquilação da matéria escura na galáxia — nova física.

O que acontecerá no LHC não é conceitualmente diferente, embora bem mais complicado. Primeiro, cada detetor do LHC tem um filtro no hardware que seleciona dados, primordialmente para excluir sinais que são considerados espúrios como a passagem de um raio cósmico pelo detetor ou uma flutuação elétrica. Esses filtros levam em consideração algumas suposições sobre o que pode acontecer na colisão, como conservação do momento e energia dentro de certo limite estatístico para múons e outros mésons. Só eventos que passam no filtro de hardware são transmitidos do detetor para a central de computadores do LHC. Mesmo assim, a previsão é que haverá muito mais dados sendo transmitidos do que poderiam ser gravados em HDs. Nos computadores do LHC, esses dados então serão filtrados novamente: um software compara-os com simulações Monte Carlo para remover aquilo considerado desinteressante, porque consiste em física conhecida. O resto dos eventos é gravado em disco. Esses eventos incluem qualquer efeito não previsto pelo MP mais qualquer coisa que não foi programada na simulação. Há uma probabilidade pequena de que parte dos dados excluídos contém nova física de eventos raros que foram confundidos com eventos do MP devido a janela de probabilidade usada pelo filtro.

Então, no final do dia, a imagem que sairá do LHC é apenas parcial, ligada diretamente a suposições dos físicos sobre onde algo pode dar errado e onde provavelmente não vai dar. Os dados jogados fora pelos filtros do LHC podem conter física nova, como pode ser o caso do WMAP Haze. Todavia o que se pode fazer na física é esperar que todos os dados permaneçam consistentes, só isso. Se ocorrer alguma discrepância os físicos experimentais vão voltar um passo atrás e checar as simulações e os filtros. Um exemplo disso aconteceu recentemente, quando a sessão de choque para decaimento de mésons B medida pelo CDF e D0 no Tevatron apresentou uma diferença entre duas formas distintas de medi-la, uma utilizando múons e outra não. O CDF deu um passo atrás e fez novas medidas rastreando a origem espacial dos múons, descobrindo no final do ano passado que havia um grande número deles sendo produzidos numa região inesperada. Esse problema permanece em aberto e é conhecido como os “múons fantasmas”, e ainda precisa ser confirmado pelo D0. Acredita-se que se os filtros do LHC fizerem algo errado, isso aparecerá como alguma inconsistência nos resultados, e a partir daí haverá uma investigação da origem do problema. Enquanto tudo estiver conforme o planejado, não há a menor condição, nem de recursos humanos, tempo e dinheiro, de fazer a análise de dados de cada sinal do LHC. Há um risco natural de que inicialmente o LHC só irá sinalizar aquilo que já era esperado não concordar com os dados, mas a longo prazo espera-se que isso será resolvido por inconsistências.

Para finalizar, só gostaria de comentar sobre o ceticismo de Woit e Dyson sobre o LHC “poder falhar”. Não há tal possibilidade — exceto se o dinheiro do projeto for cortado. O LHC vai inevitavelmente descobrir nova física: i) ou o bóson de Higgs será encontrado dentro de todo o paradigma atual da física de partículas sem nada mais, ii) ou o bóson de Higgs será encontrado com novas partículas ou iii) nem o bóson de Higgs nem nenhuma nova partícula é encontrada. Se i) saber-se-á a origem da quebra espontânea de simetria, o valor preciso da massa do Higgs e os valores precisos da violação CP no setor dos quarks pesados; ii) relaciona-se com novas forças da natureza, novas simetrias, dimensões espaciais extras ou algo ainda menos esperado; iii) o paradigma da física de partículas perturbativa pode requerer uma revisão profunda que eu prefiro nem especular a respeito, já que algo como o bóson de Higgs ou similar é inevitável dentro da abordagem perturbativa acreditada hoje em dia — e o Daniel vai dar pulinhos de alegria :).

Eu creio que o Woit acredita que i) não seria uma nova era dourada para física de partículas porque representaria apenas confirmação de um modelo já estabelecido. Isso é muito triste, acreditar que a física só progride se caminhar para novos modelos ou unificação das forças ou o que valha. O LHC vai abrir uma nova era dourada da física de partículas sem dúvidas, pois vai exigir melhores cálculos da QCD que podem levar a descobertas de novas simetrias e talvez avanços da lattice QCD. Isso servirá de acúmulo de evidência da validade do modelo que automaticamente permitirá restringir nova física de forma muito importante. Por exemplo, os parâmetros de violação CP serão medidos com maior precisão para os quarks pesados. Estes parâmetros são os mais sensíveis do MP à nova física, e o fato de que o MP aparenta responder por toda violação CP observada anula várias teorias que predizem “muita” violação CP — e também gera um problema teórico: por que a nova física não viola CP? Isso em geral requer adicionar novas simetrias a essas teorias. Além disso, CP combinada com a massa do Higgs são exatamente os números mais importantes para a cosmologia: são eles que determinam a contribuição da física eletrofraca para a assimetria matéria-antimatéria do universo, um problema em aberto e básico da física. O LHC também permitirá estudar o plasma de quarks e gluons que não apenas testará a QCD como também as dualidades entre QCD e teorias conformes, que vem reabrindo espaço para a contribuição da teoria de cordas na descrição do mundo real. Há muito território ainda a ser explorado nos modelos já conhecidos…

Notas

  1. “Haze” tem um duplo significado: no sentido de ser uma nuvem de emissão na galáxia, e no sentido de ter significado ainda confuso para a comunidade astrofísica.
  2. Agradeço ao Daniel por passar-me a informação sobre o post do Woit. 🙂

Velhas e novas evidências da matéria escura, e um pouco do lado negro da força

quinta-feira, 12 mar 2009; \11\America/New_York\America/New_York\k 11 10 comentários

Ilustração da situação do espectro de raios cósmicos. Com o lado negro da força no meio.

Ilustração da situação do espectro de raios cósmicos. Com o lado negro da força no meio.


Ah, terminado esse trimestre, dois seminários de cursos concluídos. Daí pensei em compartilhar com vocês o que eu aprendi para dar um desses seminários: os possíveis novos sinais (de outubro de 2008) da existência da matéria escura que vieram do satélite PAMELA e do balão ATIC. 🙂 Fica ai quem quiser… Primeiro eu falo sobre as velhas evidências, depois sobre as novas.

Coisas velhas

Já estava na hora de falar de matéria escura nesse blog. Essa história começou quando o Zwicky descobriu que a razão massa/luminosidade de galáxias espirais é pelo menos mais de 10 vezes maior que a do Sol. A luminosidade é uma medida da potência irradiada da luz (aquela em Watts), essa se mede diretamente na Terra. E a massa se acha utilizando a lei de Newton da gravidade para deduzir a distribuição de velocidades das estrelas nas galáxias. Mais tarde, Vera Rubin fez várias medidas precisas das velocidades das estrelas em várias galáxias espirais e obteve sistematicamente que a velocidade é mais ou menos constante mesmo longe do centro luminoso da galáxia (onde a maioria das estrelas se encontram). Isso só pode ser explicado no paradigma da gravitação de Newton se há uma distribuição aproximadamente uniforme de massa que se estende para bem além da galáxia visível (chamado halo de matéria escura).

Mas esse efeito não é, de repente, da Relatividade Geral? A resposta é não, por duas razões muito importantes. A primeira é que a velocidade das estrelas nas galáxias é tão pequena em comparação com a da luz que é válida a lei de Newton. E isso é possível ser quantificado com a aproximação pós-Newtoniana da Relatividade Geral, que é confirmada com enorme precisão nas medidas da NASA/CalTech da órbita das sondas espaciais e da Lua no Lunar Ranging Interferometer (saca só este artigo). A segunda é que mesmo a Relatividade Geral em toda a sua glória (resolvida exatamente, sem nenhuma aproximação) exige a matéria escura, por causa do diagrama de Hubble.

Qual é a desse diagrama? Na Relatividade Geral se calcula o valor do parâmetro de Hubble (que não é constante) em função da idade do universo em termos dos constituintes do universo: radiação, matéria massiva e qualquer outra coisa que você quiser colocar. A grande utilidade dessa variável cosmológica é que a dependência dela com a idade é distinta para cada diferente componente. P.ex. a matéria massiva contribui com uma potência (1+z)3 para H2, onde z é o desvio para o vermelho das linhas espectrais (quanto maior z menor é a idade do universo), mas a radiação contribui com (1+z)4, a energia escura contribui com \approx (1+z)^0 (constante) e por ai vai (err.. na verdade tem que fazer uma integral dessa série de potências… mas permita-me simplificar, ok?). Então é fácil saber quanto tem de matéria massiva no universo: medindo o valor de H em função de z utilizando diversos dados astronômicos, basta ajustar uma série de potência aos dados e extrair o coeficiente do termo adequado. Resultado: ~ 30% da densidade de energia do universo é matéria massiva. Mas isso não pode ser bárions ou léptons (prótons, nêutrons / elétron e neutrino), porque a abundância primordial de hélio-4, hélio-3, hidrogênio, deutério, lítio, boro e outros restringe que esse tipo de material só soma 4%-5% no máximo. Portanto, cerca de 25% da densidade de massa do universo é composta de algo desconhecido (a matéria escura).

Coisas novas

Há um modelo astrofísico no mercado que prevê o número de partículas como elétrons, pósitrons, prótons, etc. que devem chegar a Terra — os raios cósmicos — vindo de processos naturais de estrelas na galáxia, a versão mais sofisticada atual é do Igor Moskalenko (Stanford U) e Andrew Strong (Max Planck). Esse modelo faz um bom trabalho em prever quase todo o espectro de raios cósmicos de poucos MeV até 10 TeV (são aqueles que vem da nossa própria galáxia). Isso é visto com nitidez nas Figs. 1 e 2. Mas na Fig. 2 você vê que há uma lombada nos dados que o modelo perde. E na Fig. 3 você vê que o modelo está completamente fora. Qual a explicação para a lombada do ATIC na região de 300 – 800 GeV? E o excesso de pósitrons do PAMELA em comparação com o cálculo astrofísico?

Agora, outro ponto de informação interessante. O satélite INTEGRAL/SPI mediu uma emissão de luz que vem do centro da galáxia que é devida a reação elétron+pósitron->fótons. De onde vem esses pósitrons no centro da galáxia? Os dados do INTEGRAL já excluiram a possibilidade de supernovas. Até o momento os astrofísicos não tem idéia…

Espectro de antiprotons medidos pelo satélite PAMELA (Out 2008). As linhas correspondem a modelos, a sólida a um do tipo Moska&Strong.

Fig. 1. Espectro de antiprotons medidos pelo satélite PAMELA (Out 2008). As linhas correspondem a modelos, a sólida a um do tipo Moska&Strong.

Espectro de elétrons cósmicos na Terra medido pelo balão ATIC (Nature, Out 2008). A curva tracejada é o resultado do cálculo Moska&Strong somado com fontes pontuais astrofísicas de conhecimento do ATIC que estavam ativas no momento das medidas (a contribuição destas é exageradas nas curvas corloridas).

Fig. 2. Espectro de elétrons cósmicos na Terra medido pelo balão ATIC (Nature, Out 2008). A curva tracejada é o resultado do cálculo Moska&Strong somado com fontes pontuais astrofísicas de conhecimento do ATIC que estavam ativas no momento das medidas (a contribuição destas é exageradas nas curvas corloridas).

Medidas precisas do espectro de pósitrons cósmicos do satélite PAMELA. A linha sólida é o cálculo Moska & Strong. Esse gráfico não é tão bom quanto do ATIC porque PAMELA não incluiu (ainda) o fluxo previsto por qualquer fonte pontual temporária (diferente do ATIC).

Fig. 3. Medidas precisas do espectro de pósitrons cósmicos do satélite PAMELA. A linha sólida é o cálculo Moska & Strong. Esse gráfico não é tão bom quanto do ATIC porque PAMELA não incluiu (ainda) o fluxo previsto por qualquer fonte pontual temporária (diferente do ATIC).

A-Ha. Ai há uma janela de descobertas. Enquanto alguns se perguntam que mecanismo de aceleração de partículas carregadas foi esquecido (um pulsar, talvez) no modelo Moska&Strong, outros propõem que os excessos vistos por PAMELA, ATIC e INTEGRAL são da matéria escura. Dentro de um modelo genérico para a matéria escura conhecido por WIMPs (de weakly interacting massive particles, partículas massivas que interagem pela força eletrofraca), é previsto que na galáxia atualmente deve haver aniquilação de WIMPs com anti-WIMPs. WIMPs aparecem muitas vezes em modelos além do Modelo Padrão (que resolvem o chamado problema da hierarquia): dimensões extras, supersimetria (SUSY), Little Higgs, etc. Dentro do modelo de que existem mais dimensões espaciais no universo, mas que são grandes ~ 10-16 cm (i.e. TeV) em comparação com o comprimento de Planck, esses dados podem ser naturalmente explicados. Isso já havia sido mostrado na publicação original do ATIC na Nature, todavia há trabalhos mais detalhados disponíveis. Não tem muito jogo de cintura possível aqui porque a seção de choque de produção dessas partículas é fixada automaticamente pela densidade de matéria, e a escala de massa (embora não o valor exato) é fixada pela massa do bóson W.

O Modelo Padrão Supersimétrico Mínimo (MSSM) não consegue, por si só, explicar os dados do PAMELA. A seção de choque do MSSM fixada pela densidade de matéria escura observada astronomicamente precisa de um fator pelo menos de 30 para explicar o número de pósitrons observados. Dependendo de como você brinca com os parâmetros dos modelos supersimétricos, esse fator pode chegar a 100, 1000… 1010. Mas nem tudo está perdido para supersimetria. Fatores de 100 ou 1000 foram recentemente descobertos como esperados se você introduzir uma nova interação na teoria, que interage fortemente com a matéria escura, mas não com as partículas já conhecidas. Curiosamente, os dados do PAMELA e do ATIC sugerem que essa nova interação tem que ser leve em comparação com a escala TeV, digamos de poucos GeV de massa ou menos. Se essa nova interação escura for devida a uma partícula de massa da ordem de até 100 MeV, ela pode explicar a origem do sinal do INTEGRAL, porque permite um mecanismo no qual há uma pequena diferença de massa entre estados da matéria escura que é da ordem de MeV, e transições entre esses estados estão na região certa de energia para criar pares elétron-pósitrons (o par tem 1 MeV de massa). Com isso se explica tanto o sinal do PAMELA e ATIC, que exige uma partícula de matéria escura pesada > 600 GeV para produzir elétrons/pósitrons nas energias observadas, com o INTEGRAL/SPI que exige matéria escura ~ 1-100 MeV.

E então? Nova física? Novas partículas? Uma nova força que age apenas nas matéria escura portanto, uma força escura? 🙂

Citation Needed

  1. ATIC: J. Chang et al. (ATIC), Nature 456, 362 (2008).
  2. PAMELA: antiprotons, positrons
  3. Nova força escura: N. Weiner et al.; Katz & Sundrum Model para SUSY.

Estão próximos de entender a matéria escura?

segunda-feira, 3 nov 2008; \45\America/New_York\America/New_York\k 45 3 comentários

Este post será rápido porque estou com pouco tempo, vai merecer um mais detalhado depois 🙂

Na quinta-feira passada, o experimento CDF II publicou um relatório em que eles mostraram que há uma distribuição de múons produzidos pelo decaimento do méson B (que contém o quark bottom) que, até onde se sabe no momento, não pode ser explicada pelo Modelo Padrão.

A motivação do estudo foi o fato de que a seção de choque de decaimento do B medida experimentalmente no Fermilab concorda com o valor teórico calculado na QCD perturbativa usando um método de reconstrução da trajetória, mas dá um valor incompatível quando o méson B é identificado através do seu decaimento em léptons (o múon). O artigo publicado gerou uma certa polêmica porque grupos importantes (mais conservadores) não assinaram o trabalho, entre eles todo o grupo da Universidade de Oxford e da Universidade Yale — que tiveram participação chave no CDF.

O experimento D0, também do Fermilab, vai fazer uma checagem independente usando seus próprios dados para ver se observa o mesmo excesso.

Em um trabalho independente disponibilizado hoje, sete físicos do CDF publicaram uma possível interpretação do resultado: há três novas partículas de massas 15, 7.3 e 3.6 GeV (a massa do próton é 1 GeV).

No início do mês, um grupo de teóricos publicou um artigo, motivado por uma combinação de resultados recentes de experimentos como PAMELA, ATIC, HEAT, INTEGRAL, mais uma anomalia na radiação cósmica de fundo medida pelo WMAP, no qual eles argumentaram que um certo excesso de pósitrons observados nesses experimentos poderia ser explicado se a matéria escura tivesse um bóson interagente de poucos GeV de massa. O espalhamento da matéria escura não-relativística, por causa desse bóson, sofreria um efeito da mecânica quântica não-relativística conhecido como ampliação (enhancement) de Sommerfeld, explicando o valor da seção de choque para a matéria escura que se infere do experimento PAMELA. Simultaneamente com esse trabalho, Nima Arkani-Hamed e Neal Weiner publicaram um esquema de um modelo supersimétrico em que uma nova interação de gauge que interage apenas no setor da matéria escura é espontaneamente quebrada na escala de poucos GeV, e no estudo da possível fenomenologia do modelo, mostraram que um excesso de múons similar ao visto pelo CDF poderia ser observado (devido uma seqüência de reações envolvendo matéria escura, parceiros supersimétricos e múons) .

Parece que os recentes resultados dos experimentos astronômicos supracitados começam a delinear algumas das propriedades da matéria escura. E talvez o CDFII tenha esbarrado em parte do setor escuro!

Aqui eu estou muito entusiasmado com a possibilidade. Mas é necessária muita calma nessa hora: há outras explicações para os efeitos do PAMELA (uma delas é o bom e velho axion, como o Yasunori Nomura mostrou num artigo recente) e nem toda a colaboração do CDF está segura que eles realmente mediram algo novo.

%d blogueiros gostam disto: