Arquivo

Posts Tagged ‘física de partículas’

Fermi-LAT pode ter confirmado resultado do PAMELA

sexta-feira, 20 maio 2011; \20\America/New_York\America/New_York\k 20 1 comentário

Hoje a Physics World reportou que a colaboração Fermi-LAT fez uma divulgação preliminar durante um congresso de que eles podem ter confirmado o excesso de pósitrons nos raios cósmicos que atingem a Terra na região de 10 a 100 GeV observados pelo PAMELA. Esse resultado é do mais confuso, porque o Fermi-LAT não observa tal excesso para os elétrons.

 Espectro de pósitrons cósmicos do satélite PAMELA.

Espectro de pósitrons cósmicos obtido pelo satélite PAMELA. A linha sólida é o cálculo Moska & Strong. Não incluido o fluxo previsto por fontes pontuais temporárias.

Muitas pessoas irão falar que esse excesso pode ser explicado com processos astrofísicos comuns, mas isso tem que ser visto com muito ceticismo porque genericamente qualquer processo de aceleração clássico deveria gerar um espectro de potência que diminui com o aumento da energia dos pósitrons, como 1/En para n > 0. Porém, o PAMELA, e agora o Fermi-LAT, observam um crescimento do número de pósitrons de 10 a 100 GeV, o que contradiz intuitivamente a possibilidade do excesso vir de aceleramento astrofísico. Além disso, por que o processo astrofísico iria acelerar pósitrons nesta energia mas não os elétrons?

CMS e ATLAS esperam descobrir o Higgs até 2012

quinta-feira, 31 mar 2011; \13\America/New_York\America/New_York\k 13 5 comentários

Detector CMS em fase de montagem em 2008. Foto: Michael Hoch.

Hoje a Physics World publicou uma entrevista com Guido Tonelli, porta-voz do experimento CMS, e Pippa Wells, porta-voz do ATLAS. Ambos afirmam que CMS e ATLAS darão uma resposta definitiva para a existência do bóson de Higgs até final de 2012. A expectativa é que os dados do LHC de 2011 e de 2012 serão necessários para poder vasculhar o Higgs em toda a janela de massa que ele pode existir, que é atualmente de 115 a 600 GeV (para uma comparação, a massa do próton é aproximadamente 1 GeV). O Higgs é a única partícula do Modelo Padrão que ainda não foi positivamente detectada.

Leia mais…

Estranha natureza da matéria escura

domingo, 25 abr 2010; \16\America/New_York\America/New_York\k 16 2 comentários


Fotografia em raios X da galáxia NGC 720 do telescópio Chandra da NASA (lado esquerdo) revelaram a estrutura de matéria escura da galáxia (foto óptica ao lado direito), que agora desfavorece a existência de interações da matéria escura causadas por um bóson escuro leve.
Quem acompanha o blog viu que no final de 2008, o satélite europeu Pamela apresentou qual o número de prótons e pósitrons que bombardeiam a Terra vindo da galáxia e descobriu que para energias acima de aproximadamente 10 GeV, o número de pósitrons começa a aumentar, enquanto o número de prótons continua a diminuir[1].
Como um pósitron consegue chegar a 10 GeV de energia, que corresponde a uma temperatura de 1014 K, quando a temperatura no núcleo do Sol é de apenas 107 K? De onde veio essa energia do próton?
Em 1949, Enrico Fermi mostrou que esse tipo de energia para raios cósmicos é natural[2]. Existem prótons e elétrons espalhados pela galáxia, que vieram de processos astrofísicos, largados aqui e ali por estrelas e supernovas. Eventualmente eles encontram o campo magnético que existe na galáxia e ficam presos, mas esse campo possui inomogeneidades, gradientes, e a partícula quando encontra um pico de intensidade do campo magnético recebe uma força maior que a média que a mantém presa no campo e acaba sendo liberada com uma energia maior. Quanto mais energética é a partícula, mais difícil é desviá-la do seu caminho, então podemos em primeira aproximação imaginar que os acréscimos são inversamente proporcionais a energia que a partícula já possuia antes de receber o pontapé do campo magnético. Então a probabilidade de observar uma partícula com energia E na Terra deve ser inversamente proporcional a sua energia,

 
P(E) \propto 1/E^\gamma

onde \gamma > 0 é um fator a ser determinado experimentalmente. Esse mecanismo de Fermi não poderia explicar o súbito crescimento do número de partículas com energias acima de 10 GeV observados no Pamela e no ATIC, e por isso o crescimento foi interpretado como um sinal de nova física.
Mas se esse excesso fosse devido a aniquilação de matéria escura na galáxia produzindo pósitrons, então a probabilidade de aniquilação de matéria escura teria que ser muito maior que o valor esperado no cenário de WIMPs. Por isso, Neil Weiner e colaboradores sugeriram que deveria existir uma nova partícula leve que só interage com a matéria escura, porque tal interação introduziria um fator de aumento na probabilidade de aniquilação da matéria escura que depende da velocidade do gás de matéria escura:

 
S = \displaystyle{\frac{\pi \alpha_X / v_\text{rel}}{1 - \exp(-\pi \alpha_X/v_\text{rel})}}

Infelizmente, este mês relata Jonathan Feng e colaboradores na Phys. Rev. Lett. que essa interação já está excluída devido ao formato das galáxias[3]. Motivados por estudos numéricos do formato dos halos de matéria escura quando se inclui interações[4], eles argumentam que a introdução de interação favorece a formação de halos mais esféricos do que aqueles que seriam formados desprezando interações, e então usam os dados sobre a elipsidade do halo da galáxia NGC 720 que foi estudado com as imagens de raios X do telescópio Chandra[5] e comparam com as simulações numéricas em função da intensidade da interação da matéria escura para restringir a seção de choque. O principal resultado deles é o gráfico da Fig. 1, que mostra que o valor do aumento da seção de choque S compatível com os dados do satélite Pamela não é compatível com o valor limite de S permitido pelo formato do halo de matéria escura de NGC 720.

Fig. 1, gráfico de S versus massa da partícula de matéria escura, da ref. 2. A região verde indica a parte favorecida pelos dados do Fermi, a vermelha pelos dados do Pamela. A linha tracejada indica o limite em S extraído da forma da galáxia NGC 720, e a linha azul da abundância de matéria escura. A discrepância se dá no fato que para produzir as regiões verde e vermelho, é necessário que a partícula intermediadora da aniquilação de matéria escura tenha massa 250 MeV, que já está excluído nesta região que requer uma massa de, no máximo, 30 MeV.

Esse resultado é consistente com a interpretação de que não há nenhum excesso no espectro de raios cósmicos, como os novos dados do satélite Fermi sugerem.

Referências

  1. Velhas e novas evidências da matéria escura
  2. E. Fermi, Phys. Rev. 75, 1169–1174 (1949).
  3. J. L. Feng, M. Kaplinghat, H.-B. Yu, Phys. Rev. Lett. 104, 151301 (2010).
  4. Romeel Davé et al. ApJ 547 574 (2001).
  5. David A. Buote et al ApJ 577 183 (2002).

Fermi-LAT põe nova restrição a decaimento de matéria escura

quarta-feira, 13 jan 2010; \02\America/New_York\America/New_York\k 02 1 comentário

Anteriormente no blog, eu falei sobre a excitação da possível descoberta de interação da matéria escura com elétrons. A idéia é que existe um modelo para o cálculo do espectro dos raios cósmicos na nossa galáxia que se ajusta bem aos dados para certos limites, mas está no momento sistematicamente abaixo do valor experimental para energias altas (maior que 100 GeV). Entre tais evidências do excesso experimental, figura uma medida precisa do número de elétrons cósmicos acima de 10 GeV pelo balão atmosférico ATIC em outubro de 2008 e radiação gama medida pelo satélite EGRET da NASA e antecessor do Fermi-LAT, e pelo satélite INTEGRAL da Agência Espacial Européia (ESA). Não muito tempo depois da descoberta do ATIC, o satélite Fermi da NASA publicou resultados sobre os elétrons cósmicos contradizendo o excesso alegado pelo ATIC.

Em 16 de dezembro do ano passado, em uma notícia que passou-me desapercebida, Fermi tornou pública novas medidas dos raios gama que contradizem o excesso observado pelo EGRET e que estão de acordo com o modelo de difusão de raios cósmicos. Se as medidas do Fermi-LAT estiverem corretas, o excesso (se é que há algum) de raios gama é muito menor do que o sugerido pelo experimento EGRET, desmotivando a introdução de novas interações da matéria escura com os léptons. Todavia, se isso for o caso, tampouco deve-se interpretar o resultado do satélite PAMELA (que mediu pósitrons sistematicamente acima do modelo de difusão) como indicativo de interação da matéria escura. Se o resultado do Fermi-LAT for vindicado, então ainda não foi desta vez que foi possível vasculhar parte da natureza do setor escuro do universo. Porém, eu quero deixar uma ressalva com respeito a publicação do Fermi-LAT: embora a colaboração conclui que há consistência da medida com o modelo, pode-se ver do gráfico (que eu reproduzo aqui abaixo), que as medidas são sistematicamente acima da previsão teórica. Isso pode não ser útil para identificar essas interações como sinal claro de matéria escura, mas é para entender mais detalhes da produção e propagação de raios cósmicos.


Resultado do espectro de raios gama da nossa galáxia medido pelo Fermi-LAT. Os pontos vermelhos no topo do gráfico são os dados, incertezas indicadas pela faixa vermelha. A região tracejada de preto é a previsão final do modelo teórico.

Fofoca do CDMS…

quinta-feira, 3 dez 2009; \49\America/New_York\America/New_York\k 49 11 comentários

Fofoca de Física é punk… 😎

Mas, anda correndo na boca miúda… que o CDMS está prestes a fazer um “anúncio público” no dia 18 de Dezembro (exatos 15 dias de hoje)! Inclusive, continua a fufuca, com direito a artigo publicado na Nature e tudo mais. 😈

Não dá pra contar a fonte, claro (senão, não seria fufuca 😉 ), … mas, dá pra dizer que a notícia veio desde o “alto escalão“, do “alto clero“, direto pros mortais…

😈

Fiquem ligados!

Encontrado um análogo da QCD?

segunda-feira, 30 nov 2009; \49\America/New_York\America/New_York\k 49 1 comentário

Quando cheguei a Dartmouth, o meu primeiro projeto de pesquisa envolveu uma aplicação cosmológica do modelo do Schwinger, que é a versão em 1 dimensão espacial da eletrodinâmica quântica (QED 1+1 daqui para frente). Uma das coisas belas de teorias quânticas de partículas em 1 dimensão espacial é que as integrais de trajetória tem formas fechadas, permitindo calcular todos os observáveis em forma exata. Curiosamente, a QED 1+1 tem integrais de trajetórias idênticas a teoria de um méson escalar com um potencial tipo co-seno. Mais ainda, quando o valor do acoplamento do férmion com o fóton é não-perturbativo (i.e. a interação é forte), o acoplamento do méson é perturbativo (i.e. a interação entre mésons é fraca), e vice-versa, ou seja, se e_\mu é o valor da carga elétrica medida na escala de energia \mu e \lambda_\mu é o valor do acoplamento do campo escalar medido na mesma escala de energia, esses dois se relacionam na forma e_\mu \propto 1/\lambda_\mu. Notando esse fato, Sidney Coleman observou que tinha-se na verdade uma teoria em 1 dimensão que se comporta analogamente a QCD (a teoria das forças nucleares fortes), e não a QED, pois para energias altas em que o acoplamento e_\mu é fraco, a teoria pode ser vista como a teoria de um férmion acoplado com um bóson de gauge, mas a energias baixas, e_\mu se torna grande, a interação férmion-férmion intermediada pelo bóson de gauge confina essa partícula a existir apenas na forma de bósons de spin 0 (o campo escalar). Isso é idêntico ao que acontece na QCD em que o par de quarks up e down confina quando cada quark tem energia E < 240 MeV para formar o os três píons, \pi^0\, , \pi^+ \, ,\pi^- — a física desses últimos é descrita por campos escalares ao invés de férmions de spin 1/2 e glúons.

Relacionado a essa questão, eu fiquei curioso em saber se existia um sistema da matéria condensada que fosse descrito pelo modelo de Schwinger, algum sistema eletromagnético efetivamente de 1 dimensão espacial. Bom, parece que estes senhores encontraram um tal sistema em 1996: Phys. Rev. B 53, 8521 – 8532 (1996), que foi experimentalmente realizado recentemente, com um relatório publicado na Nature Physics ontem.

Leia mais…

LHC: 2.36 TeV

segunda-feira, 30 nov 2009; \49\America/New_York\America/New_York\k 49 Deixe um comentário

Monitor na sala de controle do feixe do LHC mostra 1.17 TeV por feixe de prótons. Hoje o acelerador alcançou a marca de 1.18 TeV por feixe.

Aconteceu hoje: o LHC superou a marca de 1.96 TeV do Fermilab operando a uma energia combinada de 2.36 TeV dos dois feixes de prótons no anel principal! Eba! 🙂 Nos primeiros quatro meses de 2010, a equipe do feixe do LHC pretende acelerar os prótons a uma energia combinada de 7 TeV (energia do centro de massa). O objetivo é chegar a 14 TeV no centro de massa, ou seja 7 TeV em cada próton (no referencial do laboratório). Cada quark e glúon do próton terá uma energia de aproximadamente 1 TeV, fazendo o LHC um acelerador de partículas que colide quarks e glúons juntos a energias de aproximadamente 2 TeV. Essa energia é convertida no produto de decaimento das colisões quarks e glúons, e permite janela suficiente para produzir o bóson de Higgs, que deve ter da ordem de 100 GeV/c2 de massa — uma partícula elementar de massa próxima aos núcleos naturais mais pesados, como o rádio.

Notícia completa: CERN.

Crédito das fotos: CERN.

Comissão de feixe do LHC comemora o controle do feixe estável a alta energia.

Primeira colisão de prótons do LHC ocorreu hoje

segunda-feira, 23 nov 2009; \48\America/New_York\America/New_York\k 48 Deixe um comentário

Um dos primeiros eventos do LHC, reconstruído no detetor ALICE.

As 11h da manhã (hora de Brasília) de hoje, a primeira colisão de prótons foi detectada no LHC! Os prótons circularam a uma energia de 900 GeV (no referencial do centro de massa). O primeiro evento foi registrado a essa hora no ATLAS, depois outra colisão ocorreu no CMS e finalmente outras duas no LHCb e ALICE.

Se tudo correr bem, a comissão que está trabalhando no feixe de prótons do LHC pretende acelerar prótons a 2.4 TeV no centro de massa (CM) até o final de dezembro. Quando este dia chegar, o LHC será oficialmente o acelerador de partículas mais energético do mundo, sobrepujando o Tevatron no Fermilab que opera atualmente a 1.9 TeV no CM.

A presente fase do LHC tem dois objetivos: 1) testar o feixe de prótons no anel circular principal, como o tempo de vida dentro do anel, e 2) servir de dados iniciais para os experimentos calibrarem seus detetores. O objetivo do experimento na sua próxima fase é produzir colisões entre prótons a 14 TeV no CM, suficiente para descobrir — ou descartar a existência — o bóson de Higgs, a única partícula elementar do Modelo Padrão que ainda não foi detectada. O CMS e o ATLAS se encarregarão desta busca, assim como a análise de possíveis novas partículas não incluídas no Modelo Padrão. O LHCb estudará as reações de violação da simetria matéria-antimatéria e paridade do Modelo Padrão, o mecanismo de Cabibbo, Kobayashi e Maskawa, em energias mais altas e com maior precisão no setor menos estudado dessa violação, os dos quarks pesados bottom e top, e ALICE iniciará seu programa científico quando o LHC substituir o feixe de prótons por feixes de núcleos pesados para estudar o plasma de quarks e glúons.

Quando estiver em operação dentro de seu programa científico de descoberta, o LHC trará informações sobre uma escala de tamanho da Natureza ainda completamente inexplorada, uma grande revolução na física de fato. Grande parte dos físicos teóricos de partículas esperam que novos fenônemos surjam na escala estudada pelo LHC por causa do problema da hierarquia da massa do bóson de Higgs.

Mais sobre essa notícia no site oficial do CERN.

LHC volta a funcionar e prótons realizam meio percusso com sucesso

quarta-feira, 11 nov 2009; \46\America/New_York\America/New_York\k 46 Deixe um comentário

Detetor CMS do LHC visualiza passagem de um feixe de prótons no anel principal.

Neste sábado, sete de novembro, um feixe de prótons foi com sucesso injetado no acelerador de partículas LHC do CERN, viajou metade da circunferência de 27 km do acelerador, passando pelos detetores do LHCb e do CMS, reportou o CERN na segunda-feira, 9 de novembro. A imagem que você vê acima é a reconstrução de eventos causados pela passagem do feixe de prótons de baixa energia pelo anel. Este primeiro passo da aceleração de prótons pelo anel principal produziu dados que serão utilizados pela colaboração CMS para verificar o funcionamento do detetor na região de baixa energia em que a física é conhecida. O objetivo do LHC é colidir dois feixes de prótons a energias de até 7 TeV cada feixe, frente a frente. O experimento permitirá físicos estudarem a estrutura da matéria nos tamanhos de 10-18m (uma fração bilhão de bilhão de bilhão de um metro), mil vezes menor que o tamanho do próton. Para uma perspectiva: a diferença de tamanho entre uma pilha dos 100 prédios mais altos do mundo (do tamanho do antigo World Trade Center de Nova York) e uma pessoa, é a mesma entre uma bactéria e um átomo; o átomo é maior que o próton na mesma proporção que mil arranha-céus empilhados são maiores que uma pessoa, e finalmente, o LHC estudará a Natureza em uma escala 10 mil vezes menor que o próton, equivalente a diferença de tamanho de 10 mil arranha-céus empilhados em comparação a uma pessoa.

A notícia original do CERN pode ser por enquanto encontrada na página principal do site do CERN.

O Prêmio Sakurai de 2010…

terça-feira, 6 out 2009; \41\America/New_York\America/New_York\k 41 Deixe um comentário

Eu estava esperando o anúncio do Prêmio Nobel de Física desse ano pra me manifestar… 😈

Pra quem não conhece, a APS (American Physical Society) distribui uma série de prêmios anualmente — e esses são bastante importantes. Em particular, o Prêmio Sakurai distingue as principais contribuições em Física de Partículas Teórica.

O Prêmio Sakurai de 2010 diz o seguinte sobre seus ganhadores,

“For elucidation of the properties of spontaneous symmetry breaking in four-dimensional relativistic gauge theory and of the mechanism for the consistent generation of vector boson masses”

(“Pela elucidação das propriedades da quebra espontânea de simetria em teorias de gauge relativísticas em 4-dimensões e do mecanismo para geração consistente das massas dos bósons-vetores.”)

Pra conhecer um pouco mais desse fenômeno e sua importância, uma boa referência é a seguinte: Englert-Brout-Higgs-Guralnik-Hagen-Kibble mechanism. Pra conhecer melhor a história científica por detrás de tudo isso, e poder contextualizar melhor a importância desse trabalho, o seguinte artigo é excelente: History of the Englert-Brout-Higgs-Guralnik-Hagen-Kibble mechanism.

Infelizmente, ainda há muita controvérsia em torno desse assunto, indo desde suas analogias em Matéria Condensada (Eletrodinâmica Escalar e suas relações com Landau-Ginzburg e a explicação da supercondutividade) até o fato de que mutios dos detalhes envolvidos já foram [tacitamente] esquecidos há tempos… não por maldade, apenas por uma questão de que, uma vez que o fenômeno passa a ser entendido, os detalhes que antes bloqueavam sua compreensão passam a ficar relegados ao segundo plano.

Infelizmente, a compreensão necessária pra se destrinchar todas essas controvérsias, é não-perturbativa, e não costuma ser algo que se ensina nos cursos de QFT por aí afora… 😥

É uma pena muito grande, pois essa história é muito bonita e de fundamental importância pra Física de Partículas, começando com o Modelo de Schwinger e culminando com a Quebra Espontânea de Simetria, passando pelo fato de que não há absolutamente nada na Física atual que obrigue o fóton a ter massa nula (fica a perguntinha capiciosa: “vc sabe provar o por quê disso?” 😈 ).

Uma parte dessa controvérsia toda tem aparecido bastante na mídia atualmente, por causa da alta probabilidade do Nobel ser dado pra esse tema assim que o LHC encontre o “bóson de Higgs”. Por exemplo, o Ian Sample está escrevendo um livro sobre tudo isso, contanto os pormenores do mundo da Física. Quem quiser ir se divertindo, enquanto o livro não sai, pode dar uma olhada nos seguintes links,

Há muito mais sobre isso espalhado por aí, pelas Internets; mas, não vou ficar fazendo linkfest por aqui. 😛

O Guralnik conta a história dele no seguinte artigo (o link aponta pro eprint nos arXivs só por uma questão de simplicidade, uma vez que lá é possível se encontrar o link pro artigo publicado): The History of the Guralnik, Hagen and Kibble development of the Theory of Spontaneous Symmetry Breaking and Gauge Particles. Vale muita a pena ler (principalmente quem quiser descobrir a resposta pra perguntinha capiciosa acima 😉 )…

Pra fechar, ainda no tema “Física não-pertrubativa e fora do equilíbrio”, deixo a seguinte entrevista do Roger Penrose (quem quiser um pouco mais, pode dar uma olhada nos videocasts do AP que tem umas palestras bem interessantes do Penrose 😈 ), Roger Penrose Says Physics Is Wrong, From String Theory to Quantum Mechanics.

Diversão garantida, 😎 !

Pierre Auger enfraquece relação entre UHECR e núcleos ativos de galáxias

terça-feira, 14 jul 2009; \29\America/New_York\America/New_York\k 29 Deixe um comentário

Durante a 31a Conferência Internacional de Raios Cósmicos na Polônia (7 – 15 Julho 2009), a colaboração Pierre Auger tornou pública uma maior quantidade de dados de raios cósmicos de altas energias (UHECR) — maior que 107 TeV — e concluiu que a relação entre núcleos ativos de galáxias (AGNs) e a origem destes raios cósmicos está mais fraca do que eles haviam encontrado em novembro de 2007. Acredita-se que AGNs diferem das galáxias comuns por possuírem um buraco negro central que acelera matéria produzindo radiação eletromagnética em quantidade muito superior aquela que poderia ser obtida dentro de estrelas.

Na primeira análise, publicada na revista Science, 18 de 27 eventos encontravam-se a menos de 3° de um AGN. Na nova análise de julho de 2009, 17 eventos de 44 foram encontrados na direção de AGNs. Os dados são parcos e a colaboração conclui que mais informação é necessária para creditar AGNs como fontes dos raios cósmicos de ultra energia. Uma análise estatística no momento indica todavia que a probabilidade de tal correlação ser medida para uma distribuição isotrópica de fontes é de apenas 1%. Esse resultado aparentemente favorável pode ser contudo artificial devido ao pequeno número de dados.

Matéria escura continua elusiva

terça-feira, 5 maio 2009; \19\America/New_York\America/New_York\k 19 2 comentários

A colaboração Large Area Telescope (LAT) do satélite Fermi da NASA publicou ontem os primeiros dados do espectro de elétrons nos raios cósmicos. O resultado do Fermi-LAT comparado com alguns outros experimentos eu reproduzo aqui na figura abaixo. (Você talvez queira ler um post relacionado antes de continuar)

Veja o resumo. Baixe aqui o documento completo (grátis).
Intensidade <i>J</i> versus energia <i>E</i> dos elétrons cósmicos.

Intensidade J versus energia E dos elétrons cósmicos.

A conclusão da colaboração Fermi-LAT na publicação recente é a seguinte:

A observação que o espectro é muito mais intenso que o convencional [i.e. o modelo teórico da linha tracejada] pode ser explicada assumindo um espectro mais intenso na fonte, que não está excluído por outras medidas. No entanto, o achatamento significativo dos dados do LAT acima da previsão do modelo para E > 70 GeV pode também sugerir a presença de uma ou mais fontes de elétrons cósmicos de altas energias. Nós observamos que o espectro de LAT pode ser ajustado adicionando um novo componente primário de elétrons e pósitrons (…). A principal razão de adicionar esta componente é reconciliar as previsões teóricas com tanto Fermi e PAMELA (…). Esta última não pode ser reproduzida apenas com as interações de raios cósmicos galáticos com o meio interestelar.

Permitam-me trocar em miúdos e explicar alguns detalhes. Como vocês podem ver do gráfico, estamos comparando experimentos muito diferentes com um mesmo modelo. O modelo é bem simplificado, uma vaca esférica no vácuo com distribuição uniforme de leite, que acredita-se contém os principais efeitos relevantes para a propagação de elétrons e pósitrons pela galáxia (como efeito Compton inverso, espalhamento pela luz das estrelas, etc.). O modelo de fato se encaixa bem para baixas energias (E < 100 GeV) para os elétrons, prótons, e várias outras componentes dos raios cósmicos. O ATIC é um experimento de balão atmosférico, então o fato de seus dados estarem acima do Fermi-LAT não é surpreendente — ATIC mede inevitavelmente uma contaminação de elétrons e pósitrons secundários, aqueles produzidos pela colisão de prótons na alta atmosfera. Mesmo combinando apenas os experimentos mais recentes, os dados estão em todo o lugar da região de intensidade então que conclusão pode ser tirada disso tudo?

É sistemático do HEAT, ATIC, PAMELA e Fermi-LAT, que a intensidade J cresce acima de ~ 10 GeV. É possível argumentar que esse comportamento dos dados é impossível de ser reproduzido pelo modelo de difusão de raios cósmicos na galáxia com produção secundária de pósitrons e elétrons com interação no meio interestelar (Serpico, P. D, arxiv.org:0810.4846). Portanto, se acreditarmos que pelo menos o comportamento dos dados está correto — o que parece o caso, já que está sendo observado por fontes independentes — , o sinal mais provavelmente vem de uma fonte primária de elétrons e pósitrons. Esta fonte pode ser pulsares, aniquilação de matéria escura, ou mesmo processos hadrônicos em supernovas que não foram incluídos no modelo teórico. Eu poderia aqui continuar citando referências de ajustes aos dados do PAMELA e do ATIC, contudo, os dados do Fermi-LAT mostram claramente que isso no momento não vai levar a nada! A primeira coisa que precisamos é entender qual é o espectro de elétrons, pósitrons e prótons nessa região. As barras de erro do ATIC em comparação com seus antecessores me fizeram crer que podíamos confiar naquele resultado e ir adiante, mas o Fermi (que é ainda mais preciso) prova que a coisa é mais complicada — em especial, observe que a lombada pronunciada do ATIC desapareceu no Fermi-LAT! Uma vez que se viu que essa região de energia pode conter física interessante, o natural agora é que os físicos experimentais envolvidos nestas colaborações vão gastar um bom tempo para nos dizer isso de forma precisa. Só então será possível começar uma análise dos candidatos.

Pegue o seu Georgi antes que acabe!

quarta-feira, 8 abr 2009; \15\America/New_York\America/New_York\k 15 Deixe um comentário

Howard Georgi tem um célebre livro introdutório de física de partículas, com a visão moderna de teorias efetivas, Weak Interactions and Modern Particle Theory, que ainda está disponível online, gratuitamente e legalmente, da sua página da Internet. O livro acaba de ser republicado pela Dover depois de um hiato de vários anos fora de circulação, e já está quase esgotando! A versão online gratuita provavelmente será removida em breve.

Na página do Prof Georgi também encontram-se dois outros materiais interessantes: uma introdução sem muitas contas sobre teorias efetivas e outra sobre a simetria de quarks pesados.

Alternativas a unificação

quarta-feira, 25 mar 2009; \13\America/New_York\America/New_York\k 13 3 comentários

O princípio vingente para descrever a física de partículas nas escalas de tamanho de 10-13 cm (1 GeV) até 10-15 cm (100 GeV) é o de que há uma simetria na lei de evolução temporal, quer dizer, certas transformações que mantém as leis da física invariantes. Há dois conjuntos distintos de transformações independentes que constituem o que se chama o Modelo Padrão da física, e em matemática esses conjuntos são denotados por SU(3) e SU(2)\times U(1). O conjunto U(1) e.g. consiste nas transformações em que um número complexo z é multiplicado por uma fase complexa:

z' = e^{i \theta} z .

Há um teorema, devido ao Sheldon Glashow e Murray Gell-Mann que diz que todas as simetrias admissíveis para teorias onde há uma corrente que se conserva (que no eletromagnetismo é a condição da conservação da carga elétrica) são um entre os conjuntos que os matemáticos chamam de grupos de Lie simples que podem ou não serem combinados também com o conjunto de transformações chamadas de U(1). Graças ao matemático Élie Cartan, há uma classificação completa (uma lista) de todos os grupos de Lie simples. A lista é infinita porém enumerável e é muito útil porque permite os físicos teóricos terem uma tabela completa de todas as teorias físicas que fazem sentido. Mas também é muito frustrante: embora o princípio de simetria de conservação das cargas descreve muito bem o mundo subatômico, há uma quantidade infinita de possibilidades de teorias e não há nenhuma racionalização disponível que permita decidir por que o Modelo Padrão escolheu SU(3) e SU(2)\times U(1). Ou dito de forma diferente: há algo de especial nessas simetrias?

Talvez não. Talvez todos os grupos de Lie simples existam na Natureza de forma independente do Modelo Padrão, porém ainda não foram observados. John Donoghue e Preema Pais recentemente mostraram que dentro deste cenário é possível haver unificação de todas as forças fundamentais (excetuando-se a gravitação) (arxiv:0903.3929). A idéia básica é que há uma teoria subjacente que não daria nenhum privilégio para SU(2) e SU(3), mas geraria toda a cadeia de simetrias SU(N), com infinitos férmions e interações. Porém, se todas essas interações tiverem uma origem comum, é possível simultaneamente ajustar que estas forças se tornam todas iguais em magnitude numa certa escala de energia próxima a escala de Planck e ao mesmo tempo há uma hierarquia entre as forças: SU(4), p.ex., o próximo grupo depois do SU(3), é confinante (como a QCD) na escala de pelo menos 1 TeV, e os próximos grupos são confinantes em escalas mais altas. Desse modo, a massa dos estados ligados, os hádrons destas forças, seriam maiores que 1 TeV. Todas as partículas geradas por essa cascata de simetrias são mais pesadas que qualquer partícula do atual do Modelo Padrão, portanto não estão excluídas.

Esse é um exemplo de como hoje em dia a noção de unificação na física vem ganhando novas janelas. Em 98, Arkani-Hamed, Dimopoulos e Dvali notaram que se há dimensões extras espaciais no universo então é permitido que a constante da gravitação universal seja bem maior do que o observado em 3 dimensões. Em unidades de energia, a constante de Newton é a massa de Planck que é 1019 GeV, mas com o número adequado de dimensões extras grandes é possível trazer a massa de Planck para 103 GeV, que é próxima da escala de energia da unificação eletrofraca (246 GeV), e portanto ambas as escalas (gravitacional e força fraca) seriam iguais. Esta é uma outra noção de unificação.

Uma das mais bonitas e interessantes, ao meu ver, é a motivada pelas descobertas das dualidades em teorias de campos: a propriedade que alguns sistemas físicos descritos por teorias de campo tem de que o mesmo sistema físico pode ser descrito por diferentes teorias de campo. A informação que eu tenho é que essa idéia surgiu mais ou menos nos anos 70 nos trabalhos do Sidney Coleman, Jorge Andre Swieca e outros, mas ganhou notoriedade mais tarde com os trabalhos do Witten e Maldacena. É como se cada teoria de campo fosse uma escolha diferente de coordenadas (o Rafael já postou sobre isso no blog aqui, aqui e aqui.). Nesse caso a unificação pode ser de uma natureza diferente: talvez o que nos parece uma teoria desconexa com simetrias que não conversam entre si, sem nenhuma unificação, é na verdade apenas uma escolha ruim de coordenadas de uma teoria onde há realmente uma unificação, só que evidente apenas em outro sistema de coordenadas (quero dizer campos). No caso do exemplo do Donoghue e Pais, seria interessante saber se um universo com todos os grupos de Lie simples de simetrias seria dual a uma descrição usando apenas poucos campos, ou mesmo uma teoria gravitacional.

LHC e nova física

segunda-feira, 23 mar 2009; \13\America/New_York\America/New_York\k 13 6 comentários

09 dez. 2008: remoção de ímãs para reparo no LHC. O acelerador deve voltar a funcionar em outubro deste ano.

09 dez. 2008: remoção de ímãs para reparo no LHC. O acelerador deve voltar a funcionar em outubro deste ano.

Boa noite de segunda-feira! 🙂

Hoje há dois posts interessantes na blogoesfera sobre o LHC parcialmente sobre o mesmo tema. Um do Marcelo Gleiser e outro do Peter Woit comentando um recente texto de Freeman Dyson sobre o último livro do Frank Wilczek. O ponto em comum é o seguinte: os filtros de dados do LHC não poderiam esconder física nova?

Para entender a pergunta, permitam-me usar um exemplo já mais ou menos bem estabelecido, o WMAP Haze. Os satélites COBE e WMAP medem fótons que chegam aos detetores e apenas isso. Cabe aos físicos experimentais fazer uma análise dos dados para extrair o que é considerado a radiação cósmica de fundo (CMB) prevista pelo Big Bang de qualquer outro tipo de sinal que chega ao detetor. Em parte esse problema não é muito difícil porque a teoria é de que a CMB é praticamente homogênea e isotrópica no referencial da Terra, com pequenas contaminações devido a mudança de referencial — já que a Terra não está em repouso em relação a CMB. Isso está consistente com os dados, que mostram uma radiação na região de microondas que é aproximadamente homogênea e isotrópica quando se faz uma média da intensidade da luz sobre todo o ângulo sólido do céu. Entre as contaminações possíveis, há a contribuição de microondas da nossa própria galáxia. Esta é fácil de identificar porque estes fótons estão em sua maioria no plano da galáxia. No entanto, há um excesso de fótons em algumas freqüências específicas no plano da nossa galáxia que não vêm de estrelas porque a distribuição espacial é difusa, e não vêm do plasma de hidrogênio existente na galáxia, porque não concorda em energia. Essa emissão é conhecida como o “WMAP Haze”1. A colaboração WMAP remove essa contribuição da CMB de forma arbitrária, e assume que ela deve ser resultado de supernovas de mecanismos físicos pouco entendidos. Porém, Douglas Finkbeiner, astrofísico de Harvard, aponta que esse sinal pode também ser devido a aniquilação da matéria escura na galáxia — nova física.

O que acontecerá no LHC não é conceitualmente diferente, embora bem mais complicado. Primeiro, cada detetor do LHC tem um filtro no hardware que seleciona dados, primordialmente para excluir sinais que são considerados espúrios como a passagem de um raio cósmico pelo detetor ou uma flutuação elétrica. Esses filtros levam em consideração algumas suposições sobre o que pode acontecer na colisão, como conservação do momento e energia dentro de certo limite estatístico para múons e outros mésons. Só eventos que passam no filtro de hardware são transmitidos do detetor para a central de computadores do LHC. Mesmo assim, a previsão é que haverá muito mais dados sendo transmitidos do que poderiam ser gravados em HDs. Nos computadores do LHC, esses dados então serão filtrados novamente: um software compara-os com simulações Monte Carlo para remover aquilo considerado desinteressante, porque consiste em física conhecida. O resto dos eventos é gravado em disco. Esses eventos incluem qualquer efeito não previsto pelo MP mais qualquer coisa que não foi programada na simulação. Há uma probabilidade pequena de que parte dos dados excluídos contém nova física de eventos raros que foram confundidos com eventos do MP devido a janela de probabilidade usada pelo filtro.

Então, no final do dia, a imagem que sairá do LHC é apenas parcial, ligada diretamente a suposições dos físicos sobre onde algo pode dar errado e onde provavelmente não vai dar. Os dados jogados fora pelos filtros do LHC podem conter física nova, como pode ser o caso do WMAP Haze. Todavia o que se pode fazer na física é esperar que todos os dados permaneçam consistentes, só isso. Se ocorrer alguma discrepância os físicos experimentais vão voltar um passo atrás e checar as simulações e os filtros. Um exemplo disso aconteceu recentemente, quando a sessão de choque para decaimento de mésons B medida pelo CDF e D0 no Tevatron apresentou uma diferença entre duas formas distintas de medi-la, uma utilizando múons e outra não. O CDF deu um passo atrás e fez novas medidas rastreando a origem espacial dos múons, descobrindo no final do ano passado que havia um grande número deles sendo produzidos numa região inesperada. Esse problema permanece em aberto e é conhecido como os “múons fantasmas”, e ainda precisa ser confirmado pelo D0. Acredita-se que se os filtros do LHC fizerem algo errado, isso aparecerá como alguma inconsistência nos resultados, e a partir daí haverá uma investigação da origem do problema. Enquanto tudo estiver conforme o planejado, não há a menor condição, nem de recursos humanos, tempo e dinheiro, de fazer a análise de dados de cada sinal do LHC. Há um risco natural de que inicialmente o LHC só irá sinalizar aquilo que já era esperado não concordar com os dados, mas a longo prazo espera-se que isso será resolvido por inconsistências.

Para finalizar, só gostaria de comentar sobre o ceticismo de Woit e Dyson sobre o LHC “poder falhar”. Não há tal possibilidade — exceto se o dinheiro do projeto for cortado. O LHC vai inevitavelmente descobrir nova física: i) ou o bóson de Higgs será encontrado dentro de todo o paradigma atual da física de partículas sem nada mais, ii) ou o bóson de Higgs será encontrado com novas partículas ou iii) nem o bóson de Higgs nem nenhuma nova partícula é encontrada. Se i) saber-se-á a origem da quebra espontânea de simetria, o valor preciso da massa do Higgs e os valores precisos da violação CP no setor dos quarks pesados; ii) relaciona-se com novas forças da natureza, novas simetrias, dimensões espaciais extras ou algo ainda menos esperado; iii) o paradigma da física de partículas perturbativa pode requerer uma revisão profunda que eu prefiro nem especular a respeito, já que algo como o bóson de Higgs ou similar é inevitável dentro da abordagem perturbativa acreditada hoje em dia — e o Daniel vai dar pulinhos de alegria :).

Eu creio que o Woit acredita que i) não seria uma nova era dourada para física de partículas porque representaria apenas confirmação de um modelo já estabelecido. Isso é muito triste, acreditar que a física só progride se caminhar para novos modelos ou unificação das forças ou o que valha. O LHC vai abrir uma nova era dourada da física de partículas sem dúvidas, pois vai exigir melhores cálculos da QCD que podem levar a descobertas de novas simetrias e talvez avanços da lattice QCD. Isso servirá de acúmulo de evidência da validade do modelo que automaticamente permitirá restringir nova física de forma muito importante. Por exemplo, os parâmetros de violação CP serão medidos com maior precisão para os quarks pesados. Estes parâmetros são os mais sensíveis do MP à nova física, e o fato de que o MP aparenta responder por toda violação CP observada anula várias teorias que predizem “muita” violação CP — e também gera um problema teórico: por que a nova física não viola CP? Isso em geral requer adicionar novas simetrias a essas teorias. Além disso, CP combinada com a massa do Higgs são exatamente os números mais importantes para a cosmologia: são eles que determinam a contribuição da física eletrofraca para a assimetria matéria-antimatéria do universo, um problema em aberto e básico da física. O LHC também permitirá estudar o plasma de quarks e gluons que não apenas testará a QCD como também as dualidades entre QCD e teorias conformes, que vem reabrindo espaço para a contribuição da teoria de cordas na descrição do mundo real. Há muito território ainda a ser explorado nos modelos já conhecidos…

Notas

  1. “Haze” tem um duplo significado: no sentido de ser uma nuvem de emissão na galáxia, e no sentido de ter significado ainda confuso para a comunidade astrofísica.
  2. Agradeço ao Daniel por passar-me a informação sobre o post do Woit. 🙂

Novo valor para a massa do top, e a coincidência persiste

terça-feira, 17 mar 2009; \12\America/New_York\America/New_York\k 12 Deixe um comentário

Hoje apareceu no arxiv um artigo do CDF e D0 com o mais recente resultado da medida da massa do top:

m_\text{top} = 173.1 \pm 1.3 \,\text{GeV} \, .

Este resultado é relativamente mais preciso do que se tinha até então, e está jogando a massa do top de volta aos 173 (o valor já foi 160, passou para 170 uns anos atrás e agora se mantém bem em cima do 174). O interessante desse número para massa do top é que o valor do campo do bóson de Higgs no vácuo é v = 246.2\, \text{GeV} (nível árvore), fornecendo um acoplamento do Higgs aos férmions igual a v/\sqrt{2\,{}} =174.1 \,\text{GeV}, que é praticamente idêntico a massa do top.

A massa das partículas no Modelo Padrão é paramétrica a este valor de v : \lambda\, v, onde \lambda é um número adimensional. Para a maioria das partículas \lambda é pequeno, já que a massa de todas é bem menor que 174 GeV. Isso é importante porque acredita-se que a massa das partículas no Modelo Padrão é proveniente de um acoplamento fraco com o Higgs, que permite o uso de teoria de perturbação. Mas a massa do top está perto de desafiar essa idéia, já que ela exige um acoplamento \lambda igual a 1. Isso em si não é um problema técnico porque em detalhes a teoria de perturbação é válida mesmo quando os acoplamentos são \approx O(1) devido a um efeito quântico, sendo que a quantidade mais relevante é na realidade \lambda/(16\, \pi^2) vezes um certo logarítmo, que quase sempre é muito pequeno. Além disso, nós já conhecemos um exemplo de teoria da perturbação para partículas que milagrosamente funciona mesmo sendo uma expansão em um número da ordem de 1 que é a Lagrangiana quiral para píons e nucleons. Mas o valor da massa do top é um pouco não natural porque no Modelo Padrão não há nenhuma boa razão para esse acoplamento ser 1. Há uma coincidência de massa inexplicável ai…

Não sei se correções radiativas melhoram ou pioram a concordância do VEV do Higgs com a massa do top, alguém conhece uma referência?

Ah, e olhando rapidamente estes artigos experimentais não vi que esquema de renormalização eles estão usando para essa massa. Como a massa dos quarks depende do esquema de renormalização, isso deveria estar dito em algum lugar. Eu suponho que seja \overline{MS}.

Nova restrição a massa do Higgs

segunda-feira, 16 mar 2009; \12\America/New_York\America/New_York\k 12 9 comentários

Sexta-feira o Fermilab anunciou que CDF e D0 irão publicar em breve uma nova restrição a massa do bóson de Higgs. A região excluída é a janela 160-180 GeV/c2. Isso sugere que o Higgs, se é que existe, deve ter massa menor que 160 GeV/c2 embora a região entre 180 e 185 não pode ser excluída com muita certeza (mas é pouco provável, já excluída com uma probabilidade de uns 80%). Não há ainda um artigo publicado com o resultado, embora hoje o CDF publicou uma medida das seções de choque de mésons B (que é utilizada na procura do Higgs no Fermilab).

Região de massa permitida ao Higgs, março de 2009.

Região de massa permitida ao Higgs, março de 2009.

PI Summer School 2009

sexta-feira, 13 mar 2009; \11\America/New_York\America/New_York\k 11 Deixe um comentário

Forwarding message:

Dear Colleague,

The registration is now open for the Perimeter Institute Summer School,
*“Exploring the Cosmological Frontiers”*, which will be held June 24 to July 1, 2009. This will be the seventh of an ongoing series of annual summer schools in theoretical physics. This year’s lecturers include: Neta Bahcall, Alessandra Buonanno, Paolo Creminelli, Olivier Dore, Jaume Garriga, Stephen Hawking, Jean-Luc Lehners, Avi Loeb, Leonard Susskind, Neil Turok and Neal Weiner.
Perimeter Institute Summer School 2009: Particle Physics, Cosmology & Strings: June 24 – July 1.

— End.

Nota: no site do PI, vejam os novos “Distinguished Research Chairs”… O que será que o PI está tramando? Dominar o mundo? :O

Aff… não bastava eles terem tomado uns meses do Hawking, fizeram o Turok de diretor!

Velhas e novas evidências da matéria escura, e um pouco do lado negro da força

quinta-feira, 12 mar 2009; \11\America/New_York\America/New_York\k 11 10 comentários

Ilustração da situação do espectro de raios cósmicos. Com o lado negro da força no meio.

Ilustração da situação do espectro de raios cósmicos. Com o lado negro da força no meio.


Ah, terminado esse trimestre, dois seminários de cursos concluídos. Daí pensei em compartilhar com vocês o que eu aprendi para dar um desses seminários: os possíveis novos sinais (de outubro de 2008) da existência da matéria escura que vieram do satélite PAMELA e do balão ATIC. 🙂 Fica ai quem quiser… Primeiro eu falo sobre as velhas evidências, depois sobre as novas.

Coisas velhas

Já estava na hora de falar de matéria escura nesse blog. Essa história começou quando o Zwicky descobriu que a razão massa/luminosidade de galáxias espirais é pelo menos mais de 10 vezes maior que a do Sol. A luminosidade é uma medida da potência irradiada da luz (aquela em Watts), essa se mede diretamente na Terra. E a massa se acha utilizando a lei de Newton da gravidade para deduzir a distribuição de velocidades das estrelas nas galáxias. Mais tarde, Vera Rubin fez várias medidas precisas das velocidades das estrelas em várias galáxias espirais e obteve sistematicamente que a velocidade é mais ou menos constante mesmo longe do centro luminoso da galáxia (onde a maioria das estrelas se encontram). Isso só pode ser explicado no paradigma da gravitação de Newton se há uma distribuição aproximadamente uniforme de massa que se estende para bem além da galáxia visível (chamado halo de matéria escura).

Mas esse efeito não é, de repente, da Relatividade Geral? A resposta é não, por duas razões muito importantes. A primeira é que a velocidade das estrelas nas galáxias é tão pequena em comparação com a da luz que é válida a lei de Newton. E isso é possível ser quantificado com a aproximação pós-Newtoniana da Relatividade Geral, que é confirmada com enorme precisão nas medidas da NASA/CalTech da órbita das sondas espaciais e da Lua no Lunar Ranging Interferometer (saca só este artigo). A segunda é que mesmo a Relatividade Geral em toda a sua glória (resolvida exatamente, sem nenhuma aproximação) exige a matéria escura, por causa do diagrama de Hubble.

Qual é a desse diagrama? Na Relatividade Geral se calcula o valor do parâmetro de Hubble (que não é constante) em função da idade do universo em termos dos constituintes do universo: radiação, matéria massiva e qualquer outra coisa que você quiser colocar. A grande utilidade dessa variável cosmológica é que a dependência dela com a idade é distinta para cada diferente componente. P.ex. a matéria massiva contribui com uma potência (1+z)3 para H2, onde z é o desvio para o vermelho das linhas espectrais (quanto maior z menor é a idade do universo), mas a radiação contribui com (1+z)4, a energia escura contribui com \approx (1+z)^0 (constante) e por ai vai (err.. na verdade tem que fazer uma integral dessa série de potências… mas permita-me simplificar, ok?). Então é fácil saber quanto tem de matéria massiva no universo: medindo o valor de H em função de z utilizando diversos dados astronômicos, basta ajustar uma série de potência aos dados e extrair o coeficiente do termo adequado. Resultado: ~ 30% da densidade de energia do universo é matéria massiva. Mas isso não pode ser bárions ou léptons (prótons, nêutrons / elétron e neutrino), porque a abundância primordial de hélio-4, hélio-3, hidrogênio, deutério, lítio, boro e outros restringe que esse tipo de material só soma 4%-5% no máximo. Portanto, cerca de 25% da densidade de massa do universo é composta de algo desconhecido (a matéria escura).

Coisas novas

Há um modelo astrofísico no mercado que prevê o número de partículas como elétrons, pósitrons, prótons, etc. que devem chegar a Terra — os raios cósmicos — vindo de processos naturais de estrelas na galáxia, a versão mais sofisticada atual é do Igor Moskalenko (Stanford U) e Andrew Strong (Max Planck). Esse modelo faz um bom trabalho em prever quase todo o espectro de raios cósmicos de poucos MeV até 10 TeV (são aqueles que vem da nossa própria galáxia). Isso é visto com nitidez nas Figs. 1 e 2. Mas na Fig. 2 você vê que há uma lombada nos dados que o modelo perde. E na Fig. 3 você vê que o modelo está completamente fora. Qual a explicação para a lombada do ATIC na região de 300 – 800 GeV? E o excesso de pósitrons do PAMELA em comparação com o cálculo astrofísico?

Agora, outro ponto de informação interessante. O satélite INTEGRAL/SPI mediu uma emissão de luz que vem do centro da galáxia que é devida a reação elétron+pósitron->fótons. De onde vem esses pósitrons no centro da galáxia? Os dados do INTEGRAL já excluiram a possibilidade de supernovas. Até o momento os astrofísicos não tem idéia…

Espectro de antiprotons medidos pelo satélite PAMELA (Out 2008). As linhas correspondem a modelos, a sólida a um do tipo Moska&Strong.

Fig. 1. Espectro de antiprotons medidos pelo satélite PAMELA (Out 2008). As linhas correspondem a modelos, a sólida a um do tipo Moska&Strong.

Espectro de elétrons cósmicos na Terra medido pelo balão ATIC (Nature, Out 2008). A curva tracejada é o resultado do cálculo Moska&Strong somado com fontes pontuais astrofísicas de conhecimento do ATIC que estavam ativas no momento das medidas (a contribuição destas é exageradas nas curvas corloridas).

Fig. 2. Espectro de elétrons cósmicos na Terra medido pelo balão ATIC (Nature, Out 2008). A curva tracejada é o resultado do cálculo Moska&Strong somado com fontes pontuais astrofísicas de conhecimento do ATIC que estavam ativas no momento das medidas (a contribuição destas é exageradas nas curvas corloridas).

Medidas precisas do espectro de pósitrons cósmicos do satélite PAMELA. A linha sólida é o cálculo Moska & Strong. Esse gráfico não é tão bom quanto do ATIC porque PAMELA não incluiu (ainda) o fluxo previsto por qualquer fonte pontual temporária (diferente do ATIC).

Fig. 3. Medidas precisas do espectro de pósitrons cósmicos do satélite PAMELA. A linha sólida é o cálculo Moska & Strong. Esse gráfico não é tão bom quanto do ATIC porque PAMELA não incluiu (ainda) o fluxo previsto por qualquer fonte pontual temporária (diferente do ATIC).

A-Ha. Ai há uma janela de descobertas. Enquanto alguns se perguntam que mecanismo de aceleração de partículas carregadas foi esquecido (um pulsar, talvez) no modelo Moska&Strong, outros propõem que os excessos vistos por PAMELA, ATIC e INTEGRAL são da matéria escura. Dentro de um modelo genérico para a matéria escura conhecido por WIMPs (de weakly interacting massive particles, partículas massivas que interagem pela força eletrofraca), é previsto que na galáxia atualmente deve haver aniquilação de WIMPs com anti-WIMPs. WIMPs aparecem muitas vezes em modelos além do Modelo Padrão (que resolvem o chamado problema da hierarquia): dimensões extras, supersimetria (SUSY), Little Higgs, etc. Dentro do modelo de que existem mais dimensões espaciais no universo, mas que são grandes ~ 10-16 cm (i.e. TeV) em comparação com o comprimento de Planck, esses dados podem ser naturalmente explicados. Isso já havia sido mostrado na publicação original do ATIC na Nature, todavia há trabalhos mais detalhados disponíveis. Não tem muito jogo de cintura possível aqui porque a seção de choque de produção dessas partículas é fixada automaticamente pela densidade de matéria, e a escala de massa (embora não o valor exato) é fixada pela massa do bóson W.

O Modelo Padrão Supersimétrico Mínimo (MSSM) não consegue, por si só, explicar os dados do PAMELA. A seção de choque do MSSM fixada pela densidade de matéria escura observada astronomicamente precisa de um fator pelo menos de 30 para explicar o número de pósitrons observados. Dependendo de como você brinca com os parâmetros dos modelos supersimétricos, esse fator pode chegar a 100, 1000… 1010. Mas nem tudo está perdido para supersimetria. Fatores de 100 ou 1000 foram recentemente descobertos como esperados se você introduzir uma nova interação na teoria, que interage fortemente com a matéria escura, mas não com as partículas já conhecidas. Curiosamente, os dados do PAMELA e do ATIC sugerem que essa nova interação tem que ser leve em comparação com a escala TeV, digamos de poucos GeV de massa ou menos. Se essa nova interação escura for devida a uma partícula de massa da ordem de até 100 MeV, ela pode explicar a origem do sinal do INTEGRAL, porque permite um mecanismo no qual há uma pequena diferença de massa entre estados da matéria escura que é da ordem de MeV, e transições entre esses estados estão na região certa de energia para criar pares elétron-pósitrons (o par tem 1 MeV de massa). Com isso se explica tanto o sinal do PAMELA e ATIC, que exige uma partícula de matéria escura pesada > 600 GeV para produzir elétrons/pósitrons nas energias observadas, com o INTEGRAL/SPI que exige matéria escura ~ 1-100 MeV.

E então? Nova física? Novas partículas? Uma nova força que age apenas nas matéria escura portanto, uma força escura? 🙂

Citation Needed

  1. ATIC: J. Chang et al. (ATIC), Nature 456, 362 (2008).
  2. PAMELA: antiprotons, positrons
  3. Nova força escura: N. Weiner et al.; Katz & Sundrum Model para SUSY.

Se você fez uma descoberta, coloque no título.

quarta-feira, 28 jan 2009; \05\America/New_York\America/New_York\k 05 1 comentário

Okay, já estou ficando entristecido com a colaboração CDF. O que aconteceu com a tradição de escrever artigos como o do E. Segré “Observation of antiprotons”? Com mais de 100 artigos no arxiv todos os dias, o CDF realmente espera que quem não faz física de precisão vai ler o conteúdo de um artigo com título Search for High-Mass e+e Resonances in pp̅ Collisions at sqrt[s] =1.96  TeV? 😡

O artigo saiu dia 23, e a principal conclusão, além da óbvia de que nenhum Higgs foi encontrado na busca, é que há um pequeno excesso ao Modelo Padrão na seção de choque para q^2 = - (240\; \text{GeV})^2. É só uma flutuação estatística, no entanto. (Se fosse estatisticamente significativo, será que o título melhoraria? :p)

Atualização: o artigo saiu no arxiv em 2 de outubro, 23 de janeiro na Phys Rev.

Neutrinos: a razão de nós existirmos?

quarta-feira, 14 jan 2009; \03\America/New_York\America/New_York\k 03 8 comentários

Resultado recente do experimento MiniBoone aponta para uma nova fonte de violação da simetria carga-paridade (CP) na Natureza: os neutrinos. Esse novo fenômeno pode ser a explicação de porque o universo é dominado por matéria.

Assimetria matéria-antimatéria

Um dos problemas em aberto da física é explicar porque o universo é dominado por matéria ao invés de ser composto por iguais quantidades de matéria e antimatéria. Sabe-se que este é o caso por observações astronômicas. O argumento mais elementar é que o fluxo de raios cósmicos na Terra é dominado por matéria.  Outro mais elaborado é que se o universo fosse feito 50% de bolhas de matéria e 50% de bolhas de antimatéria, então a interface das bolhas deveria ter produzido uma radiação na época da transição de contato térmico para isolamento das bolhas. Isso contribuiria para a radiação gama difusa das galáxias, como calculado por Yi-Tian Gao, Floyd Stecker, Marcelo Gleiser e David Cline em 1990. Como essa contribuição de radiação gama não é observada, o universo não pode ter quantidades iguais de matéria e antimatéria. Em 1997, Andrew Cohen, Alvaro de Rújula e Sheldon Glashow mostraram que mesmo sem esse sinal da produção de raios gama, bolhas de antimatéria causam uma distorção da radiação cósmica de fundo que está excluída experimentalmente.

É possível extrair um valor exato para a quantidade de excesso de matéria sobre anti-matéria se aceitarmos o (bem-sucedido) modelo da nucleossíntese primordial. Nesse caso, a radiação cósmica de fundo dá o seguinte valor para o excesso do número de bárions sobre antibárions por unidade de densidade de entropia por partícula s:

Y_\text{obs} = (n_\text{B} - n_{\bar{\text{B}}})/s = 8.7(3) \times 10^{-11} \; . (1)

No Modelo Padrão há uma assimetria matéria-antimatéria devida tanto a violação dos números leptônicos e bariônicos causada por um efeito quântico chamado de anomalia, como pela violação CP da força nuclear fraca. Começando com um universo com quantidades iguais de matéria e antimatéria, a assimetria do Modelo Padrão gera automaticamente um excesso de matéria, porém usando os parâmetros obtidos em experimentos feitos na Terra, o excesso é de

Y_\text{MP} \sim 10^{-18}

portanto muito menor que o observado. Explicar o número (1) é o desafio da assimetria matéria-antimatéria.

Oscilação dos neutrinos

Em teorias quânticas de campo como o Modelo Padrão, violações CP podem ser parametrizadas por parâmetros de massa que fazem partículas diferentes interagirem entre si. Nos anos 60, Raymond Davis Jr e John Bahcall mostraram que os neutrinos tinham esse tipo de interação, porque parte dos neutrinos tipo elétron produzidos no Sol desaparecia no caminho até a Terra, provavelmente devido a interação direta de neutrinos tipo elétron com neutrinos tipo múon. Com a confirmação desse efeito de oscilação dos neutrinos, abriu-se uma nova porta para a origem da assimetria matéria-antimatéria.

No Modelo Padrão, os neutrinos podem naturalmente ter massa caso o neutrino seja diferente do antineutrino. No entanto, se o neutrino for igual ao antineutrino — como acontece com o fóton –, a massa só pode vir de uma interação nova. Curiosamente, por pura análise dimensional, se o neutrino for igual ao antineutrino a massa tem que ser bem pequena em comparação com a massa das partículas do Modelo Padrão (efeito conhecido como “massa de gangorra”).

Leptogênesis

No caso muito interessante do neutrino ser sua própria anti-partícula, é possível adicionar interações que violam CP entre os neutrinos. Esse tipo de interação é até previsto genericamente se quisermos unificar a força forte com a eletrofraca, o que também automaticamente requer supersimetria. Dado então esse cenário de grande unificação supersimétrica, as auto-interações dos neutrinos que violam CP propagam a diferença entre as taxas de reações de produção de matéria sobre anti-matéria no universo primordial dos neutrinos até o próton e o nêutron. O valor exato depende dos parâmetros da teoria (quantos novos neutrinos existem, qual a escala de energia exata da grande unificação e da supersimetria, a massa dessas novas partículas, etc.), entretanto com os vínculos experimentais atuais é possível que o número (1) seja obtido! Esse mecanismo de propagação da violação CP dos neutrinos para os bárions com intuito de gerar a assimetria matéria-antimatéria no universo é conhecido como leptogênesis.

MiniBoone

Tudo dito acima é razão da relevância do experimento MiniBoone (e seu sucessor projetado, o Boone), no Fermilab, que mede a oscilação de neutrinos e de anti-neutrinos do elétron. O objetivo do experimento é resolver uma contradição: os dados da oscilação de neutrinos atmosféricos e do SuperKamiokande indicam que a diferença de massa ao quadrado entre neutrinos de sabores diferentes é da ordem de 10-5-10-3 eV2, mas o experimento LSND realizado em Los Alamos obteve \Delta m^2 \sim \;\text{eV}^2. O MiniBoone repete os parâmetros experimentais do LSND, mas é um experimento diferente, com outras fontes de erros sistemáticos.

Em 2007, o MiniBoone refutou o resultado do LSND, não observando nenhuma oscilação de neutrinos com \Delta m^2 \sim \;\text{eV}^2 para um feixe de neutrinos de energias maiores que 475 MeV. Entretanto, a quantidade de neutrinos que o MiniBoone deveria medir para energias abaixo de 475 MeV, que pode ser calculada no Modelo Padrão, não foi observada! Há um excesso para baixas energias (Fig. 1) ainda inexplicado. Em 12 de dezembro de 2008, o MiniBoone publicou (que você leu primeiro aqui no Ars Physica! 🙂 🙂 ) na internet um gráfico preliminar (Fig. 2) para a mesma medida para os antineutrinos, onde há consistência com o Modelo Padrão.

Dados do MiniBoone para neutrinos do elétron.

Fig. 1. Dados do MiniBoone para neutrinos do elétron. Para energias < 0.5 GeV, há um excesso de neutrinos (dados em azul) em relação a previsão do Modelo Padrão (barras pretas sem ponto central). O gráfico mostra a contribuição relativa de cada processo do Modelo Padrão para o número de neutrinos assim como fontes de erros.


Dados MiniBoone para anti-neutrinos.

Fig. 2. Dados preliminares do MiniBoone para antineutrinos. Nesse caso os dados são consistentes com a previsão do Modelo Padrão.

Durante este ano, o MiniBoone espera aumentar em 50% o número de eventos para antineutrinos, o que deve diminuir as barras de incerteza da Fig. 2. Por enquanto, o que se pode dizer é que esse resultado pode ser uma flutuação estatística. Mas se os antineutrinos realmente estiverem de acordo com o Modelo Padrão enquanto os neutrinos não, teremos um possível sinal de violação CP no setor dos neutrinos — i.e. se o excesso do MiniBoone para neutrinos não for um erro sistemático. E isso permitiria extrair os parâmetros da leptogênesis e consequentemente avaliar se os neutrinos são realmente a razão pela qual o universo é dominado por matéria.

Ficaremos na expectativa…

LHC: só na 2ª metade de 2009

sexta-feira, 5 dez 2008; \49\America/New_York\America/New_York\k 49 1 comentário

Em conversa particular com meu amigo Thiago Tomei, que colabora no LHC, ele me disse que mais provável o LHC só irá recomeçar em 2010. Bom, agora é oficial.

Os engenheiros terão que trocar o sistema de pressão de parte dos imãs responsáveis por focar os feixes de prótons no anel principal, a fim de evitar que o mesmo incidente do vazamento de hélio líquido se repita. Isso requer esquentar o LHC e remover 53 imãs. Até o momento apenas 2 imãs já foram reformulados. Foi decidido também que os imãs responsáveis por direcionar o feixe ao longo do anel receberão a mesma atualização (isso é em adição aos 53 focalizadores). Está previsto para maio de 2009 a recolocação do último imã, e para o final junho de 2009 o reinicio dos testes do LHC. Talvez ainda em 2009 o LHC faça sua primeira colisão, mais provável que a 10 TeV de energia no centro de massa — o LHC foi projetado para ter feixes com 14 TeV no centro de massa.

Nesse momento os teóricos estão se sentido no limbo: propor modelos novos testáveis no LHC na eminência dos dados chegarem parece supérfluo, mas esse bendito início fica cada vez mais distante…

Todavia, enquanto o LHC não vem, vamos nos conformado com o ATIC, PAMELA e o GLAST/Fermi 🙂 — me perdoem o CDF e D0.

A física das não-partículas

quarta-feira, 19 nov 2008; \47\America/New_York\America/New_York\k 47 1 comentário

Post de divulgação científica! 🙂 (com leves incursões técnicas). Qualquer dúvida é bem vinda, deixem como comentário.

É uma antiga idéia na física de partículas que a energias suficientemente altas, todas as partículas podem ser tratadas com massa zero, porque a energia E está associada ao momento p (velocidade) da seguinte forma:

E^2 = p^2 + m^2 (em unidades com a velocidade da luz c = 1)

onde m é a massa da partícula. Se E for muito maior que m, dado que m é uma constante que não depende da velocidade, podemos tomar E \approx p.

Teorias de partículas sem massa possuem uma simetria conhecida como simetria de escala. Uma transformação de escala faz todas as coordenadas de espaço e do tempo x serem multiplicadas por um fator \lambda (número real arbitrário),

x \rightarrow \lambda x (1)

Essas teorias automaticamente fornecem uma realização de uma simetria ainda maior, chamada a simetria conforme, que contém a Relatividade Especial como um “pedaço” — as transformações de Lorentz são um subconjunto, no sentido matemático do termo, das transformações conformes que estou falando aqui.

A simetria de escala começou a ganhar importância na física de partículas com o trabalho sobre renormalização nos anos 70. Uma das descobertas mais importantes foi que a forma da simetria válida para teorias clássicas é inválida na mecânica quântica, porém pode ser “recuperada”.

A história é assim: suponha que se escreve uma teoria mais geral que a Relatividade Especial na qual a transformação (1) é uma simetria do espaço-tempo. Então, os campos físicos — para um caso concreto, pense no campo elétrico e magnético — devem ter uma transformação como (1):

\phi(x) \rightarrow \lambda^d \phi(\lambda x) (2)

que mantém as equações da teoria invariante para um certo valor de d. Ao fazer a substituição da Eq. (2), as equações dos campos (p.ex. as eq. de Maxwell) tomam a mesma forma. Pois bem, o valor de d na Eq. (2) que mantém a teoria clássica invariante não mantém a teoria quântica invariante! A simetria é recuperada no sentido de que se deve substituir d por \gamma dado por

\gamma \approx d + \frac{g^2}{16 \pi} (3)

onde g é a carga elétrica (o análogo disso nessa teoria conforme), para que a teoria quântica permaneça invariante. É interessante  que a quantidade d na teoria clássica corresponde a potência de unidades de (energia/\hbar c) de \phi: se a unidade de \phi for (\text{GeV}/\hbar c)^2, então d = 2 (a carga elétrica tem dimensão zero em unidades de \hbar c). O fenômeno descrito pela Eq. (3), que é puramente quântico, é uma espécie de “transmutação” da dimensão física, chamada de dimensão anômala.

O meu objetivo nesse post é falar sobre uma idéia que surgiu no ano passado de explorar a possibilidade do universo ter uma simetria conforme escondida. A idéia é do Howard Georgi, que cunhou o termo “unparticle” (não-partícula) para as interações invariantes de escala.

Se a teoria quântica é invariante pela transformação da Eq. (1), então a simetria correspondente para a energia é

E \rightarrow E/\lambda

logo, se há uma partícula de massa m na teoria, visto que E = mc^2 no referencial de repouso dessa partícula, também tem que existir a partícula de massa m/\lambda. Porém, como \lambda é qualquer número real que se queira, isso significa que há qualquer massa na teoria, ou todos os valores possíveis de massa, ou se preferir: não há partículas, e sim um espectro contínuo de todas as possíveis energias, mesmo no referencial de repouso, agora não mais limitadas pela igualdade E = mc2. Por causa disso, ano passado Georgi cunhou o termo “unparticle” (não-partícula) para descrever a física dessas teorias. Ele propôs estudar a possibildade do universo ter um setor de não-partícula escondido: os campos conformes não foram vistos experimentalmente porque sua interação com as partículas ordinárias é muito fraca. A primeira conseqüência chocante dessa idéia foi uma observação de Georgi sobre o espectro de energia que pode ser visto em laboratório dessas teorias: enquanto para teoria de partículas esse espectro dependerá de 1/E^n onde n é o número de partículas em uma certa reação, para não-partícula o espectro é 1/E^\gamma onde \gamma é a dimensão anômala. Como a dimensão anômala não é um número inteiro, a física de não-partícula é parecida com a de partículas com um número fracionário de partículas! Ao contrário do que se pensaria ingenuamente, os cálculos de teorias conformes não são simplesmente o cálculo das teorias com partículas de massa m fazendo m = 0 no final da conta!

Mais precisamente, o espaço de fase 1/ (2 \pi )^{3} \sqrt{2 E} do momento de uma partícula no estado final de uma reação \alpha \rightarrow \beta que entra na seção de choque ou tempo de vida, é substituído por uma potência arbitrária \biggl( 1/ (2\pi )^{3} \sqrt{2 E}\biggr)^a . O valor de a depende da dimensão anômala do campo conforme.

A física da não-partícula também possui interferências (no sentido da mecânica quântica) com partículas elementares de forma distinta daquela entre partículas. Isso pode ser usado como uma assinatura característica da existência da simetria conforme.

Na reação e^+ e^- \rightarrow \mu^+ \mu^- no Modelo Padrão, a amplitude de espalhamento é predominantemente complexa quando o momento externo q^2 = M^2_Z (no pólo do Z), mas partículas estáveis interferem com aplitudes reais 1/(q^2 - m^2). No entanto, unparticles, mesmo altamente estáveis, tem um propagador com valor imaginário sempre não-nulo e logo interferem com processos eletrofracos mesmo no pólo do Z.

Essa idéia teve diversos desdobramentos. Um dos mais interessantes foi o de que um campo de não-partícula é equivalente a uma teoria com N partículas cada uma de massa m_n = n \Delta (\Delta é alguma escala de massa), no limite em que o número de partículas vai a infinito e \Delta vai a zero. Desse modo foi possível construir esse ano uma teoria de não-partícula começando com uma teoria com gravitação em 5 dimensões usando a correspondência AdS/CFT. Mas esse assunto de AdS/CFT é um post por si só, que eu deixo para algum dos outros blogueiros. 🙂

Até o momento a física de não-partículas não se propõe a resolver nenhum dos problemas teóricos da atualidade, como a natureza da matéria escura ou o problema da hierarquia, servindo apenas de “curiosidade teórica” nas palavras do próprio Georgi 🙂 Todavia, é uma pesquisa interessante por suas características exóticas.

%d blogueiros gostam disto: