Arquivo

Archive for the ‘Ars Physica’ Category

Wikipedia sobre física de partículas

domingo, 14 ago 2011; \32\America/New_York\America/New_York\k 32 2 comentários

Rapidinho. Me falaram que a definição de física de partículas da Wikipedia era muito ruim. E de fato, era assim:

Particle physics is a branch of physics that studies the elementary particle|elementary subatomic constituents of matter and radiation, and their interactions. The field is also called high energy physics, because many elementary particles do not occur under ambient conditions on Earth. They can only be created artificially during high energy collisions with other particles in particle accelerators.

Particle physics has evolved out of its parent field of nuclear physics and is typically still taught in close association with it. Scientific research in this area has produced a long list of particles.

Mas hein? Partículas que só podem ser criadas em aceleradores? Física de partículas é ensinada junto com física nuclear? A pesquisa produz partículas (essa é ótima!)?

Em que mundo essa pessoa vive? Reescrevi:

Particle Physics is a branch of physics that studies the existence and interactions of particles, which are the constituents of what is usually referred as matter or radiation. In our current understanding, particles are excitations of quantum fields and interact following their dynamics. Most of the interest in this area is in fundamental fields, those that cannot be described as a bound state of other fields. The set of fundamental fields and their dynamics are summarized in a model called the Standard Model and, therefore, Particle Physics is largely the study of the Standard Model particle content and its possible extensions.

Eu acho que ficou bem melhor. Vamos ver em quanto tempo algum editor esquentado da Wikipedia vai demorar para reverter. Atualmente está um saco participar da Wikipedia por causa dessas pessoas. 😦

Categorias:Ars Physica

Fórum sobre Mulheres em Física no Encontro de Partículas e Campos

domingo, 14 ago 2011; \32\America/New_York\America/New_York\k 32 2 comentários

O Encontro de Partículas e Campos chegou ao fim, mas ainda tem várias coisas que eu vi e gostaria de compartilhar. Principalmente o que diz respeito aos planos para o futuro da física de altas energias nos EUA e no mundo, o que foi amplamente discutido nesse encontro. Mas antes disso, eu quero falar sobre um assunto que sempre me interessou muito: a sub-representação das mulheres na física. Esse é um problema de verdade e acho que a física só tem a ganhar se conseguirmos resolvê-lo. Além do ambiente de trabalho ficar muito mais bonito (ok, ok… eu sei que esse não é o post adequado para um comentário machista. Mas não deixa de ser verdade! :))

Se minha memória não me falha eu já escrevi sobre isso aqui no blog. Nesse encontro houve um fórum para discussão desse assunto onde várias questões sobre as quais eu nunca tinha parado para pensar foram levantadas. Eu acho que não importa muito quem estava no painel, basta dizer que havia físicas em início e meio de carreira, bem como experimentais e teóricas.

A primeira discussão levantada foi o problema de se constituir família enquanto se trabalha com física, chamado (em forma de piada) de “two-body problem”. Várias mulheres presentes deram a entender que esse era um problema pior para a mulher do que para o homem. Isso é falso, obviamente, mas precisou de alguma discussão para que se chegasse a essa conclusão. Ouvimos alguns relatos inclusive de maridos que abandonaram sua carreira para permitir que suas esposas pudessem exercer uma carreira científica. Isso não é mais incomum hoje e minha impressão é que esse primeiro tópico discutido era muito mais fruto do egoísmo individual do que o fato de ser mulher ou homem.

Um segundo assunto que foi amplamente discutido foi o momento ideal da carreira de se ter filhos, se é que isso existe. A discussão se concentrou na questão do que era menos pior: ter filhos durante o pós-doc ou durante o início da docência (por exemplo, durante um tenure-track como existe aqui nos EUA). Eu achei muito curioso como as opiniões divergiram e, no fim, a conclusão mais interessante foi que esse problema é muito pior em física teórica do que experimental. Ouvimos vários relatos de mulheres que foram mães durantes seus pós-docs e cujos companheiros de experimentos continuaram o trabalho durante sua ausência para maternidade e facilitaram sua volta depois do tempo devido e necessário. As físicas teóricas presentes relataram que isso é impossível no seu campo e que a ausência de artigos no período de maternidade ainda é visto com muito preconceito. É um absurdo que ainda exista esse tipo de comportamento.

O aspecto colaborativo da física experimental de altas energias foi repetidamente citado como positivo para mulheres. Várias vezes foi sugerido que as alunas e pós-docs sempre procurassem mentores dentro da sua instituição que pudesse garantir o tipo de suporte que descrevi no parágrafo acima, se necessário. Eu acho isso positivo, claro. O que eu achei curioso é que o a sub-representação feminina em algumas sub-áreas da física de altas de energias, como teoria, não é visto como um problema que merece atenção separada e muitos chegaram a citar as evidências apenas como anedóticas.

Eu não achei nenhuma estatística específica sobre isso e estou muito motivado a fazer um estudo sobre isso nos próximos meses. Mas a impressão das pessoas presentes é que as áreas de física teórica de altas energias e de instrumentação em altas energias ainda são muito hostis com as mulheres. Eu acho que deveria haver um programa específico para reverter essa situação, mas eu vou adiar a discussão até ter números que tornem meu argumento mais sólido. Por enquanto, vocês vão ter que acreditar na minha experiência.

Um tópico que não poderia faltar são as medidas afirmativas. Houve algumas críticas ao fato que esses programas são interrompidos quando eles começam a funcionar. Parece haver uma impressão das agências que financiam essas medidas de que, se uma universidade está numa posição um pouco melhor que as demais, mesmo que ainda longe do ideal, o foco deve ser voltado para aquelas em pior situação. Ouvimos, inclusive, sobre alguns casos em que isso significou um retrocesso para o esforço de tornar a área mais receptiva a mulheres.

Várias propostas específicas de medidas afirmativas foram discutidas, embora na maioria delas o painel tenha cometido a mesma falácia de não acreditar que o problema existe igualmente para os homens quanto para mulheres. Por exemplo, foi sugerido que o longo tempo entre a graduação e o primeiro emprego é pior para mulheres do que para homens. Isso é absurdo! Isso é um problemas para os dois e tem que ser atacado sem discriminação sexual. Também foi sugerido que buscas por docentes sem restrições de áreas tornaria o número entre homens e mulheres mais saudável. Isso é outra mentira, já que um dos frutos do preconceito é que há concentração de mulheres em algumas poucas áreas da física.

Mas também houve boas idéias postas na mesa. Reafirmou-se a necessidade de evitar o famoso chilly climate, sugeriu-se que as instituições de ensino criassem um curso de formação específico para os TAs e docentes homens sobre como tratar as alunas e colegas sem preconceito e, o que eu acho a melhor dentre todas as idéias, que as mulheres físicas sempre façam um trabalho de extensão de ir a colégios de educação básica falar sobre suas profissões.

Há um consenso de que grande parte do problema é apenas de pipeline. Menos alunas interessadas em física quando jovens, no futuro, 20 anos depois, resulta em menos mulheres como docentes nas universidade. Isso quer dizer que uma primeira educação científica mais ampla e o contato cedo com profissionais mulheres na área científica pode reverter grande parte do aspecto social imbuído nesse desequilíbrio. Algumas pessoas disseram que a menor desigualdade que existe em outros países, e citou-se em particular a Itália, é justamente devido a esse tipo de atitude diferente.

Eu gostaria muito que o fórum tivesse sido mais longo. As discussões estavam instigantes e as sugestões enriquecedoras. Eu realmente estou interessado em desenvolver essa pesquisa sobre a distribuição das mulheres em física de altas energias por sub-área. Estou pensando em fazer a divisão: theoretical theory, phenomenological theory, analist experimental, instrumentation (hardware) experimental.

Falando nisso, num próximo post eu também quero discutir os esforços que estão sendo feitos nesse país para se criar essa nova divisão da física de altas energias: instrumentação. Foi outro fórum muito interessante, mas agora eu tenho que pegar o trêm de volta para casa.

Categorias:Ars Physica

Uma visão da DPF2011…

sábado, 13 ago 2011; \32\America/New_York\America/New_York\k 32 Deixe um comentário

Erwin Schrödinger: vivo ou morto…

quinta-feira, 11 ago 2011; \32\America/New_York\America/New_York\k 32 3 comentários

No dia 12 de Agosto de 1887 nascia o bebê Erwin Schrödingerironicamente, até o momento do nascimento, a mãe dele não sabia se ela estava grávida ou não. 😈

[N.B.: Pra quem achou a piadinha acima infâme… tem uma melhor ainda hoje: Nova animação da Pixar: Start UP, a história de um velhinho que queria levantar sua empresa com bolhas da internet. tá-dá-tush… :mrgreen:]

Twitter em sala de aula

quinta-feira, 11 ago 2011; \32\America/New_York\America/New_York\k 32 Deixe um comentário

Se você leu o meu último post, você está sabendo que tivemos um fórum de discussão sobre o uso de redes sociais no ensino e divulgação de física durante o Encontro de Partículas e Campos que está acontecendo essa semana. Como eu também já relatei por aqui, por uma questão de falta de foco, o fórum foi bem decepcionante. Contudo, houve uma breve discussão que gostaria de continuar aqui no blog, se os leitores de interessarem.

Chip Brock, um usuário esporádico do twitter (@chipbrock), além de distinguished professor da Universidade do Estado de Michigan relatou uma experiência, que já parece relativamente popular em outras áreas, de usar o twitter para que os alunos façam perguntas durante a aula.

A idéia é simples: um tweet feed fica sendo atualizado e exibido continuamente durante a aula. Com isso, os alunos podem fazer perguntas usando seus smartphones ou computadores sem ter que interromper a aula, o que sempre é uma barreira para os alunos mais envergonhados. Por outro lado, imagino, deve ser mais uma fonte de distração para os alunos e para o professor.

E você, caro leitor, o que acha dessa idéia? Você usaria nas suas aulas se fosse tecnologicamente possível na sua escola/universidade?

Categorias:Ars Physica

O encontro de Partículas e Campos, até agora.

quarta-feira, 10 ago 2011; \32\America/New_York\America/New_York\k 32 5 comentários

Como o Daniel disse no último post, essa semana está acontecendo o encontro de partículas e campos da APS, que é o maior encontro da nossa área nos EUA.

Nesse tipo de encontro não dá para ver tudo que está sendo apresentado, porque existem muitas sessões que acontecem em paralelo e a gente termina tenho que fazer escolhas. Mas antes de começar, deixa eu mostrar algumas fotos.

Esse é o poster que o Daniel está apresentando:

E esse sou eu que vos escrevo apresentando meu trabalho:

Se você quiser ver os slides que eu apresentei, pode baixar aqui.

Agora que a parte fofoca já está feita, deixa eu fazer um breve resumo das coisas interessantes que vi até agora.

Na segunda-feira, Michael Schmitt começou fazendo uma revisão sobre a teoria eletrofraca com uma discussão interessante dos novos projetos para medir as massas e constantes de acoplamento dessa teoria. Depois dele, Konstantin Matchev, que era suposto de dar uma palestra sobre teoria de física além do modelo padrão, resolveu fazer algo diferente e falou sobre a dinâmica pós-LHC entre teóricos e experimentais. Ele tentou argumentar que físicos experimentais não devem dar resultados para modelos específicos, mas simplesmente medir certas quantidades e ponto. Algo bonito de se falar, mas impossível de se fazer nas procuras mais difíceis. George Redlinger deu a palestra seguinte sobre o lado experimental da física além do modelo padrão. O Tevatron continua tendo os sinais provocantes: a assimetria de múons de mesmo sinal e a assimetria na produção de tops. No LHC, apenas decepções até o momento na procura por nova física.

Essas foram as plenárias do primeiro dia. Por um motivo profissional, eu assisti a sessão paralela de eletrofraca. O Daniel pode falar melhor de outras sessões que ele assistiu. As paralelas de eletrofraca começaram com outra revisão mas que dessa vez focou mais no papel das PDF para medidas de precisão e num projeto de um conjunto de distribuições determinado apenas por aceleradores, ie, eventos em algo Q^2. Daí seguiram uma série de talks sobre medidas da seção de choque diferencial normalizada da produção de W e Z no Atlas, no CMS, no LHCb e no D0 (essa última apresentada por mim). Algumas dessas distribuições, como por exemplo em função da rapidez, podem ser usadas para determinação de PDF. A distribuição em função de \phi^{\star}_{\eta} medida pelo D0 pode ser usada para validar modelos não-perturbativos. Acho que vale ressaltar o esperto uso dessa nova variável pelo D0 (cuja definição você pode ver nos meus slides, acima) e o uso do HF do CMS para estender a aceitação a valores bem altos de pseudo-rapidez. Claro que a resolução não é tão boa, mas eles conseguem acessar valor de Bjorken-x que, de outra forma, apenas o LHCb conseguiria.

Tanto o CDF quanto o D0 (na minha apresentação) também apresentaram sua medidas mais recentes do \sin^2\theta_W. Esse ângulo, chamado ângulo fraco, é o ângulo de mistura entre o bóson Z e o fóton. O CDF apresentou um método de unfolding bem diferente, mas o resultado, apesar de muito interessante, não é mais preciso do que a medida do D0, que usou a derivada da assimetria no decaimento do Z em torno do seu polo de massa. Eu também apresentei nossa medida do acoplamento entre quarks u e d e o bóson Z, que é a mais precisa já feita.

Tanto o CMS quanto o Atlas apresentaram medidas da seção de choque da produção de W e Z com jatos. Na verdade, ambas mediram razões entre os valores com diferente multiplicidade de jatos, já que assim algumas incertezas cancelam. É muito impressionante a quantidade de jatos que se consegue observar nesses experimentos. Essas são típicas medidas em que complicadas contas com loops (ie, com efeitos quânticos) são necessárias para explicar o que se está observando.

Durante o almoço temos panéis de discussão. No primeiro dia o tema foi o uso de redes sociais para ensino e divulgação de física. Como vocês podem imaginar, dado o meu histórico, eu tinha bastante interesse na discussão. Estavam presentes Adrian Cho, editor da sessão de divulgação científica da revista Science; Lisa Van Pay, que trabalha como representante de imprensa para NSF (o equivalente do CNPq por aqui); Chip Brock, que já foi coordenador da DPF/APS e Ken Bloom, que é um dos editores do blog USLHC que recentemente foi fundido ao Quantum Diaries. O Gordon Watts, do blog Life as a Physicist, era também para estar presente mas não pode comparecer. O resultado da discussão, contudo, foi bem decepcionante. Os panelistas e o público presente focaram mais na questão de como convencer a população que o dinheiro investido em física é bem aplicado (o que até pode ser feito em redes sociais, é verdade) do que no uso de redes sociais para divulgação, ensino e orientação de física. Uma pena.

O painel de hoje sobre o Projeto X foi bem mais interessante. Discutimos tantos os aspectos políticos e financeiros quanto físicos dos próximos projetos de física de altas energias nos EUA. Diversos experimentos com feixes de neutrino, múons e káons estão sendo construídos para fazer medida de precisão e assim acessar escalas até mesmo fora do alcance do LHC.

Por motivos profissionais, eu não pude assistir as sessões plenárias de hoje, mas assisti as sessões paralelas de eletrofraca e P&D de detectores de partículas. A sessão de física eletrofraca começou com a apresentação de um novo cálculo da amplitude de produção de W e Z associados com um jato em NLO (que neste caso caso corresponde a dois loops). A conta foi feita usando o grupo de renormalização para resomar glúons de baixa energia perto do limiar de produção e descreve bem a região de alto momento transverso do bóson vetorial.

Tivemos então mais apresentações de medidas de seções de choque diferenciais normalizadas de W e Z e a apresentação de uma antiga medida da massa do W no D0 (a próxima está quase saindo, juro ;)). A sessão de P&D de detectores começou com uma revisão dos esforços da colaboração CALICE para o desenvolvimento de calorímetros otimizados para medidas que usam a técnica de fluxo de partículas, sobre os quais eu já falei aqui no blog, e foi seguida de várias palestra interessantes sobre calibração do calorímetro eletromagnético do CMS e das câmaras de múons do Atlas. Eu acho que o destaque ficou para a boa apresentação sobre o detector de radiação de transição do Atlas que se mostrou melhor do que imaginado para discriminação entre elétrons e píons, sem degradar a resolução com que se mede essas partículas nos calorímetros. Esse detector separa elétrons e píons observando a amplitude e o tempo do sinal nos vários tubos pelos quais a partícula passa.

Infelizmente as sessões não estão sendo gravadas. Mas, se você quiser ver os slides de todas essas apresentações sobre as quais falei e todas as outras que não assisti, você pode seguir esse link para o Indico

Ainda temos mais três dias. Conto quando voltar para casa.

Categorias:Ars Physica

Conferência da Divisão de Partículas e Campos de APS…

segunda-feira, 8 ago 2011; \32\America/New_York\America/New_York\k 32 Deixe um comentário

Hoje (segunda-feira, 08-Ago-2011) começa a edição de 2011 da Conferência da Divisão de Partículas e Campos da American Physical Society.

O programa da Conferência pode ser encontrado no link de ‘Schedule’ da mesma.

Mais ainda, os “proceedings” da Conferência serão publicados através do eConf.

Há também uma página para a Conferência no Indico do CERN, DPF2011 @ Indico/CERN. (A razão pra essa duplicação de esforços está fora da minha alçada (coisas da dicotomia de se passar o tempo dividido entre duas insituições) — quando me chamaram pra ajudar na organização da DPF2011 esse tipo de decisão já havia sido tomada. :razz:)

De qualquer maneira, essa página no Indico contém links para os Resumos das palestras e posteres, índice dos autores e palestrantes. Em particular, nestas listagens e índices é possível se encontrar os PDF que já foram carregados para o servidor.

Eu e o Rafael estamos atendendo a DPF2011. Então, vcs podem esperar por twittadas, fotos, posts, etc, etc, etc… provavelmente não no estilo “cobertura ao vivo”, uma vez que tudo vai ser meio corrido, mas fica aí aberto o canal pra quem quiser fazer perguntas ou participar de alguma outra maneira. 😉

arXiv faz 20 anos!

segunda-feira, 25 jul 2011; \30\America/New_York\America/New_York\k 30 1 comentário

Acabei de ver no blog Reference Frame que o site arXiv está fazendo 20 anos. Para quem não conhece, o arXiv (pronuncia-se como a palavra inglesa archive) é um servidor de pre-prints. Isso quer dizer que as pessoas colocam seus artigos nesse site, mesmo antes deles serem publicados em revistas indexadas. O acesso é completamente gratuito e é, já há muito anos, a principal fonte de referências para várias áreas da física.

O arXiv foi criado por Paul Ginsparg e originalmente era direcionado à física de altas energias, mas hoje é muito mais amplo. O arXiv revolucionou a forma de divulgar ciência e eu sou um grande fã dessa iniciativa ao ponto de não entender como algo similar pode não existir em outras áreas do conhecimento1. Eu não sou o único que reconhece o valor do arXiv: em 2002, o Paul Ginsparg ganhou uma MacArthur Fellowship (conhecida por aqui como “a bolsa dos gênios”) por ter tido a idéia de um servidor de pre-prints e implementado-a com sucesso.

1NB: Quando eu digo isso, algumas pessoas rebatem dizendo que existem. Contudo, muitas vezes citam servidores que apenas tem referências, como o PubMed. O arXiv não é apenas um catálogo de referências! Ele armazena os artigos completos.

O arXiv hoje já conta com quase 700 mil artigos em suas fitas e não dá nenhum sinal de desaceleração, como o gráfico abaixo mostra. O crescimento é linear por mais de 20 anos!

Ao longo dos anos, para atender a pedidos dos usuários, o arXiv aumentou a quantidade de áreas classificadas em seu sistema, bem como dividiu algumas classificações em sub-áreas. O gráfico abaixo mostra a taxa de envio de artigos por área:

Interpretar esse gráfico tem que ser feito com cuidado. Por exemplo, vê-se que desde o início da década de 2000, o número de artigos enviados em física de altas energias (hep, barras azuis) estabilizou. Como não ouve nenhuma divisão nessa área, é correto interpretar isso como uma adoção do arXiv por 100% da comunidade!

O número de artigos enviados e classificados como matéria condensada (cond-mat, barras verdes), por outro lado, sofreu uma desaceleração, mas não porque o campo de pesquisa está em baixa, muito pelo contrário! O que aconteceu é que várias áreas correlatas que não tinham classificação independente agora têm, como, por exemplo, biologia quantitativa e redes complexas. Veja também que tanto matéria condensada quanto astrofísica (barras vermelhas) passaram física de altas energias em número de artigos enviados, refletindo o tamanho relativo dessas comunidades. Também é possível perceber como cada vez mais a comunidade de matemática (barras magentas) tem adotado o arXiv e por isso também vem aparencendo novas sub-áreas no arXiv para facilitar a navegação.

O arXiv conta hoje com 14 servidores espelhos ao redor do mundo, inclusive um no Brasil, mantido e operado pela Sociedade Brasileira de Física e pelo Instituto de Física da USP. O crescimento sem freio do arXiv e a importância cada vez maior no trabalho de cientistas faz com que eu tenha certeza que esse é só o início da história.

Referências: Quase todas as informações que divulguei aqui podem ser encontradas ou no próprio site do arXiv (esse link aponta especificamente para onde obtive as informações) ou na Wikipedia.

Material extra que vale a pena: O Paul Ginsparg publicou suas próprias impressões sobre os primeiros 20 anos do arXiv na revista Nature. Vale a pena dar uma olhada.

Categorias:Ars Physica

E o Higgs, hein?

sexta-feira, 22 jul 2011; \29\America/New_York\America/New_York\k 29 2 comentários

Hoje os quatro grandes experimentos apresentaram seus resultados de procuras pelo Higgs na EPS-HEP. A maioria dos resultados são gráficos de exclusão. Então, para os apressados, um resumo com o que cada experimento procurou e não achou (95% CLs):

Agora, com um pouquinho mais de detalhes.

Atlas

Esse é o gráfico mais interessante apresentado, apesar de não ter sido o experimento que mais excluiu. Na região entre [100,200]\, GeV o Atlas exclui a região entre [155, 190]\, GeV a 95%CL usando o método de CLs. Eu acho que eles pararam de bater o pé pelo método de PCL. Apesar da palestra ter sido dada pelo Cranmer, que é um dos pais dessa idéia, só tem um slide no backup usando PCL. Na minha opinião é uma pena, já que o argumento estatístico de PCL é mais sólido e claro. Mas também concordo que o melhor, mesmo que o método de CLs seja confuso, é que todos os experimentos usem o mesmo tipo de análise estatística.

O gráfico é interessante porque o Atlas excluiu muito menos do que os cálculos mostravam que eles seriam capazes de excluir, na hipótese de que o Higgs não existe. Você pode entender facilmente a causa observando no gráfico que eles observaram mais sinal do que 2\sigma do background numa ampla faixa entre [130, 155]\, GeV. O canal com maior peso na exclusão, em qualquer um dos 4 experimentos, é o H\rightarrow W^+W^-. Por isso que a exclusão mais forte é em torno de 2M_W, justamente onde a seção de choque desse processo estaria no centro da ressonância. E é justamente nesse processo que esse excesso é observado.

Outros dois canais importantes, H\rightarrow ZZ e H\rightarrow \gamma\gamma, terminam modulando um pouco o excesso. O gráfico abaixo mostra o valor-p para cada hipótese de massa (NB: Tem um comentário estranho no slide sobre uma modificação da estatística teste para valores negativos. Mas como é apenas uma pequena nota, eu não entendi muito bem o que fizeram, de forma que apenas confio no que eles calcularam para flutuações positivas. E, vai, é o que importa certo?)

Tem dois pontos estranhos. Tem um evento em 140\, GeV no canal pp\rightarrow H\rightarrow ZZ\rightarrow 4\ell que concorda exatamente com a evidência que um Higgs do Modelo Padrão deveria ter nessa massa. Mas acho que ninguém vai abrir a champagne com 1 evento. Há também um excesso estranho em torno de 125\, GeV no canal pp\rightarrow H\rightarrow \gamma\gamma. Mas nesse caso, a evidência seria maior do que inclusive o esperado pelo Modelo Padrão, então isso tem que ser tomado com toda desconfiança. Veja que próximo a ele tem uma região com falta de eventos… isso para mim tem cara de que eles não entendem bem a resolução do calorímetro deles. Mas, claro, isso é apenas um chute desconfiado.

O canal ZZ também é o principal para procuras em massas além de 200\, GeV e o Atlas observa uma excesso em 250\, GeV com valor-p de 0.08 (mas, por favor, vamos todos aqui ser bons leitores do livro do Jaynes e nos lembramos de como não interpretar erradamente o que o valor-p significa, ok?), tal como é esperado para um Higgs do Modelo Padrão com essa massa. Foram aproximadamente 3 eventos acima do background que geraram essa distribuição:

Agora vamos ver os menos interessantes.

CMS

(Edit (07/22/11 – 19:00 EDT): Os slides estão disponíveis, finalmente! Comentários em breve.)

Não sei se o leak de duas semanas atrás traumatizou essa colaboração, mas até agora, mesmo já tendo passadas horas e horas da apresentação, nem os slides nem o artigo estão disponíveis ao público. Eu não entendo o que está acontecendo e é um pouco decepcionante. A única coisa que eles divulgaram foi uma pequena nota na página deles com esse gráfico de exclusão:

Esse é o gráfico com maior exclusão e notem que o mesmo excesso é observado, embora eles não dêem maiores informações. O artigo dos canais ZZ e \gamma\gamma pode ser encontrados aqui:

Search for a Standard Model Higgs boson produced in the decay channel 4l

e aqui:

Search for a Higgs boson decaying into two photons in the CMS detector

Mas nenhuma estrutura salta aos olhos.

Tevatron (CDF e D0)

É provável que a combinação entre os dois experimentos D0 e CDF já esteja feita, mas eles apresentaram seus resultados separadamente.

Apesar do acréscimo de dados fazer a curva se aproximar da seção de choque do modelo padrão, é óbvio que os experimentos estão no limite da sua capacidade. As procuras no CDF e no D0 ainda tem uma pequena vantagem em hipóteses de massa muito pequenas, próximas à exclusão do LEP. Mas isso será por pouco tempo. Eu deixo para o leitor interpretar, mas não é difícil concluir que o Tevatron a partir de agora terá muito pouco ou quase nada a dizer sobre o Higgs.

Categorias:Ars Physica

Ética e blogs, parte 2

quinta-feira, 14 jul 2011; \28\America/New_York\America/New_York\k 28 Deixe um comentário

As discussões a respeito da divulgação de informações sobre resultados experimentais e blogs na internet tem ficado cada vez mais quentes. Na ocasião em que ocorreu aquele vazamento da nota interna do Atlas, eu fiz um post falando sobre como é ruim trabalhar com pessoas com essa postura:

Ética profissional em física

Eu continuo achando que não ter a liberdade de pensar e trocar idéias com seus colaboradores em particular, sem ter os olhos críticos do resto do mundo sobre você é essencial. E, em projetos de escala mundial como as colaborações do CERN, a internet é o meio natural através do qual se comunicar. Logo, é essencial que haja mecanismos de se trocar informações internamente. Esses mecanismos existem e são triviais. Eles se baseiam em redes de confiança. Você coloca uma senha na página de acesso aos documentos e só confidencia a senha às pessoas com quem você quer trocar informação. O servidor de documentos do CERN tem essa função trivial, inclusive já separando os usuários por categorias que determinam o nível de acesso que você vai ter.

Dada que essa é a regra do jogo, você, autor do documento, é o responsável por delimitar sua rede de confiança. Se você não a delimita, significa que você está divulgando informação publicamente. Essa é a regra e é assim que vem sendo jogada há muito tempo. E eis que houve esse caso do limite de exclusão do Higgs pelo CMS com 0.9\, fb^{-1} de luminosidade integrada. O fato de você não querer mostrar seus dados ao público antes de fazer a análise como o cuidado que eles merecem, não significa que os olhos públicos não estarão em cima de você. Principalmente em experimentos de grande visibilidade pública, como é o caso desses grandes laboratórios.

Eu acho que vale a pena explicar um pouco melhor o que aconteceu então. No Fermilab, existe esse centro avançado do CMS e várias outras atividades relacionadas ao LHC. Em particular, existe esse LHC Physics Center, ou LPC. Na página do LPC você pode ver que há seminários regulares sobre assuntos relacionados ao LHC e, no último dia 8, teve o seguinte seminário (clique para aumentar):

Os slides da apresentação do Andrey Korytov (clique aqui para uma versão em HTML do cache do Google) que, como vocês podem ver na imagem acima não é nenhum iniciantes inexperiente no campo, foram deixados, por engano, públicos. Sim, foi um engano, eles deveriam ter sido mantidos privados até a EPS-HEP. Mas aconteceu e imediatamente o blog viXra obteve o PDF com os slides e redivulgou a informação. Eu vi o gráfico e coloquei aqui no Ars Physica.

Como o nosso blog é em português e a meu post era de segunda mão, ninguém deu muita bola. Mas o post no viXra log teve muita repercussão e ainda está tendo, como vocês podem ver nos comentários do post que linkei na meu post anterior. Aparentemente, um email foi distribuido internamente na colaboração avisando a todos os membros o que ocorreu e esse email foi posteriormente copiado na área de comentários do blog, de onde reproduzo:

Dear friends,

we have been informed sunday night that our internal, undigested Higgs limit plot appeared in blogs.

After some investigations we concluded that the source was very likely a seminar held on Friday July 8 at Fermilab. The Seminar was supposed to be internal to CMS and not approved material was shown there as it is normal in these cases. Instructions had been given to protect the material of the seminar but, for reasons yet to be established, the slides were not protected. The organizers take full responsibility and apologize profoundly. We would therefore close the incident here.

We will take every step possible to ensure this does not happen again. The really important lesson here is that we must continue to be vigilant on these matters. We’ll try to use this unfortunate incident to put in place additional preventive actions to protect internal material all over CMS. We remind everybody that Indico pages for talks where internal material is even only occasionally shown should be protected by default.

Now back to the preparatory work for EPS/LP
Best regards

Guido and Teresa

Primeiro, como assim very likely? Que bobagem, foi de lá e ponto. Nunca foi escondido pelo autor do blog. Mas tudo bem, eu achei a mensagem de alerta positiva. Agora, o que foi muito negativo, foram algumas respostas no blog:

E esse comentário veio de um IP do CERN! Para mim, isso denigre tanto a imagem do laboratório quanto as pessoas que vazam informação. Nesse caso foi um erro honesto. Viva com isso! Agora, sair xingando num blog? (Como vocês podem imaginar, os ****** eram palavrões que foram moderados posteriormente)

Eu não quero trabalhar com alguém que não respeita a privacidade do trabalho, mas tampouco quero trabalhar com alguém que dá esse tipo de xilique. O autor do blog disse que reportou o IP ao laboratório, pois há várias mensagens com esse mesmo tom nos comentários. É realmente triste que esse tipo de resposta de uma pessoa do CERN (e, convenhamos, provavelmente alguém do CMS) seja aceita pelo laboratório e pela colaboração.

Categorias:Ars Physica

CDF observa decaimento de Bs para dois múons.

quinta-feira, 14 jul 2011; \28\America/New_York\America/New_York\k 28 1 comentário

Outro artigo muito interessante que apareceu no arXiv essa semana foi esse aqui:

Search for B^0_s\rightarrow \mu^+\mu^- and B^0\rightarrow \mu^+\mu^- Decays with CDF II (arXiv:1107.2304)

onde o CDF afirma ter observado o decaimento B^0_s\rightarrow \mu^+\mu^-. Deixa eu contar um pouco da história. Esses decaimentos são super raros porque no modelo padrão não tem corrente neutra (o estado final tem carga elétrica total 0) com violação de sabor (os quarks que compõem o B_s^0 e o B_d^0 tem sabores diferentes). Isso quer dizer que esse decaimento só ocorre por efeitos quânticos e através da matriz CKM. O resultado é que branching ratio termina sendo minúsculo, na ordem de 10^{-9} para o B_s^0 e 10^{-10} para o B_d^0:


Processos que geram o decaimento observado. Copiado do blog Résonaances, que também falou sobre o artigo.

Bem, se lembra que eu disse que pessoal do Tevatron tinha que ser rápido? Então, isso é o CDF sendo rápido. Pois essa é uma daquelas reações para a qual o LHCb, um dos detectores do LHC, foi construído para estudar. E eles vão fazer muitos e muitos artigos sobre ela, sem dúvida. Mas o CDF analisou 7\, fb^{-1} de dados, muito mais do que o LHCb tem agora, e eles têm um bom sistema de tracking que é capaz de fazer identificação de partículas através de ionização por unidade de comprimento dE/dx. Além disso, eles usaram uma rede neural para avaliar os pesos de todas as variáveis que discriminam sinal de background para melhorar a observação.

O resultado pode ser visto na figura abaixo (copiada do artigo):

As duas primeiras linhas são relativas ao B_s^0 e você vê que para valores altos do discriminante da rede neural, o terceiro e quarto gráficos da esquerda para direita na primeira linha, onde é esperado sinal, eles conseguem observar! Também vale notar que no segundo gráfico, onde não é esperado sinal nenhum, eles também observam. 😛 (na terceira linha, para o B_d^0 não se observa nenhum sinal, mas isso é o esperado nesse caso).

O valor-p da observação é relativamente alto (0.66%) e eles mesmo admitem no artigo que é uma observação delicada e fraca. Contudo, eles puseram, pela primeira vez, um limite inferior na fração de decaimento do B_s\rightarrow \mu^+\mu^-: {\mathcal B}_{CDF}(B_s^0\rightarrow \mu^+\mu^-)=1.8^{+1.1}_{-0.9}\times 10^{-8} o que é muito maior que o previsto no modelo padrão: {\mathcal B}_{SM}(B_s^0\rightarrow \mu^+\mu^-)=(3.2\pm 0.2)\times 10^{-9}. Vários modelos além do Modelo Padrão preveêm um aumento nessa fração e essa pode ser mais uma indicação vinda do CDF de que algo estranho está acontecendo.

O D0 provavelmente não consegue fazer essa medida, mas em breve o LHCb deve divulgar fortes opiniões sobre o assunto.

Categorias:Ars Physica

Regras de Feynman para AdS/CFT?

quinta-feira, 14 jul 2011; \28\America/New_York\America/New_York\k 28 Deixe um comentário

Essa semana apareceram dois artigos muito interessantes no arXiv sobre o cálculo de amplitudes de espalhamento usando AdS/CFT. A idéia de usar a dualidade para calcular amplitudes vem desde os artigos originais, mas não é simples. Uma discussão didática pode ser encontrada na revisão (artigo antigo, mas ainda bom. Eu fico impressionado como o tempo passa rápido, essa revisão já tem mais de 12 anos!):

Large N Field Theories, String Theory and Gravity (hep-th/9905111)

O interessante da idéia é que se torna possível calcular amplitudes de espalhamento no limite de interação forte, algo que não é possível com diagramas de Feynman usuais. Contudo, a aplicação é bem limitada, pelo menos em física de partículas, já que nenhum de nossos modelos de interações fundamentais é conforme e o grau do grupo de gauge N é sempre pequeno. O valor de N tem ser grande para a dualidade valer no limite em que a teoria de cordas em AdS_5\times S^5 pode ser aproximada pelo limite clássico de supergravidade.

Quando isso vale, a função geradora da teoria de CFT é aproximada pela parte clássica da função geradora da supergravidade, isto é, aquela gerada por diagramas em nível árvore. Os campos na fronteira de AdS_5 são então as fontes de campos na CFT (se acoplando aos operadores aos quais eles são “duais”) e as interações no interior, o chamado bulk, podem ser lidas expandindo a ação de supergravidade em torno desse espaço. Esses diagramas ficaram conhecidos como diagramas de Witten, por terem sido originalmente propostos aqui:

ANTI DE SITTER SPACE AND HOLOGRAPHY (hep-th/9802150)

O fato das funções de Green terem que ser calculadas em AdS_5 torna as coisas mais complicadas que no caso de espaço plano. Isso sem contar que, como é sempre o caso em problemas de Dirichlet, para calcular o valor do campo você precisa saber tanto o propagador entre pontos no interior quanto propagadores entre um ponto na fronteira e outro no interior.

Em espaço plano, quando se calcula diagramas de Feynman, faz-se a conta no espaço de momentos e isso torna o calculo de amplitudes de espalhamento simples multiplicações sucessivas, pelo menos em nível árvore. Em AdS_5\times S^5 o espaço de momento não ajuda muito pois ele só torna explícitas as simetrias da fronteira, mas não do interior. Os cálculos simples de espalhamento são feitos em espaço de configuração, mas existe um limite para o que se pode fazer com isso antes que a conta se torne proibitivamente complicada. Alguns exemplos de amplitudes que foram calculadas logo após a proposta acima:

Conformal Field Theory Correlators from Classical Scalar Field Theory on AdS_{d+1} (hep-th/9804035)

Correlation functions in the CFT_d/AdS_{d+1} correspondence (hep-th/9804058)

On Four-point Functions in the CFT/AdS Correspondence (hep-th/9807097)

O que apareceu nessa última semana foi uma sugestão de usar transformadas de Mellin em vez de Fourier para calcular diagramas de Witten, criando o equivalente das regras de Feynman para esses diagramas:

Towards Feynman rules for Mellin amplitudes. (arXiv:1107.1504)

A Natural Language for AdS/CFT Correlators (arXiv:1107.1499)

Nos exemplos calculados explicitamente (principalmente no primeiro dos artigos acima) fica claro que a transformação para a o espaço de Mellin pode ser entendida como uma aplicação esperta da fórmula de estrela de Symanzik. A fórmula para o vértice de interação ainda é um tanto mais complicada e envolve funções hipergeométricas de Lauricella, mas pelo menos montar a expressão do diagrama se tornou, novamente, simples multiplicações.

Categorias:Ars Physica

O Brasil no Chronicle of Higher Education…

sábado, 9 jul 2011; \27\America/New_York\America/New_York\k 27 7 comentários

O jornal The Chronicle of Higher Education é uma das referência no mundo da Educação Superior — assim como o Times Higher Education.

No começo da semana, o Chronicle publicou a seguinte matéria sobre o Brasil: Brazil Reaches Out. Essa reportagem também apareceu no Physics Today: Brazil reaches out (Physics Today).

Pra quem está com preguiça de clicar no link da Physics Today, aqui vai o comentário deles (em sua integridade):

Chronicle of Higher Education: The Brazilian government has announced that it will fund 75,000 studentships to study abroad, worth $30,000 each. Brazil’s university system is successful, but that success is not unqualified; scientific research is highly variable in quality, and there is a shortage of researchers. Student bodies of elite universities tend to be economically homogenous. The Brazilian government recognizes that the country’s higher education system will need to expand rapidly while improving in quality if it is to support the country’s economic growth: 7.5% last year, with another 4% predicted for 2011 despite the global slowdown.

O ponto principal da reportagem é o seguinte: o governo brasileiro anunciou 75.000 bolsas-de-estudos (para estudo no exterior) no valor de US$30.000 cada. (Posso estar enganado, eu até gostaria de ter mais informações a esse respeito, mas meu entendimento é que essas bolsas são para áreas onde não há possibilidade de se fazer a pesquisa no Brasil.)

Eu, confesso, tenho algumas dúvidas. Por exemplo, como esse valor de US$30.000 é calculado e aplicado para uma bolsa de doutoramento? A tuition (custo anual) das escolas pode variar muito: nos USA, para a pós-graduação, uma escola pública (e.g., UCLA ou UCSD, SUNY-SB, Rutgers, etc) pode cobrar cerca de ~US$20.000 para alunos estrangeiros (que claramente têm origem fora do estado onde essas escolas se localizam — a anuidade para residentes do estado é consideravelmente mais baixa: cerca de 25% do valor cobrado para quem vem de fora do estado), assim como uma escola privada (Harvard, MIT, Princeton, Brown, Chicago) pode cobrar até US$40.000 por ano! E isso não inclui o salário para o doutorando, que gira em torno de US$2.000/mês (i.e., cerca de ~US$21.000–US$24.000 por ano), dando um total de até ~US$65.000 por ano. Portanto, mesmo uma média simples entre os dois tipos possíveis de anuidades já dá o valor anunciado para as bolsas, cerca de ~US$30.000.

Claro, a situação na Europa é bem diferente e varia bastante de país pra país (e.g., Reino Unido, França, Alemanha). Então, eu imagino que os valores europeus vão ser um pouco mais baixos quando comparados aos valores americanos. Por outro lado, a conta européia vem em Euros, o que torna tudo cerca de 43% mais caro que a conta americana. Então, um custo de ~€21.000 se torna algo como ~US$30.000.

Mais ainda, quem conhece gente que foi pro exterior pago pelo CNPq, sabe o quão comum é o atraso do pagamento dessas pessoas…: muito mais comum do que deveria — às vezes vc recebe por 3 meses atrasados. De qualquer modo, essa já é outra questão, apesar de relevante pra pessoa que está do outro lado do oceano.

Fora isso, também é importante se colocar esses números em comparação com os dados do post Como a Ciência escapou da Foice do Orçamento — até agora. Em particular, os seguintes artigos são de extrema relevância: Brazil cuts its science budget e Brazil’s budget cut dismays scientists . Esses cortes não precisam, necessariamente, afetar as bolsas mencionadas acima. Entretanto, as pessoas formadas por este programa de bolsas vão necessariamente (por causa do contrato da bolsa) voltar para o Brasil — o que imediatamente traz a seguinte pergunta à tona: “Com esses cortes, será que haverá empregos para esses bolsistas? Ou será que eles simplesmente vão ficar desempregados depois de voltarem? Há planos para a absorção desses bolsistas?” E por aí afora…

Portanto, a notícia soa boa, mas sem os devidos detalhes fica difícil de se saber o quão realista isso tudo é.

Reproduzo aqui o artigo do Chronicle em sua integridade.

Brazil Reaches Out

July 5, 2011, 12:14 pm, By Nigel Thrift.

In Brazil on a delegation with the Deputy Prime Minister and the Minister of State for Universities and Science. As usual with these delegations, they tend to be a mixture of frenzied last-minute reorganizations and moments of formal ceremony. They certainly require serious stamina occasioned by crammed programmes and non-stop travel.

But this delegation was buoyed by the Brazilian government’s announcement of 75,000 studentships to study abroad over the next four years, each worth $30,000, of which the UK looks set to obtain a good number.

What is striking about Brazilian higher education its range and variety. There are numerous private institutions, some of which are of good quality. There are state universities. There are federal universities. There are a number of federal science and technology institutions like CAPES, along with many national institutes of science and technology. There are a number of companies (most notably Petrobras and Embraer) which have close associations with universities. I was able to visit the University of Sao Paulo, an august institution boosted by the fact that a proportion of the State of Sao Paulo’s sales tax goes to universities (other countries take note).

What became clear to me was that Brazilian higher education is now in a state of take-off. Brazilian research is often world class. It is the 13th biggest knowledge producer as measured by numbers of papers. In particular, Brazilian research in is paramount in fields like engineering and aspects of the biological sciences.

In a meeting with luminaries from the world of Brazilian higher education, what was clear was that they are bullish about the future and that the scholarship scheme is a tangible expression of that optimism, as well as a desire to diversify the locations in which students study (which are currently led by the United Sates and France).

What is very different from many other countries which are now in economic take-off is that Brazil already has a thriving university system which has achieved many successes. It needs to expand its higher education system rapidly but the goal that has been set for participation rates seems entirely possible. In fact, it is about the same rate of expansion as the UK has achieved over the last 30 years.

There are clearly still problems. For example, the elite universities tend to be populated by students from well-off backgrounds. But Brazil is hardly the only country that can be accused of that. Again, there is very considerable variation in quality. Again, Brazil is hardly the only country that can be accused of that. It has a shortage of researchers to match its ambitions. Once more, Brazil is hardly the only country that can be accused of that.

In other words, this cannot be seen as a situation in which a country needs “help.” Rather, it requires a partnership of equals in which the non-Brazilian partner realizes that the Brazilian partner has much more to offer than the prospect of studentships abroad. Those studentships are a sign off greater engagement but an engagement that will be a two-way process right from the very start.

Primeira exclusão de Higgs no LHC com dados de 2011!

sábado, 9 jul 2011; \27\America/New_York\America/New_York\k 27 3 comentários

Acabei de ver na blogsfera:

Higgs exclusion at 900 pb-1 (viXra log)

o primeiro resultado da procura pelo bóson de Higgs com dados de 2011 anunciado pela colaboração CMS.

Esse gráfico é uma combinação de 0.9\, fb^{-1} do canal H\rightarrow ZZ na região de massa alta com 0.2\, fb^{-1} de diversos canais em massa baixa. O CMS exclui praticamente toda a região entre 300-400\, GeV de massa.

O Philip Gibbs, que escreve no blog viXra referenciado acima, continua acreditando que o LHC vai entregar 10\, fb^{-1} de luminosidade integrada para o Atlas e o CMS até o final do ano e afirma, para minha surpresa pelo menos, que os dados para análise de Higgs dos dois experimentos serão combinados ainda esse ano. Não acho essa uma boa idéia. São experimentos novos que individualmente tem capacidade de observar o Higgs. É bom que os dados sejam apresentados separadamente para podermos ter uma idéia da consistência entre eles.

Atenção (12-Jul-2011): Nos comentários do blog viXra, fica claro que esse gráfico não estava pronto para ir a público e foi inadvertidamente uploaded para um servidor aberto de apresentações. O que aconteceu foi que apresentaram esse gráfico em alguma conferência (e eu não sei, não quero saber, e nem tenho tempo de ir atrás para descobrir qual foi — mas deve ter sido na semana anterior a esse post e deve ter sido uma conferência do CMS, mas honestamente não sei) em que os organizadores e palestrantes falharam em manter resultados internos, digamos assim, internos. Aparentemente eles pediram desculpas à colaboração mas, sinceramente, muito tarde para retirar o gráfico dos olhos públicos da internet. O que deve ter acontecido é que esse era um gráfico que estava preparado para o encontro da EPS, em duas semanas, e foi mostrado em alguma conferência de menor importância. Agora é ficar e olho nas apresentações em Grenoble e, até por uma questão de confirmação, eu vou fazer um post aqui no Ars Physica quando o resultado do LHC para exclusão do Higgs aparecer na página deles.

Ontem também apareceu, no youtube, um vídeo do Don Lincoln, que faz parte da colaboração CMS, tentando explicar sem usar termos técnicos o que é o campo de Higgs e qual sua importância. Fazer analogias é sempre uma tarefa difícil e ingrata, mas ficou legal (legendado para o português pelo Rafael Calsaverini – se não aparecer quando começar o vídeo, aperte o botão CC na barra sob o vídeo):

Categorias:Ars Physica

A física faz sentido (mas cuidado com o gorila de 500 kg)

sábado, 9 jul 2011; \27\America/New_York\America/New_York\k 27 4 comentários

Nessa quinta apareceu um artigo muito interessante no arXiv:

Updated Status of the Global Electroweak Fit and Constraints on New Physics

da colaboração GFitter. Esse é um grupo de pessoas que, tal como alguns outros, estuda a consistência do Modelo Padrão. Você pode argumentar que isso é apenas um exercício numérico, mas eu acho que é possível aprender bastante nesses artigos.

O Modelo Padrão é um dos maiores triunfos da física moderna. Existem diversos argumentos estéticos contra ele, mas nenhum argumento teórico sólido ou observação experimental indica qualquer desvio das predições desse modelo construído na segunda metade do último século.

Infelizmente, ele não é completo. Como todos aqui sabem, o campo de Higgs (ou melhor, de BEHGHK para ser politicamente correto) nunca foi observado. Como então podemos saber que um modelo faz sentido se ele ainda não foi todo observado? Aqui que entra a beleza da física. Ninguém vai fazer física porque acha as estrelas bonitas ou porque acha legal colidir partículas (bem, alguns até vão, mas esses costumam desistir logo). As pessoas vão fazer física porque existe uma incrível estrutura teórica embaixo de um modelo que faz com que as observações experimentais não impliquem apenas em correlações curiosas, mas realmente expliquem como a natureza funciona.

A Teoria Quântica de Campos que suporta o Modelo Padrão define relações entre grandezas e isso faz com que o modelo seja sobre-determinado, nos permitindo dar probabilidades para o quão bem o modelo explica os dados. Na falta de um parâmetro medido, ela nos permite medir esse parâmetro usando os demais. E é esse tipo de estudo que esse artigo faz.

É um tipo de física diferente. Ela não envolve novos modelos de física além do Modelo Padrão, nem a procura por novas partículas. Ela consiste num esforço teórico de calcular as previsões do Modelo Padrão com a maior precisão possível e medir as quantidades livres com a menor incerteza possível de forma que qualquer desvio na teoria possa ser, então, creditado a nova física. Esse tipo de física, chamada de física de precisão, é uma arte por si só e o Chad Orzel, do blog Uncertain Principles, escreveu um post muito interessante sobre esse assunto (embora no contexto de AMO, em vez de HEP; mas esse blog vale muito a pena de qualquer jeito):

What’s So Interesting About Precision Measurement?

Voltando ao Modelo Padrão. O Modelo Padrão é uma teoria de gauge com três grupos de simetria distintos, um mecanismo de quebra de simetria e um monte de campos de matéria fermiônicos em representações específicas desses grupos de gauge. Isso quer dizer que para especificar o modelo padrão, você precisa de três constantes de acoplamento (\alpha, \alpha_s, G_F), três massas de bósons que vêm do mecanismo de quebra de simetria (M_W, M_Z, M_H) e as massas dos campos de matéria, que também vem do mecanismo de quebra de simetria, mas que vou deixar separados por organização (m_f), onde f é um indíce que indica qual partícula: elétrons, múons, taus e os seis quarks. Neutrinos não tem massa nesse modelo, mas não chega a ser traumático considerá-la não nula, só não temos certeza como exatamente isso é feito.

A unificação eletrofraca, além de determinar que o fóton permanece com massa zero, determina uma relação entre as três massas no setor eletrofraco e as constantes de acoplamento:

M_W^2\left(1-\frac{M_W^2}{M_Z^2}\right)=\frac{\pi\alpha}{\sqrt{2}G_F}\left[1+\Delta r\right]

onde \Delta r são as correções quânticas a essa relação. Essa correção depende de todas as outras quantidades do Modelo Padrão. Claro que a maioria desses observáveis tem uma importância muito pequena num ajuste global da teoria, no sentido que eles são medidos muito mais precisamente do que relações tipo essa acima permitem determiná-los. Fixando então esses valores, as variáveis importantes que sobram são: (M_Z, M_H, m_t, m_b, m_c, \Delta\alpha^{(5)}_{had}(M^2_Z), \alpha_S(M_Z^2)), onde \Delta\alpha^{(5)}_{had} é a contribuição dos quarks leves na constante de acoplamento eletromagnética.

Certo, eu não quero tornar esse post extremamente técnico, pois seria tedioso. Eu só quero que todos os leitores tenham uma idéia de quais são as variáveis mais importantes para o nosso conhecimento do Modelo Padrão e o porquê. Vamos agora olhar os resultados do artigo.

A primeira coisa que pode-se perguntar é qual é o valor da massa do Higgs que dá a melhor consistência para o Modelo Padrão dado tudo que já foi medido. O gráfico abaixo mostra a resposta:

O valor com menor \chi^2 é 120\, GeV. Nessa curva já estão sendo consideradas todas as procuras diretas pelo Higgs feita no LEP, Tevatron e LHC.

Outro resultado interessante mostra qual seria a massa do Higgs se algum dos observáveis medidos (que estão diretamente relacionados a uma dessas variáveis que eu listei acima) fosse retirado do ajuste global, além das procuras diretas. Veja o gráfico ao lado. Observando o desvio causado no valor central e as novas barras de incerteza é possível entender a importância de cada observável no ajuste global. É fácil ver que as variáveis mais importantes são (M_W, m_t, \Delta\alpha^{(5)}_{had}). Agora podemos começar a distribuir dever de casa. Se você é um teórico corajoso e gosta de física de precisão, pode tentar calcular \Delta\alpha^{(5)}_{had} melhor do que já foi feito até hoje. Isso certamente terá um impacto grande no ajuste global do Modelo Padrão. Por outro lado, se você é um experimental corajoso, uma tarefa tão árdua quanto é medir a massa do quark top ou do bóson W mais precisamente do que feito até hoje. É fácil entender porque essas são as massas mais importantes. O Higgs se acopla com a massa das partículas logo, é natural que o férmion mais pesado e os bósons mais pesados sejam os mais importantes.

Os autores também se perguntaram o que aconteceria se não incluíssemos as medidas diretas das massas do W e do top no ajuste global e fizéssemos a mesma pergunta que fizemos para o Higgs: qual é o valor que gera o melhor acordo com o Modelo Padrão? Os dois gráficos abaixo mostram o resultado

A barrinha laranja no gráfico de cima para massa do top e a barrinha vermelha no gráfico de baixo para a massa do W mostram os valores medidos diretamente. A curva azul é a previsão do Modelo Padrão e a cinza é a previsão se a massa do Higgs fosse observada em 120 \, GeV. Você vê que a massa do top, apesar de importante para a consistência global, já é determinada com precisão melhor do que o ajuste permitira determinar mesmo que o Higgs fosse observado. Isso não é verdade para a massa do W, o que faz com essa seja a quantidade que apresenta a maior importância para melhorar o nosso conhecimento da consistência do Modelo Padrão, e vai continuar sendo mesmo quando o Higgs for descoberto.

E o gorila? O gorila de 500 kg são as procuras por Higgs no LHC que estão vindo a passos incrivelmente largos. Veja o gráfico abaixo do que o CMS vai ser capaz de excluir até o final do ano (considere realísticos 5\, fb^{-1}). E isso apenas o CMS, ainda tem o Atlas. Ou seja, mesmo que não se observe o Higgs com 5\sigma esse ano, aquela curva de \Delta \chi^2 lá em cima em função da massa do Higgs vai mudar muito.

CMS Higgs Exclusion

Categorias:Ars Physica

Novas tendências em calorimetria

quarta-feira, 6 jul 2011; \27\America/New_York\America/New_York\k 27 Deixe um comentário

A maioria dos meus colegas físicos são fascinados por telescópicos. Eu acho que até quem não é físico gosta de telescópicos. Telescópicos são legais, sem dúvida, mas eu acho que eles nem chegam perto de quão legais são calorímetros. Infelizmente, calorímetros amadores não é algo tão fácil quanto telescópios amadores. 😛

Recentemente, em Chicago, teve uma conferência sobre instrumentação científica em que várias novidades foram apresentadas e, em particular, várias novas tendências sobre calorimetria. Você pode ver o conteúdo dessa conferência abaixo:

TIPP 2011 – 2nd International Conference on Technology and Instrumentation in Particle Physics (8-14 June 2011 Chicago)

Três novas idéias foram discutidas repetidamente, apresentação atrás de apresentação, slide atrás de slide, e parecem ser as direções para esse campo. Mas antes de começar, eu queria colocar uma daquelas citações que mostra como prever o futuro é difícil.

All calorimeter systems of this type [homogeneous] (…) are optimized for the detection of electromagnetic showers. (…) there is no particular advantage in using these expensive detectors for the detection of hadrons or jets, on the contrary.

— R. Wigmans, Calorimetry: Energy Measurement in Particle Physics, seção 5.2, pág 298

Sobre a necessidade, um calorímetro desse tipo é inútil até que um experimento resolve achar um bump inesperado na massa invariante de jatos. Mas é claro que o Wigmans não é bobo, pelo contrário, ele tinha em mente os problemas de não-compensação, energia “invisível” típica de chuveiros hadrônicos, e a dificuldade de evitar vazamentos em jatos quando se usa calorímetros homogêneos. São esses desafios que as pessoas estão tentando evitar com três técnicas básicas.

Dual readout

Tradicionalmente, calorímetros tem um sistema de readout: seja luz de cintilação, seja carga de ionização ou qualquer outro fenômeno físico conveniente. O problema é que calorímetros com apenas um tipo de readout tem que ter o sinal compensado por construção, é impossível fazer qualquer tipo de correção offline.

Eu acho que a primeira colaboração a fazer um calorímetro com dois readouts foi a DREAM (mas provavelmente eu estou errado). O projeto deles era de um calorímetro de amostragem de cobre com fibras ópticas como elemento sensível que apresentam tanto cintilação quanto são transparentes para radiação Cerenkov. Ambos sinais são lidos separadamente e, como a fração e/h é diferente para cara tipo de readout, é possível fazer uma correção, evento a evento, da energia perdida e tornar o calorímetro compensante offline.

Em testes com esse conceito, consegue-se resoluções da ordem de grandeza de 15\%/\sqrt{E} para jatos, enquanto nos calorímetros em operações hoje em dia esse número fica em torno de 100\%/\sqrt{E}. O principal problema desse tipo de construção é como separar a componente de Cerenkov e a componente de cintilação. Felizmente, essas radiações são muito diferentes e várias técnicas são usadas:

  • Tempo: radiação Cerenkov é emitida quase que imediatamente, enquanto que cintilação demora o tempo típico de desexcitação do material, algo como 1-100\, ns.
  • Direção: radiação Cerenkov é fortemente direcional, no formato bem conhecido de um cone, enquando cintilização não.
  • Espectro: A radiação Cerenkov tem um espectro universal que para frequências típicas se comporta como 1/\lambda^2 enquanto a frequência de cintilação depende do material.
  • Polarização: A radiação Cerenkov é polarizada (normal ao cone), enquanto cintilação não é polarizada.

Essas variáveis podem ser ajustadas para ter sinais equiparáveis (tem várias palestras que também falam de novos cristais para calorimetria, vale a pena). Há projetos que se aventuram inclusive a fazer um triple readout, lendo o sinal dos nêutrons, que é extremamente lento pois eles precisam termalizar, separadamente para poder fazer uma correção mais fina ainda.

Razão C(Cerenkov)/S(cintilação) para diferentes partículas em função da energia visível S(cintilação)/B(energia). Esses valores são usados para fazer compensação, melhorando a resolução, e para corrigir a resposta evento a evento, tornando o calorímetro linear.

Absorção total

Não havendo o problema da não-compensação quando se consegue fazer (pelo menos) dual readout, algumas colaborações propuseram calorímetros hadrônicos homogêneos. Duas colaborações apresentaram trabalhos desse tipo: a ADRIANO e o grupo da Universidade de Shinshu. Elas se baseiam na mesma idéia: fazer um calorímetro semi-homogêneo. A idéia é ter algum vidro pesado que sirva tanto para leitura do sinal Cerenkov por ser transparente, quanto material de absorção para fibras que seriam lidas por cintilação.

Isso resolve imediatamente o problema acima pois as duas componentes se tornam opticamente isoladas. Se algum dia um calorímetro desse tipo vier realmente a ser construído, será sem dúvida o projeto mais avançado nesse campo em termos de resolução de energia. E esse é um problema, não? Calorímetros de verdade costumam demorar uns 20 anos para serem construídos e daí são operados por mais uns 20 anos. Qual a resolução de energia que você vai precisar para estudar as coisas daqui a 40 anos? Qual será o bump de 2050?

Os resultados de testes e simulações são excelentes. Essas colaborações conseguem projetar sistemas de calorimetria cuja resolução parece ser limitada apenas por vazamento! Além disso, nesse tipo de calorímetro você não necessariamente precisa de um calorímetro eletromagnético na frente, já que o sinal pode ser lido na parte Cerenkov do detector com boa resolução. A eficiência de separação de chuveiros hadrônicos e eletromagnéticos é de acima de 99\%, nas simulações feitas, com uma taxa de fakes abaixo de 3\%.

O principal problemas desse tipo de construção é a ausência de segmentação longitudinal, que é o ponto forte da terceira proposta.

Calorimetria digital

A idéia é usar o algorítimo de particle flow, que já comentei aqui no blog, para fazer calorimetria hadrônica. Uma colaboração liderada por ANL, FNAL e CALICE apresentou seu protótipo usando pixels de RPC. Esse tipo de técnica necessita de um bom tracker e calorímetro eletromagnético antes do calorímetro hadrônico, já que eles serão responsáveis por medir todas as partículas carregadas e fótons do chuveiro hadrônico, respectivamente.

A colaboração do CALICE já vem testando a algum tempo calorímetros super segmentados onde é possível identificar as partículas individuais dos chuveiros e daí separar aquelas que devem ser medidas em outros detectores. Contudo, em cada pixel, a energia é medida da forma tradicional, pela amplitude de algum sinal físico. A idéia de um calorímetro digital é contar apenas o número de pixels com sinal e, pelo que entendo, com alta granularidade, essa quantidade é proporcional a energia da partícula que gerou o chuveiro. Esse tipo de proposta certamente facilita a eletrônica de readout, mas dificulta bastante o algorítimo de análise de dados.

Várias tecnologias para os pixels foram apresentadas em diversas da conferências, todas baseadas em detectores gasos (RPC, GEM, Micromegas). Na apresentações, eles afirmam poderem obter resoluções da ordem de 30\% / \sqrt{E} se a resolução de partículas neutras for da ordem de 15\% / \sqrt{E}, enquanto os calorímetros atuais tem uma resolução para partículas hadrônicas isoladas em torno de 50\% / \sqrt{E}.

Como já discutimos aqui, essa é uma proposta bem diferente que faz verdadeiramente um calorímetro de imagem e dá informações muito detalhadas sobre a forma do chuveiro.

Um hádron neutro sendo detectado por um calorimetro de imagem que usa a técnica de particle flow para medir a energia.

Categorias:Ars Physica

Excesso de material suplementar em artigos

segunda-feira, 4 jul 2011; \27\America/New_York\America/New_York\k 27 Deixe um comentário

Eu acabei de tomar conhecimento de uma ótima série de posts no blog da Sociedade Brasileira de Imunologia sobre o excesso de material suplementar que os artigos estão tendo e sobre os excessos cometidos por alguns árbitros de revistas:

Nature News, por Hidde Ploegh (MIT): End the wasteful tyranny of reviewer experiments

Editorial da Nature: There’s a time to be critical

Editorial da The Journal of Experimental Medicine: Enough is enough

Mesmo que o assunto discutido não sendo diretamente relacionado à física, estamos vivendo uma época de big science onde o processo de revisão e a divulgação de dados vão, invariavelmente, se tornar impráticos em muitos casos e a discussão é válida.

Claro que os links acima só arranham a ponta do iceberg, pois falam de pequenos projetos/experimentos científicos. Contudo, se você juntar isso à realidade das big sciences, a discussão tende a piorar muito e ir mesmo na direção de se perguntar se esse é um tipo de modelo científico válido.

Categorias:Ars Physica

Enquanto isso, no velho oeste…

segunda-feira, 4 jul 2011; \27\America/New_York\America/New_York\k 27 1 comentário

Uma das coisas mais complicadas em física de altas energias é saber com que precisão uma conta foi feita. Isso porque as previsões de seção de choque são todas feitas em teoria de perturbação e é uma arte estimar a contribuição dos termos que nunca foram calculados, principalmente quando as correções são grandes.

É verdade que para a maioria dos processos as correções de ordem superior são pequenas, mas isso não é verdade para produção de Higgs, como esse gráfico roubado de R. Harlander, W. Kilgore; Next-to-Next-to-Leading Order Higgs Production at Hadron Colliders mostra:

O eixo vertical é o assim chamado fator-K que é definido como a razão da seção de choque calculada em ordens superiores de teoria de perturbação para a primeira ordem. Eu não sei se vocês percebem, mas quem faz esse tipo de conta se refere a cada ordem de perturbação como se tivesse usando aritmética de Peano, então LO é a primeira ordem de perturbação, NLO é a segunda, NNLO é a terceira e por aí vai e a razão para isso vai ficar clara em instantes.

Como a seção de choque é calculada em ordem finita de perturbação há uma dependência explícita na escala de renormalização e como seções de choque da QCD dependem de uma parametrização das densidades de momento dos pártons (PDF), há também uma dependência na escala em que essa distribuição é calculada. Variações dessas escalas em uma ordem de teoria de perturbação causam variações que são da ordem de grandeza da próxima ordem. Por isso, uma forma tradicional de calcular a incerteza num cálculo é variar essa escala \mu_0 / \kappa \leq \mu_F,\mu_R \leq \kappa\mu_0.

O gráfico acima mostra as variações para \kappa=2. Você vê que se isso fosse feito em NLO, uma variação que seria considerada em 1\sigma não chegaria ao valor central da seção de choque calculada em NNLO. O principal responsável por essa variação é uma forma de produção de Higgs conhecida como fusão de glúon-glúon (ggf). Esse é um processo que não existe classicamente já que o glúon não tem massa e o Higgs só se acopla a partículas massivas.

Diagrama de Feynman de menor ordem para fusão de glúon-glúon (imagem obtida do site do Harlander, um dos autores do paper citado acima).

Isso quer dizer que o primeiro diagrama que contribui para seção de choque já tem um loop e é de ordem \mathcal{O}(\alpha_s^2) na constante de acoplamento forte. E aqui fica clara a razão pela qual se usa uma numeração à la aritmética de Peano para a ordem em que um processo é calculado: os número ordinais já são usados para especificar a ordem do diagrama na constante de acoplamento.

Em 2010, J. Baglio e A. Djouadi escreveram um artigo atentando para essa grande contribuição dos diagramas de ordem superior para o processo de ggf:

J. Baglio e A. Djouadi, Predictions for Higgs production at the Tevatron and the associated uncertainties

Em que eles mostram que a escolha de \kappa=2 pode ser conservadora demais para esse processo (imagem copiada do artigo acima):

e sugerem o uso de um valor maior de \kappa para esse processo. Posteriormente, eles escreveram um artigo recalculando o intervalo de exclusão do Tevatron se a incerteza teórica fosse maior:

J. Baglio et al, The Tevatron Higgs exclusion limits and theoretical uncertainties: a critical appraisal.

O paper é bem contundente e a conclusão básica é que os experimentos do Tevatron não tem sensitividade suficiente para fazer qualquer exclusão do Higgs com a quantidade de dados que possuem. Eles tentam reproduzir a análise estatística feita pelo CDF com 5.9\, fb^{-1} de luminosidade integrada para exclusão do Higgs e concluem que, com o método de estimar incertezas que eles propõem, o CDF só seria capaz de fazer a exclusão que fizeram com 10\, fb^{-1}, que é a quantidade total de dados que eles terão no final do Run do Tevatron:

Quantidade de dados que o CDF deveria ter para poder fazer a exclusão que fez com 5.9 fb-1, segundo J. Baglio et al. O mesmo vale para a análise do D0. (Imagem copiada do paper citado acima)

Dada a assertividade dos artigos desse grupo, o D0 e CDF responderam coletivamente às críticas:

Tevatron New Physics and Higgs Working Group, Responses to Concerns about the Theoretical Modeling of the gg→H Signal

Tevatron New Physics and Higgs Working Group, Responses to the Addendum to Concerns about the Theoretical Modeling of the gg→H Signal

Hoje, no arXiv, apareceu a réplica de Baglio, Djouadi e Godbole às respostas dadas nas páginas acima:

J. Baglio, A. Djouadi, R. Godbole, Clarifications on the impact of theoretical uncertainties on the Tevatron Higgs exclusion limits

Eu acho esse tipo de discussão muito interessante. Realmente se aprende muito quando as pessoas são forçadas a responderem críticas que tem impacto direto na sua pesquisa, como é esse caso. É verdade que essa última resposta já virou um pouco de bate-boca, mas ainda assim eu acho válido.

Categorias:Ars Physica

Atualização da medida de assimetria de múons de mesmo sinal

domingo, 3 jul 2011; \26\America/New_York\America/New_York\k 26 3 comentários

Essa semana o D0 publicou a atualização da medida da assimetria de múons de mesmo sinal com 9\, fb^{-1} de luminosidade integrada. Eu fiz um post rápido quando o resultado com 6.1\, fb^{-1} foi publicado, mas talvez agora eu possa falar um pouco mais.

Measurement of the anomalous like-sign dimuon charge asymmetry with 9 fb^-1 of p pbar collisions

O interesse da medida

Muitas coisas decaem em múons. Eventos com dois múons de mesmo sinal, contudo, são mais raros. Um dos processos que geram múons de mesmo sinal é através da produção de quarks b. No Tevatron, o estado final de quarks b mais comum é junto com sua antipartícula: um par b\bar{b}. Na verdade, como quarks livres não existem normalmente por aí, eles se apresentam hadronizados no estado final, i.e., eles se juntam a outros quarks para formar mésons ou, mais raramente, bárions.

Dois estados finais são interessantes nessa medida: o B_s\bar{B}_s que ocorre quando os quarks b se juntam a quarks s e o B_d\bar{B}_d que ocorre quando eles se juntam a quarks d. A vida média desses mésons é curta e eles podem decair em múons. Como decaimento do quark b é muito mais rápido que o dos quarks leves, é ele que determina a carga a carga dos múons no estado final. Isso quer dizer, que o B_q (onde q=s ou d) decai para \mu^+ e o \bar{B}_q decai para \mu^-. Ou seja, se os dois mésons decairem diretamente para para múons, serão múons de sinais opostos que serão detectados.

Contudo, no modelo padrão, os mésons B_q e \bar{B}_q oscilam. Esse é um efeito quântico cuja origem está nos termos não diagonais da matrix de CKM. Isso quer dizer que há uma probabilidade não nula do B_q se tornar um \bar{B}_q e daí decair (ou vice-versa). Quando isso acontece, o estado final tem dois múons de mesmo sinal.

A assimetria que é medida é o excesso relativo de eventos com dois \mu^+ em relação aos eventos com dois \mu^-. Se a oscilação B\rightarrow \bar{B} fosse tão provável quanto a \bar{B}\rightarrow B, a assimetria seria zero. No entanto, isso não é verdade. Há o que, no jargão, chama-se violação de CP. As oscilações tem amplitude diferente dependendo da direção.

Resultados

Como tanto mésons B_d quando B_s são produzidos, tudo que é possível fazer é medir uma relação entre as assimetrias que vem de cada um deles. Nessa última medida, contudo, devido a maior quantidade de eventos, foi possível separar os dados em dois grupos: múons que são produzidos perto da interação principal e múons que são produzidos distantes. Fazer essa separação é bom por duas razões (veja, por exemplo, Background check for anomalous like-sign dimuon charge asymmetry para uma discussão interessante em como se motiva essa separação).

Primeiro, a maior parte do eventos falsos que se parecem com decaimentos de dois mésons B tem pequeno parâmetro de impacto. Em geral, são partículas que foram produzidas na interação principal do próton e antipróton, deveriam ter sido absorvidas por algum detector no meio do caminho, mas não foram. Um background grande nessa medida são os mésons K. Como o D0 não tem um detector específico para identificação de partículas, e como o K^+ interage com o detector diferentemente do K^-, esse termina sendo um background bem grande, diminuindo a sensitividade do experimento.

Mas o que talvez é mais interessante é que a fração de B_s e B_d muda com o parâmetro de impacto, já que os comprimentos de oscilação são diferentes. Isso permite fazer duas medidas independentes das relações entre as assimetrias e daí medi-las individualmente. O resultado está no gráfico abaixo:

Aquele ponto marcado “SM” é a previsão do Modelo Padrão e ela está a “4.2 \sigma” do valor medido. Em breve, o LHCb deve publicar o resultado da medida dessas assimetrias. Eles decidiram medi-las de outra forma, tornando a comparação mais interessante ainda.

Categorias:Ars Physica

Um homem morto andando?

sábado, 25 jun 2011; \25\America/New_York\America/New_York\k 25 Deixe um comentário

Com o LHC tendo chegado a 1.1\, fb^{-1} de luminosidade integrada entregue ao CMS e ao Atlas (o LHCb e Alice têm luminosidade controlada) fica a pergunta: o D0 e o CDF ainda servem para alguma coisa? É verdade que o Tevatron já entregou mais de 11\, fb^{-1} para cada um deles e o LHC só deve chegar nessa marca na primeira metade do ano que vem. Contudo, duas coisas devem ser levadas em consideração:

  • As seções de choque da maioria dos eventos relevantes crescem 1 ordem de grandeza entre o Tevatron e o LHC.
  • Os detectores do LHC tem maior aceitação que os detectores do Tevatron

Isso faz com que o LHC, para a maioria dos eventos, tenha uma quantidade gravada já próxima ao que o Tevatron tem. Se você juntar isso ao fato que o Atlas e o CMS são detectores novos, com maior eficiência de detecção, melhor resolução de momento, melhor sistema de identificação de partícula, mais herméticos e que o LHC ainda conta com o LHCb que é um detector dedicado a fazer medições de mésons B, uma pergunta óbvia vem em mente:

Os dados do Tevatron ainda servem para alguma coisa?

Nesse post eu vou fazer algumas considerações tentando responder de forma positiva a essa pergunta. Todo mundo que ainda está trabalhando num experimento do Tevatron tem duas opções nesse momento: seja rápido ou seja bom. Se puder ser rápido e bom ao mesmo tempo, melhor ainda.

Vamos então fazer um passeio pelos tópicos de pesquisa mais quentes em física de altas energias experimental (as cores representam casos em que o LHC já passou o Tevatron, ambos ainda podem contribuir e o Tevatron ainda vai estar na frente por muitos anos):

  • Física além do modelo padrão: Nada que pode ser feito aqui. O LHC já é melhor na maioria das procuras e as poucas que ainda não são é porque eles ainda não divulgaram análises com todos os dados que tem.

     

  • QCD: É verdade que o LHC pode testar as previsões da QCD em escala de energia maior. Contudo, ainda tem uma pequena área em que o Tevatron naturalmente pode contribuir mais: alta escala e alta fração de momento. Nessa região, a sensibilidade do Tevatron ainda vai ser maior por um bom tempo.

     

  • Higgs: Com o LHC já tendo 1.1\, fb^{-1} e com a previsão de acumular 5\, fb^{-1} até o final do ano, é melhor que, o quer que o Tevatron tenha para publicar, o faça logo. Porque, se os estudos de sensibilidade do Atlas e do CMS estiverem certos (e tem estado razoavelmente), o Tevatron estará fora da jogada em mais alguns meses.

    A chance do Tevatron é se concentrar na região de baixa massa, pois a região de alta massa o LHC já tem dados o suficiente para superar o Tevatron.

     

  • Top: Acredita-se, devido a sua grande massa, que a física do top pode revelar física além do modelo padrão. O LHC é uma máquina de produzir tops, então em termos de estatística é difícil competir. Contudo, ainda tem um bom tempo que a medida da massa do top vai ser competitiva no Tevatron, já que ela não é dominada por estatística.

    Além disso, o Tevatron pode medir a assimetria forward-backward que o LHC não pode. Claro que, se essa assimetria é real, o LHC pode medir a causa dela, o que torna a medida do Tevatron meio boba.

    O top também é interessante porque ele é o único quark que decai antes de hadronizar. Então, informações de spin são preservadas do produto de decaimento. Só que tops no LHC são produzidos basicamente por glúons, enquanto no Tevatron basicamente por quarks. E quarks e gluons tem estrutura de Lorentz bem diferentes. As medidas são verdadeiramente complementares.

    Por fim, se o teu interesse é eventos de single top, que é sensível a alguns modelos de nova física, o Tevatron ainda vai ter uma vantagem no canal s, mas por pouco tempo.

     

  • Eletrofraca: Devido à precisão que essas medidas exigem, o Tevatron ainda vai dominar as medidas por um bom tempo. A assimetria em decaimentos de W é muito mais relevante no Tevatron, pois é um colisor de prótons com antiprótons. A assimetria em decaimentos de Z não importa tanto o estado inicial, mas o Tevatron ainda faz melhor. Para ser completamente honesto, no caso da produção de Z, o LHCb talvez seja competitivo em breve.

    Massa do W não tem comparação, o LHC vai demorar muito para chegar próximo do Tevatron, isso se chegar, já que o underlying event, o pile up, a parton distribution function e o momento transverso do W no LHC são muito mais difíceis de modelar, implicando numa precisão consideravelmente menor.

     

  • Física de mésons B: Na procura de decaimentos raros o Tevatron já não é mais competitivo com o LHCb. Medidas de assimetria, como a medida no decaimento para muons de mesmo sinal que o D0 fez recentemente e que deve ser atualizada muito em breve com 9\, fb^{-1} de dados continuarão interessante porque essa é outra medida verdadeiramente complementar ao LHC. E, o que talvez é mais interessante, a medida direta do ângulo de violação de CP tem que ser feita bem rápido, ou o LHCb vai tornar qualquer medida no Tevatron risível.

     

Ou seja, para mim, o futuro do D0 e do CDF é claro: eles terão mais um ano de física de descoberta em áreas como Higgs, B physics e top physics. Depois disso, os únicos artigos relevantes serão medidas de física de legado, como a medida da massa do quark top e a massa do bóson W. O LHC, por outro lado, é uma máquina de descoberta de nova física e esse vai ser o foco por muitos anos a vir.

Categorias:Ars Physica

Aparecimento de neutrinos eletrônicos no MINOS e no T2K

sábado, 25 jun 2011; \25\America/New_York\America/New_York\k 25 1 comentário

Essas duas últimas semanas tem sido intensas para física de neutrinos. Dois experimentos observaram pela primeira vez o aparecimento de neutrinos eletrônicos num feixe de neutrinos muônicos:

T2K: Os neutrinos são detectados no super Kamiokande, que é um detector Cerenkov no Japão. Eles são produzidos num acelerador do J-Parc.

MINOS: Os neutrinos são detectados num calorímetro de aço-cintilador localizado na mina Soudan, nos Estados Unidos. Eles são produzidos num acelerador do Fermilab.

O fato dos neutrinos oscilarem mostra que eles não são os autoestados de massa. Sabe-se que os autoestados de massa dos neutrinos tem uma hierarquia bem característica, com dois autoestados bem próximos e um distante.

Esse autoestado destacado, chamado de m_3, tem uma componente de neutrino muônico e de neutrino tauônico:

A componente eletrônica, apesar de ser a mais precisamente medida, sempre foi estatisticamente consistente com zero. Esses dois resultados mediram, pela primeira vez, uma oscilação inconsistente com zero:

Tanto o programa de neutrinos japonês quanto americano ainda tem muito futuro. O T2K está em fase de recuperação após o grande terremoto que aconteceu no Japão recentemente e deve voltar a tomar dados ano que vêm. O programa de neutrinos do Fermilab vai ser o principal foco de pesquisa desse laboratório após o final da vida do D0 e CDF. Ou seja, grandes novidades estão por vir.

Vale também lembrar que o atual Run Coordinator do MINOS é o físico Carlos Escobar, da UNICAMP. Run Coordinator é a pessoa que coordena a tomada de dados do detector (ou seja, alguém que não costuma dormir muito) e é uma importante figura na colaboração.

Um neutrino, quando entra no super Kamiokande, pode colidir com um nêutron gerando um elétron de alta energia. Esse elétron emite luz Cerekov, cujo característico anel é detectado pelas fotomultipladoras na parede do detector. Esse é um dos seis neutrinos eletrônicos observados pelo T2K na última tomada de dados.

Categorias:Ars Physica

Helicidade, Quiralidade, Massa e o Higgs

sexta-feira, 24 jun 2011; \25\America/New_York\America/New_York\k 25 4 comentários

Esse post é uma tradução do texto no blog US-LHC, escrito por Flip Tanedo. Qualquer erro no texto abaixo é responsabilidade do tradução e erros de tradução são de minha responsabilidade.

This post is a translation of a text written by Flip Tanedo at the US-LHC blog. Any error in the following text should be considered a problem with the translation as well as any errors in the translation are my sole responsibility.

Os comentários em blockquote são comentários técnicos que podem ser ignorados numa primeira leitura.

Os trechos em itálico iniciados por N.T. são meus e contém ou trechos extras não presentes no post original ou comentários sobre a tradução.

O meu objetivo é explicar em que sentido o Modelo Padrão é quiral e o que isso significa. Para fazer isso, nós vamos ter que aprender primeiro sobre uma idéia relacionada, helicidade, que é relacionada com o spin da partícula. Nós vamos então usar isso como um passo intuitivo para entender a noção mais abstrata de quiralidade, e então ver como massas afetam teorias quirais e o que isso tudo tem a ver com o Higgs.

Helicidade

Fato: toda partícula de matéria (elétrons, quarks, etc.) está girando, i.e. cada partícula de matéria carrega um momento angular intrínsico.

Deixe-me fazer uma advertência que spin é uma propriedade inerentemente quanto-mecânica das partículas fundamentais! Na verdade, não existe nenhum sentido clássico em que uma pequena esfera está girando como um pião. Entretanto, essa é uma boa analogia do que realmente acontece:

Essa é nossa partícula girante. A seta vermelha indica a direção do spin da partícula. A seta cinza indica a direção em que a partícula está se movendo. Eu desenhei um rosto na partícula apenas para mostrá-la girando.

A seta vermelha (indicando o spin) e a seta cinza (indicando a direção do movimento) definem uma orientação. A partícula acima é, em particular, “de mão direita” porque a sua orientação é a mesma orientação da nossa mão direita: se seu polegar aponta na direção da seta cinza, então os seus dedos envolvem-na da direção da seta vermelha. Físicos chamam essa “orientação” de helicidade da partícula.

Para ficar claro, nós também podemos desenhar a partícula direita (daqui em diante, usarei apenas direita e esquerda para designar a orientação, como é de costume) se movendo na direção oposta, para a esquerda:

Note que a direção do spin (a seta vermelha) também teve que mudar. Você pode confirmar que se você apontar seu polegar na direção oposta, seus dedos vão envolver a partícula na direção oposta.

Parece bom? Certo, agora nós podemos também imaginar uma partícula que é de mão esquerda (ou com helicidade “esquerda”). Para referência, aqui está uma representação de uma partícula esquerda se movendo em cada direção; para ajudar a distinguir helicidades esquerdas e direitas, eu dei às partículas esquerdas uma seta azul:

[Confirme que essas duas partículas são diferentes das partículas com setas vermelhas!]

Note que se você apenas mudar o sentido da seta cinza, você termina com uma partícula de helicidade oposta. Isso é precisamente a razão porque uma pessoa se olhando no espelho é canhota (se ela for destra)!

Até agora nós nos restringimos às partículas de matéria (férmions). Existe uma história similar para partículas mensageiras de força (bósons de calibre), mas com um ingrediente adicional que merece uma atenção especial. O bóson de Higgs é ainda outro caso especial já que ele tem spin zero, mas esse caso pode ser tratado junto com a história dos bósons de calibre.

Uma vez que especificamos um tipo particular de férmion, digamos, um elétron, nós automaticamente temos uma versão esquerda e uma versão direita.

Helicidade, Relatividade e Massa

Agora vamos começar a pensar no sentido de massa. Existe um monte de formas como se pensar sobre massa. Por exemplo, talvez a mais intuitiva é associar a massa a quão “pesada” uma partícula é. Nós vamos tomar um ponto de vista diferente que é inspirado pela relatividade restrita.

Uma partícula com massa zero (como o fóton) viaja na velocidade da luz e você nunca pode acompanhá-la. Não existe um “referencial de repouso” no qual uma partícula sem massa está parada. A analogia para isso é um dirigir na estrada: se você está se movendo na mesma velocidade que um outro carro na faixa ao lado, então o carro não estará se movendo (em relação a você). Só substitua um carro por uma partícula.

Por outro lado, uma partícula massiva viaja a uma velocidade menor que a velocidade da luz, de forma que você pode (em princípio) igualar-se a sua velocidade e então a partícula estará parada em relação a você. Com efeito, você pode mover-se mais rápido que a partícula massiva e então ela estará se movendo no sentido oposto a você (isso muda o sentido da seta cinza). Note que a direção do seu spin (a seta vermelha) não muda! Contudo, nós já notamos que mudando o sentido apenas do movimento da partícula, mas não do seu spin, muda a helicidade:

Aqui nós desenhamos a partícula com uma seta azul porque ela passou de ser uma partícula direita para um partícula esquerda. Claramente ainda é a mesma partícula: tudo que fizemos foi ir para um referencial diferente e os princípios da relatividade restrita nos diz que esse referencial é tão bom quanto qualquer outro.

Certo, então aqui está a conclusão até agora: massa é alguma coisa que nos diz se helicidade é o não uma propriedade “intrínseca da partícula. Se uma partícula tem massa zero, então sua helicidade tem um valor fixo em todos os referenciais. Por outro lado, se uma partícula tem uma massa não-nula qualquer, então helicidade não é uma propriedade intrínseca já que observadores diferentes (em referenciais válidos) pode medir valores diferentes para a helicidade (helicidade esquerda ou direita). Então, embora helicidade seja algo fácil de visualizar, não é uma propriedade “fundamental” da maioria das partículas.

Agora, uma boa pergunta a se perguntar é: Existe alguma propriedade de uma partícula relacionada à helicidade que é intrínseca à partícula? Em outras palavras: existe uma propriedade que:

  • É equivalente ao conceito de helicidade para o limite de massa a zero
  • É algo que todos os observadores em referenciais válidos mediriam o mesmo valor para uma dada partícula

A notícia boa é que essa propriedade existe, e se chama quiralidade. A notícia ruim é que ela é um pouco mais abstrata. Contudo, essa definição é onde um monte de sutilezas do Modelo Padrão vive, e eu acho que é melhor explicá-la cuidadosamente.

Quiralidade

Quiralidade e helicidade são duas idéias relacionadas bem de próximo. Tal como dizemos que uma partícula pode ter helicidade direita ou esquerda, nós também dizemos que uma partícula pode ter quiralidade direita ou esquerda. Como dissemos acima, para partículas de massa zero, a quiralidade e a helicidade são as mesmas. Uma partícula de massa zero com quiralidade esquerda também tem helicidade esquerda.

Contudo, uma partícula massiva tem quiralidade específica. Uma partícula massiva com quiralidade esquerda pode ter tanto helicidade esquerda ou direita, dependendo do referencial relativo a partícula. Em todos os referenciais a partícula ainda vai ter quiralidade esquerda, não importa qual sua helicidade.

Infelizmente, quiralidade é um pouco complicado de se definir. É uma propriedade essencialmente quanto-mecântica na qual uma partícula pode ser esquerda ou direita. Vamos, por enquanto, nos concentrar em férmions com spin 1/2. Lembre-se que se você rodar um elétron por 360 graus, você não obtém o mesmo estado quântico: você obtém o mesmo estado com um sinal de menos! Esse sinal de menos está relacionado à interferência quântica. A quiralidade de um férmion te diz como você chega nesse sinal de menos no plano complexo:

O que acontece quando você roda um férmion quiral esquerdo contra um direito por 360 graus ao redor da sua direção de movimento. Ambas partículas terminam com um sinal negativo, mas o férmion de quiralidade esquerda vai por um caminho no plano complexo, enquanto o férmion de quiralidade direita vai por outro. O círculo na direita representa a fase complexa do estado quântico da partícula; enquanto rodamos a partícula, o valor da fase roda ao redor do círculo. Rodar a partícula 360 graus só te leva até metade do círculo por uma direção que depende da quiralidade do férmion.

O sentido físico dessa fase está na função de onda da partícula. Quando você roda um férmion, sua função de onda quântica é deslocada numa maneira que depende da quiralidade do férmion:

Rodar um férmion desloca sua função de onda quântica. Férmions quirais esquerdos e direitos são deslocados em direções opostas. Esse é um efeito puramente quanto-mecânico.

Nós não precisamos nos preocupar muito sobre o sentido desse deslocamento de fase na mecânica quântica. A conclusão é que quiralidade é relacionada de uma forma “profunda” a uma propriedade quântica. Nós vamos ver abaixo que a noção de quiralidade tem efeitos mais dramáticos quando introduzimos massa.

O procedimento geral sendo descrito nas duas últimas seções pode ser entendido em termos de teoria de grupos. O que estamos afirmando é que partículas massivas e com massa zero se transformam sob representações diferentes do grupo de Poincaré. A noção de quiralidade do férmion se refere aos dois tipo de representações de spin 1/2 não equivalentes do grupo de Poincaré. Na breve discussão acima, eu tentei explicar a diferença olhando para o efeito de uma rotação em torno do eixo z, que nesse caso é gerado por \pm \sigma^3/2

A mensagem que se deve levar para casa é que partículas com quiralidades diferentes são realmente partículas diferentes. Se nós temos uma partícula com helicidade esquerda, então nós sabemos que deve existir também uma versão da partícula com helicidade direita. Contudo, uma partícula com quiralidade esquerda não precisa ter um parceirdo com quiralidade direita. Continuem comigo, pois é agora que a mágica do Higgs aparece no Modelo Padrão.

Teorias quirais

Uma característica curiosa do Modelo Padrão é que ele é uma teoria quiral, o que significa que partículas com quiralidade esquerda e direita se comportam de forma diferente. Em particular, o bóson W só vai falar com elétrons (elétrons esquerdos e anti-elétron direitos) e se recusa a falar com pósitros (pósitrons direitos e anti-pósitrons esquerdos). Você deve parar e pensar sobre isso por um momento: a natureza discrimina entre partículas quirais esquerdas e quirais direitas (biólogos, claro, estão bem familiarizados com esse fenômeno na “quiralidade” dos aminoácidos).

Note que a natureza é ainda, em um certo sentido, simétrica em relação a helicidades esquerda e direita. No caso em que tudo tem massa zero, a quiralidade e helicidade da partícula são as mesmas. O W vai se acoplar tanto a partículas de helicidade esquerda quando direita: o elétron ou o anti-elétron. Contudo, ele ainda ignora os pósitrons.

A diferença entre quiralidade e helicidade é um dos pontos sutis quando se começa a aprender teoria de campos. A diferença matemática pode ser vista simplesmente olhando para os projetores de helicidade e quiralidade. Intuitivamente, helicidade é algo que pode ser medido diretamente (através do momento angular) enquanto quiralidade é associado com a transformação sob o grupo de Lorentz (e.g. a fase quanto-mecânica sob rotação).

Para realmente carregar essa conclusão para casa, deixe-me re-apresentar duas partículas para você: o elétron e o pósitron. Você já deve saber que o pósitron é o anti-parceiro do elétron… mas, por enquanto, vamos fingir que você não sabe isso. O elétron tem quiralidade esquerda, enquanto o pósitron tem quiralidade direita. São partículas completamente diferentes:

Elétrons (quiralidade esquerda) e pósitrons (quiralidade direita) são duas partículas completamente diferentes, como evidenciado pelo bigode do pósitron.

Quão diferentes são essas partículas? Bem, o elétron tem carga elétrica -1, enquanto o pósitron tem carga elétrica +1. Além disso, o elétron pode se acoplar a um neutrino através de um bóson W, enquanto o pósitron não pode. Por que o W só fala com o elétron (esquerdo)? Essa é apenas a maneira como o Modelo Padrão é construído; o elétron esquerdo é carregado na força fraca enquanto o pósitron direito não é. Note que, nesse ponto, até o elétron e o anti-pósitron não são a mesma partícula! Apesar de ambos terem a mesma carga elétrica e quiralidade, o elétron pode falar com o W, enquanto o anti-pósitron não.

Por agora vamos assumir que todas essas partículas tem massa zero e que os estados com quiralidade bem definida podem ser identificados com seus estados de helicidade. Mais ainda, nesse estágio o elétron tem sua própria anti-partícula (o “anti-elétron”) a qual tem quiralidade direita e que se acopla com o bóson W. O pósitron também tem uma anti-partícula diferente, o “anti-pósitron”, que tem quiralidade esquerda mas que não se acopla ao bóson W. Nós então temos quatro partículas (sem contar as quatro helicidades possíveis):

O elétron, o anti-elétron, o pósitron e o anti-pósitron. Anti-partículas são desenhadas com um bronzeado levemente esverdeado. É essencial que o elétron e o anti-pósitron são duas partículas diferentes.

O elétron com helicidade esquerda e direita e o anti-pósitron com helicidade esquerda e direita são as quatro componentes do espinor de Dirac [N.T. na representação quiral] para o objeto que normalmente chamamos de elétron (na base de massa). De forma similar, o anti-elétron com helicidade esquerda e direita e o pósitron com helicidade esquerda e direita formam o conjugado de Dirac do espinor, o que representa o que normalmente se chama de pósitron (na base de massa).

Nós estamos distorcendo a nomenclatura usual por uma questão pedagógica – as coisas que chamamos de elétrons e pósitrons e seus anti-parceiros não são o elétron físico no, digamos, átomo de hidrogênio. Nós vamos ver abaixo que as idéias estão conectadas. Por enquanto, a idéia chave é que existem 4 tipos diferentes de partículas:

Nome da partícula Quiralidade Carga elétrica Interage com W? (i.e., é carregado na força fraca?)
Elétron esquerda -1 Sim
Anti-elétron direita +1 Sim
Pósitron direita +1 Não
Anti-pósitron esquerda -1 Não

Nós estamos usando os nomes “elétron” e “pósitron” para distinguir entre as partículas que acoplam com o W e aquelas que não. Na linguagem convencional da física de partículas, essas partículas se chamam elétron esquerdo e elétron direito. Mas eu queria usar uma notação diferente para enfatizar que eles não são relacionados um ao outro por paridade.

[N.T. Acho que vale a pena falar do efeito das transformações discretas de paridade, conjugação de carga e reversão temporal aqui. O efeito sobre cada uma das partículas, a menos de uma fase diferente para cada caso (mas ligadas pelo teorema de CPT), é:

  • Conjugação de carga: troca o elétron pelo pósitron e o anti-elétron pelo anti-pósitron. Como o elétron interage com o bóson W e o pósitron não, vê-se que as o decaimento do W não conserva conjugação de carga. Outra coisa importante é que ela troca a quiralidade, mas preserva a helicidade.
  • Paridade: A helicidade é trocada, mas a quiralidade e o tipo de partícula permanecem os mesmos. O diferente nesse caso é o acoplamento do W. O W “refletido” fala apenas com o pósitron e com o anti-pósitron, mas não com o elétron e com o anti-elétron. Por isso que o decaimento do W também não conserva paridade. Note que o decaimento do W é o mesmo se aplicarmos conjugação de carga e paridade seguidamente, isso porque a primeira muda elétron para pósitron e a segunda muda o acoplamento do W para falar apenas com pósitron e não com elétrons, ficando a mesma coisa no final.
  • Reversão temporal: nem a quiralidade nem a helicidade muda.]

Massa mistura partículas diferentes

Agora aqui está o passo mágico: massa causa uma “mistura” de partículas diferentes.

Lembre-se que a massa pode se entendida como uma partícula “batendo contra o valor esperado no vácuo (VEV) do bóson de Higgs“. Nós desenhamos cruzes nas linhas de férmions dos diagramas de Feynman para representar a interação de uma partícula com o VEV do Higgs, onde cada cruz é, na verdade, uma linha de Higgs. Deixe-me mostrar explicitamente que partículas estão aparecendo nesses diagramas:

Um elétron propagando no espaço e interagindo com o campo de Higgs. Note que o termo de massa induzido pelo Higgs conecta um elétron com um anti-pósitron. Isso significa que os dos tipos de partícula exibem uma mistura quântica

Isso é muito importante; duas partículas completamente diferentes (o elétron e o anti-pósitron) estão mudando alternadamente. O que isso significa? A coisa física que se propaga pelo espaço é uma mistura de duas partículas. Quando você observa uma partícula num ponto, ela pode ser um elétron, mas se você observar um momento depois, a mesma partícula se manifesta como um anti-pósitron! Isso deve soar bem familiar, é exatamente a mesma história da mistura dos neutrinos ou da mistura de mésons.

Vamos chamar essa partícula propagante de elétron físico. O elétron na base de massa pode ser tanto um elétron como um anti-pósitron quando você o observa; é uma mistura quântica dos dois. O bóson W só interage com o elétron físico através da sua componente elétron e não interage com a componente anti-pósitron. De forma similar, nós podemos definir um pósitron físico o qual é uma mistura do pósitron com o anti-elétron. Agora eu preciso clarear a linguagem um pouco. Quando as pessoas se referem usualmente a um elétron, o que elas realmente querem dizer é o elétron na base de massa, não “o elétron que interage com o W”. É mais fácil ver isso na figura abaixo:

O elétron físico (que é o que as pessoas querem dizer quando falam elétron) é uma combinação de um elétron e de um anti-pósitron. Note que o elétron e o anti-pósitron tem interações diferentes (e.g. o elétron interage com o bóson W); o elétron físico herda as interações de ambas partículas.

Note que pode-se dizer que o elétron físico e o pósitron físico são antipartículas uma da outra. Isso é claro já que as duas partículas que são combinadas para formar o elétron físicos são as antipartículas das duas partículas combinadas para formar o pósitron físico. Além disso, vamos fazer uma pausa para frisar que em toda discussão acima, poderia-se ter substituído o elétron e o pósitron por qualquer outra partícula de matéria do modelo padrão [N.T. exceto o neutrino, como frisado no texto original e, no caso dos quarks, há uma complicação extra devido à matriz de CKM]

A analogia com a mistura de sabor deve ser levada literalmente. Essas são partículas diferentes que propagam de uma para outra exatamente da mesma forma que diferentes sabores são diferentes partículas que se propagam de uma para outra. Note que o ângulo de mistura depende do momento da partícula e só é 45 graus quando a partícula está parada [N.T. Discussão confusa suprimida no início dessa caixa e alguns termos mudados para ficar mais preciso em comparação ao texto original]. Além disso, o elétron físico agora contém o dobro do número de graus de liberdade do elétron e do anti-pósitron. Isso é só a observação que um espinor de Dirac com quatro componentes combina os dois espinores de Weyl de duas componentes.

Quando se aprende teoria quântica de campos, em geral se ignora esses detalhes porque pode-se trabalhar diretamente na base de massa onde todos os férmions são espinores de Dirac e todas as inserções de massa são somadas nos propagadores. Contudo, a estrutura quiral do Modelo Padrão está nos dizendo que a teoria fundamental é escrita em termos de espinores de Weyl de duas componentes e que o Higgs induz uma mistura em espinores de Dirac. Para aqueles que querem aprender o formalismo de duas componentes em todos os seus minuciosos detalhes, eu recomendo fortemente o artigo de revisão recente por Dreiner, Haber e Martin.

O que isso tudo tem a ver com o Higgs

Nós já aprendemos que as massas são responsáveis pela mistura entre tipos diferentes de partículas. Os termos de massa combinam duas partículas a priori (elétron e anti-pósitron) em uma única partícula (elétron físico). A razão pela qual nós passamos essa embromação é para dizer que, comumente, duas partículas sem relação não querem se misturar entre si.

A razão para isso é que partículas só podem se misturar se elas carregam as mesmas propriedades quânticas. Você vai notar, por exemplo, que ambos elétron e anti-pósitron possuem a mesma carga elétrica (-1). Seria impossível para um elétron e um anti-elétron se misturar porque eles tem carga elétrica diferente. Contudo, o elétron carrega a carga fraca porque ele se acopla com um bóson W, enquanto o anti-pósitron não carrega carga fraca. Então essas duas partículas não deveriam ser capaz de se misturar. No jargão, diríamos que esse termo de massa é proibido por invariância de calibre, onde a palavra calibre se refere ao fato que o W é um bóson de calibre. Essa é a consequência do Modelo Padrão ser uma teoria quiral.

A razão pela qual essa mistura improvável é possível é o VEV do Higgs. O Higgs carrega carga fraca. Quando ele obtém um valor esperado no vácuo, ele “quebra” a conservação de carga fraca e permite que um elétron se misture com um anti-pósitron, embora eles tenham carga fraca diferentes. Ou, em outras palavras, o vácuo do Higgs “absorve” a diferença de carga fraca entre o elétron e o anti-pósitron.

Mas então o mistério do bóson de Higgs continua. Primeiro [N.T. Em outros posts do blog US-LHC] nós dissemos que o Higgs, de alguma forma, dá massa às partículas. Nós dissemos que essas massas são geradas pelo valor esperado no vácuo do Higgs. Nesse post nós fizemos um grande desvio para explicar o que essa massa realmente é, e tivemos uma exemplo do porquê o VEV do Higgs é necessário para permitir essa massa. O próximo passo é contemplar como o Higgs consegue obter um valor esperado no vácuo e como isso “quebra” a carga fraca. Esse fenômeno é conhecido como quebra espontânea de simetria, e é uma das principais motivações para teorias de nova física além do Modelo Padrão.

Massas de Majorana

Certo, isso é realmente fora da nossa discussão principal, mas eu me sinto obrigado a mencionar. O tipo de massa que nós discutimos acima é chamada de massa de Dirac. É um tipo de massa que conecta duas partículas diferentes (elétron e anti-pósitron). É também possível ter uma massa que conecta dois tipos da mesma partícula, e isso é chamado de massa de Majorana. Esse tipo de massa é proibido para partículas com qualquer tipo de carga elétrica [N.T. ou qualquer outra que não é espontaneamente quebrada]. Por exemplo, um elétron e um anti-elétron não podem ser misturados porque eles têm carga elétrica oposta, como discutido acima. Contudo, existe um tipo de partícula de matéria no Modelo Padrão que não tem qualquer carga: o neutrino! (O neutrino tem carga fraca, mas essa é “absorvida” pelo vácuo).

Dentro do Modelo Padrão, massas de Majorana são especiais para os neutrinos. Elas misturam neutrinos com anti-neutrinos de forma que o neutrino físico é sua própria anti-partícula (numa linguagem chique diríamos que o neutrino físico é um espinor de Majorana ou apenas um espinor de Weyl). Também é possível que os neutrinos tenham ambas massa de Dirac e Majorana (a massa de Dirac exige então uma versão do neutrino com bigode, equivalente ao pósitron no caso do elétron). Essa existência teria consequências interessantes. Como sugerido acima, a massa de Dirac é associada com a não-conservação de carga fraca devido ao Higgs, então massas de Dirac são tipicamente “pequenas” (a natureza não gosta quando coisas que deveriam ser conservadas não são). Massas de Majorana, por outro lado, não causam nenhuma não-conservação e podem ser arbitrariamente grande. Essa “gangorra” [N.T. do inglês see-saw] entre as duas massas pode levar a uma explicação natural porque o neutrino físico [N.T. que agora é uma mistura do neutrino, do anti-neutrino, do neutrino “de bigode” e do anti-neutrino “de bigode”] são tão mais leves que qualquer outro férmion do Modelo Padrão, embora por enquanto essa seja uma conjectura fora do alcance dos experimentos atuais.

Categorias:Ars Physica

Ciência aberta

segunda-feira, 20 jun 2011; \25\America/New_York\America/New_York\k 25 3 comentários

Recentemente eu vi esse TED talk, por Michael Nielsen:

cujo tema é ciência colaborativa e ciência aberta. Ele começa relatando o sucesso que foi a iniciativa do projeto Polymath, liderada por Tim Gowers, que propôs um esforço colaborativo em seu blog resolver problemas matemáticos. O sucesso da iniciativa pode ser medido pelos vários artigos científicos que foram gerados.

Nielsen então relata outros tantos projetos de ciência colaborativa que, no entanto, falharam. Ele aponta como diferencial do projeto Polymath o produto final, que não era o conhecimento científico gerado, mas o artigo publicado.

Esse talk gera muitas perguntas interessantes, principalmente…

Ainda precisamos do modelo de artigos em revistas arbitradas?

Como funciona o modelo atual de produção científica? Funciona assim: você faz um trabalho e submete um resumo do seu trabalho para uma revista arbitrada. Essa revista é paga, seja pelas pessoas que vão ler ou pelas pessoas que vão publicar, para fazer o processo de edição e arbitragem. Os árbitros, mas principalmente os editores, são pessoas de reputação na área da revista. Então, a moeda de troca é reputação do editor por dinheiro da revista. Já que a reputação dos editores e árbitros da revista estão em jogo, o processo de revisão é acreditado pela comunidade científica que passa a dar um valor ao artigo aceito. Esse valor agregado pela revisão é a moeda de troca do cientista quando ele vai procurar emprego ou financiamento para sua pesquisa.

Mas é o dinheiro da revista que realmente dá valor ao trabalho ou seu conteúdo? Vou dar alguns exemplos históricos, que embora pontuais, vão mostrar um pouco do que está na minha cabeça.

O primeiro exemplo que eu quero dar é do Alexander Grothendieck. Embora a maioria dos leitores talvez nunca tenham ouvido falar nele, ele é um matemático muito famoso tendo criado o que entendemos hoje por geometria algébrica. Os trabalhos dele são impressionantes e praticamente nenhum foi publicado em revistas arbitradas. Eles apareciam em proceedings de reuniões em que eram apresentados e, dado a importância que ganharam, foram posteriormente publicados como lecture notes pela Springer.

Se os trabalhos dele nunca foram arbitrados, como podemos saber que eles são bons? A resposta, para mim, é simples. As pessoas que lêem esses trabalhos não são idiotas. Se você não consegue avaliar um trabalho na tua área, você nem deveria estar trabalhando nessa área, quanto mais se chamar de cientista.

Eu já estou até ouvindo as pessoas contra-argumentando que o Grothendieck é uma pessoa peculiar, com visões políticas bem extremas e, além disso, um gênio. É, tudo isso é verdade, mas nada invalida o ponto. Outras pessoas talvez estejam pensando: “Vamos simplesmente publicar tudo? Isso é impossível!”. Talvez fosse impossível quando o Grothendieck estava publicando seus trabalhos, hoje não mais.

O que me faz chegar no segundo exemplo que quero dar, o arXiv. Esse a maioria dos leitores deve conhecer. É um servidor de pre-prints (isto é, artigos antes do processo de arbitragem) que muitos físicos, matemáticos e algumas pessoas de outras áreas usam com frequência. É, hoje, a maneira mais rápida de divulgar resultados e, dada a velocidade com que a ciência avança hoje em dia, é necessário. Se você acompanha os artigos no arXiv com a mesma assiduidade que eu, você já deve ter visto alguns exemplos de “conversas” entre artigos numa velocidade que seria impossível de acontecer se fôssem esperar a publicação numa revista.

Quando o Paul Ginsparg acordou um dia e resolveu criar o arXiv, eu tenho certeza que ele não tinha noção do tamanho que esse servidor teria hoje e nem a revolução que causou na forma como divulgamos ciência. O arXiv fez com a dinâmica de publicações científicas o que o Linux fez com sistemas operacionais. Claro que algumas pessoas vão insistir em usar o Windows – e aqui a Nature me vem a cabeça imediatamente – mas essas coisas são múmias que estão se desintegrando aos poucos.

O problema do arXiv é que o artigo não é arbitrado, não há ninguém que coloca sua reputação em risco para dar sua opinião sobre um artigo porque é pago para isso. Quero fazer duas perguntas que acho que podem ser um início de discussão nos comentários desse tópico: Você teria algum problema em avaliar um artigo da sua área? e, caso você estivesse avaliando um pesquisador, mas não um trabalho, Você consideraria uma avaliação feita por um profissional que não está sendo pago por uma revista como um critério pior?

Eu, pessoalmente, não tenho nenhum problema em avaliar artigos da minha área. Simplesmente porque eu faço isso todo dia. Quando alguém publica (no arXiv :P) um artigo sobre a área em que eu estou trabalhando nesse momento, eu sou, na prática, obrigado a ler para me manter informado do que está acontecendo e nesse processo de leitura, sim, eu avalio o artigo. Mais do que isso, quando eu tenho uma dúvida ou uma crítica, eu imediatamente escrevo para os autores para iniciar um diálogo. Nesse momento em que estou escrevendo esse post, tenho duas conversas em aberto sobre artigos recentes. E, se o arXiv tivesse uma área para avaliações, eu não teria qualquer problema em divulgar minha avaliação.

A internet é perfeita para esse tipo de troca dinâmica de informação. O que o projeto Polymath fez com um tópico de pesquisa, seria feito com todos os trabalhos científicos produzidos. Claro que isso só funcionaria se essas avaliações começassem a ser levadas em conta como moeda de valor para o trabalho do cientista e aqui é necessário responder a segunda pergunta. Eu vou apelar para o mesmo argumento que usei acima: se você não é capaz de avaliar uma avaliação de um trabalho da tua área é melhor que você mude de área. Eu sei que pareço agressivo ao dizer isso, mas é verdade. Eu não acho uma avaliação sigilosa, oculta e anônima de uma revista arbitrada é melhor que uma avaliação aberta e pública onde eu posso ver e qualificar, eu mesmo, os argumentos usados.

O dinamismo criado por um modelo de publicação científica nessas linhas traria um benefício imenso à prática científica. O terceiro exemplo que quero citar é o que aconteceu com o caso do estudo da variante da E. Coli que causou mortes recentemente na Alemanha. O blog Rainha Vermelha descreveu muito bem o que aconteceu. Como na biologia “não-quantitativa” não existe algo similar ao arXiv, os cientistas começaram a divulgar seus resultados em blogs. Não porque eles queriam, mas porque eles precisavam.

Um outro exemplo é o tópico do meu último post aqui no AP, sobre a massa invariante do par de jatos em eventos Wjj medidos pelo CDF e D0 (aparentemente o CMS e Atlas estão perto de uma confirmação de um dos dois resultados). O primeiro artigo do CDF gerou muito interesse e questionamentos. Rapidamente, em poucos dias, vários artigos apareceram no arXiv comentando o resultado, a maioria descrevendo possíveis explicações para o fenômenos. Poucos foram os que levantaram discussões sobre a medida, no espírito do que seria uma revisão arbitrada. Esse papel foi preenchido, novamente, por diversos blogs que comentaram sobre o assunto. Eu não acho que a maioria dos leitores acompanharam essa história tão de perto quanto eu, mas se vocês acompanharam, devem ter percebido que a webpage que o CDF usou para divulgar a atualização da medida com mais dados respondeu especificamente os questionamentos que surgiram. Foi, efetivamente, um processo de revisão aberto e, em praticamente todos insitutos de física do mundo, tanto o artigo original, quanto os argumentos dos blogs, quanto a página com a atualização, foram usadas para discussões. Ou seja, o benefício foi não somente para o projeto de pesquisa mas também para o processo de educação científica.

Nada disso seria possível com a dinâmica tradicional de artigos. Eu vejo isso tudo como um indício de que, em breve, o modelo de publicação vai ter que ser mudado devido as mudanças na forma com que ciência vai ser feita e junto vai ser mudado a forma como avaliamos o trabalho do cientista. Mas, claro, isso pode ser apenas um ideal.

Categorias:Ars Physica
%d blogueiros gostam disto: