Archive

Archive for agosto \19\UTC 2012

Cotas para universidades públicas federais e ensino médio brasileiro

domingo, 19 ago 2012; \33\UTC\UTC\k 33 21 comentários

Eu queria chamar atenção para diversas coisas que tem acontecido recentemente:

  1. PLC 180/2008 (Senado) e PL 73/1999 (Câmara)
  2. Resultados do Ideb 2011 (INEP/MEC)
  3. Desempenho de cotistas fica acima da média (Estadão)
  4. MEC quer aulas de reforço para cotistas em universidades federais (O Globo)
  5. [link extra, não comentado abaixo, mas relevante: MEC vai propôr a fusão de disciplinas do Ensino Médio (Folha de São Paulo)]

Todos eles são diretamente sobre a atual situação e mudanças no ensino público brasileiro. Eu vou fazer um passeio por cada um deles, na ordem acima, tentando mostrar o absurdo que está sendo desenhado e a falta de esperança que isso me dá no futuro do nosso país.

Os primeiros artigos se referem à aprovação pelo Senado Brasileiro de um Projeto de Lei da Câmara proposto em 1999, de autoria da Sra. Nice Lobão, que reserva 50% das vagas em universidade pública federais para alunos que estudaram o ensino médio integralmente em escola pública.

Eu não sou contra medidas afirmativas. Mas, ensino superior não é escola. Escola é até o ensino médio. Curso superior é para formar profissionais de alto nível e é um investimento que, pelo menos em princípio, é caro demais para ser feito errado. O que se vê no Brasil é uma inversão dessa idéia: muita gente vai para universidade só pelo diploma e a grande maioria das pessoas que se forma terminam trabalhando em empregos que não necessitam a formação que receberam. Além disso, o investimento é muito aquém do que eu considero necessário. Então já estamos começando errado.

Ser educado é uma necessidade do cidadão. Eu realmente acredito que uma pessoa só exerce plenamente sua cidadania se for educado. Por outro lado, ser um físico especialista em AdS/CFT, um engenheiro projetista de pontas em concreto protendido ou um neuro-cirurgião é não necessidade para ninguém exercer cidadania. É, contudo, uma necessidade ao país que haja pessoas especializadas nessas áreas e é bom que essas pessoas sejam boas no que fazem, já que esse tipo de atividade costuma ser de alto nível técnico.

Logo, o dinheiro investido numa universidade deve ser investido naquelas pessoas que mostrem motivação e aptidão para serem treinadas nessas atividades. De outra forma, seria jogar dinheiro e tempo das pessoas fora. Mais do que isso, seria correr o risco de não ter profissionais de alto nível técnico no país – e é isso que acontece. Medidas afirmativas no nível superior não servem para criar justiça social. É loucura fazer isso nesse nível. Medidas afirmativas no nível superior servem para consertar casos isolados de pessoas que são realmente muito boas e que de outra forma teriam o talento para essas profissões altamente especializadas desperdiçado.

O que eu quero dizer é que medidas afirmativas no ensino superior não é para servir à pessoa, mas para servir à sociedade. E, me desculpa, precisa ser muito ingênuo ou mal intencionado para achar que colocar 50% das vagas em medidas afirmativas vai ajudar a sociedade de qualquer forma. E eu vou defender o porquê estou falando isso.

Vamos olhar então o segundo link. Ele tem os dados do Ideb, que é uma avaliação do ensino básico (fundamental e médio) brasileiros que é feito desde 1997. A avaliação leva em conta duas coisas: o resultado de provas padrões aplicadas aos alunos no final do 5o ano (antiga 4a série), 9o ano (antiga 8a série) e 3o ano do ensino médio e o nível de abandono e reprovação nas escolas. A página é bem detalhada e você pode gastar bastante tempo olhando os resultados por estado, por município e até por escola! Os resultados também são separados por escolas públicas e particulares, o que serve bem o meu propósito aqui.

A nota é definida da seguinte forma: o resultado da prova padrão é normalizado entre (\mu - 3\sigma, \mu + 3\sigma) onde \mu e \sigma são a média e o desvio padrão das notas dos alunos em 1997. Além disso, cada período escolar avaliado recebe um peso dado por 1/(\sum_k 1/p_k) onde p_k é a taxa de aprovação e a soma k é sobre as séries avaliadas em cada colégio, algo que avalia o tempo médio para um aluno passar de série. O método é interessante mas não permite uma avaliação absoluta do ensino brasileiro, apenas relativa aos anos anteriores. O INEP diz que uma nota 6 seria equivalente à educação em países desenvolvidos, mas eu não faço idéia do que isso significa.

Bem, duas coisas são óbvias dos resultados. Primeiro, desde o início dessa avaliação, os resultados estão estagnados. E aqui eu acho que a desculpa de que educação é um investimento a longo prazo não se aplica mais – 14 anos já é muito tempo! Segundo, o nível das escolas públicas continua sendo por volta de 1.5 pontos abaixo da média, enquanto das escolas particulares em torno de 1 acima. O que é mais triste é que estamos, usando essa estatística descrita acima, 1.3 pontos abaixo do que estávamos em 1997! Ou seja, não só a comparação entre escolas públicas e particulares não mudou, mas na média a educação brasileira piorou.

Dados são sempre muito bem vindos, mas eu realmente não precisava dessa página para saber que o ensino médio público brasileiro é muito ruim. Ou seja, quando você coloca 50% das vagas nas universidades reservadas para essas pessoas, o que você está fazendo é diminuindo o nível das pessoas que entram. É muita vaga, não tem como qualquer pessoa argumentar que as universidades estariam pegando apenas a cauda da distribuição. Mas isso não impede as pessoas de tentarem fazer essa argumentação falaciosa, claro. E isso nos leva ao terceiro artigo.

O jornal O Globo mostra o resultado de políticas de cotas similares que já foram aplicadas em algumas universidades brasileiras e eles tentam argumentar que a nota e nível de desistência dos alunos cotistas é melhor que dos não-cotistas. O argumento é falacioso por várias razões, vamos listar alguns deles:

  • No vestibular, poucos cursos são muito concorridos. A maioria é pouco concorrido e a qualidade média dos alunos que entram já é, mesmo sem medidas afirmativas, muito baixa. Nesses cursos, não faz diferença o tipo de cota proposta para a qualidade dos alunos. Contudo, é injusto tirar a média de cursos muito concorridos, onde a qualidade é boa, com esses cursos. Tudo que você faz é apagar a evidência dos casos problemáticos na média.
  • Desistência de universidade não mede quase nada. O tempo de jubilamento, mesmo por reprovação, costuma ser gigantesco. Não há pressão para desistência de ninguém na universidade. Além disso muitos cotistas recebem auxílio financeiro, o que desfavorece qualquer intenção de desistência.
  • Também posso dizer por experiência de ter vivido numa dessas universidades que adotaram bem cedo um sistema exagerado de cotas que vários cursos tiveram que criar matérias introdutórias para suprir as deficiências dos alunos. Com esse tipo de supletivo fora do lugar é que realmente não há razão para que as notas sejam menores. Não é, pois, em desempenho durante o curso que vai se ver a besteira que está a ser feita. Mas sim na qualidade do profissional que se forma porque, se tempo é usado para revisar matéria do ensino médio, então o conteúdo profissional vai ser prejudicado, seja espremendo-o em cursos mal dados ou mesmo suprimindo-o.
  • E, por fim, convenhamos, vários cursos de início de faculdade não exigem um conhecimento direto do ensino médio. O problema, de novo, não pode ser visto na média pois só surgem naqueles outros que exigem. O artigo mesmo diz que a maior discrepância entre cotistas e não-cotistas aparece nas matérias de matemática e não é difícil entender porque. Novamente, tudo que está sendo feito é esconder o problema em grandes médias.

Mesmo se você ignorar todos os pontos acima, só quem nunca entrou numa sala de aula diria que a diferença observada é significativa. A diferença é muito menor que a variância das notas em qualquer um dos grupos de alunos e eu nem preciso olhar para os dados para ter certeza disso.

O penúltimo ponto acima é, de longe, o mais preocupante. Se as universidades realmente forçassem os alunos com deficiência a se nivelarem sem gastar o tempo que deveria ser dedicado a aprender o conteúdo de ensino superior ou a abandonarem, eu não estaria tão preocupado. Mas não é isso que vai ser feito, como pode ser visto na declaração do MEC reportado pelo último link acima. O MEC declara, com todas as letras, que vai querer que as universidades dêem cursos de ensino médio para suprir as falhas de formação dessas pessoas que entrarão na universidade sem condições.

Eu fico chateado com essas cadeia de eventos que vejo sendo formada na minha frente. Fico desgostoso e pessimista com o futuro da educação brasileira. Eu nunca achei que educação privada faça qualquer sentido. Para mim, educação deveria ser exclusivamente pública pois, como defendi acima, é algo que todo cidadão deve ter para exercer seu papel na sociedade plenamente. Contudo, dada a situação do Brasil, é triste o caso em que a única opção de um aluno seja estudar em escola pública e mais triste ainda quando a única opção de um profissional da licenciatura seja dar aula nesses colégios.

Um país onde os professores de ensino médio público ganham, em fim de carreira, R$2,800.00 (veja aqui) enquanto juízes ganham de R$40,000.00 a R$150,000.00 (veja aqui) está errado em suas bases.

Tem mais é que parar de trabalhar mesmo…

Categorias:Ars Physica

E agora José? Esse Higgs é mesmo o Higgs ou não?

sexta-feira, 17 ago 2012; \33\UTC\UTC\k 33 13 comentários

Antes de mais nada, deixa eu fazer propaganda de duas coisas bacanas que vi na internet recentemente.

Primeiro, um podcast do Caio Gomes e do Rafael Calsaverini sobre a importância da descoberta do bóson Higgs. Tarefa super ingrata, pois o podcast tinha que ser completamente não-técnico (diferente do que eu escrevo aqui, onde me dou certas liberdades técnicas). Mas eles fizeram um bom trabalho – o papo sobre o Higgs começa em torno de 30 minutos, antes disso é só piada.

Alô criançada, o bóson chegou

Tem vários pequenos deslizes que eu posso comentar com o tempo. Mas tem um deslize muito grande, que eu gostaria de comentar aqui. O Tevatron não foi construído para descobrir o bóson de Higgs e é injusto dizer que ele foi uma falha. O primeiro objetivo do Tevatron foi descobrir o quark top e ele o fez. Esse foi o Run I do Tevatron que aconteceu entre 1992 e 1996. A luminosidade integrada entregue a D0 e CDF foi em torno de 160 pb^{-1} o que, como todos sabem, foi suficiente para em 1995 ambas colaborações anunciarem a descoberta desse quark. Os detectores eram bem diferentes naquela época. Por exemplo, o D0 não tinha um solenoide!

Entre 1996 e 2001, ambos os detectores foram modificados para o Run II, que aconteceu entre 2001 e 2011. O D0 recebeu dois novos detectores de tracking (um baseado em fibras cintilantes e um de silício), um preshower (que nunca funcionou muito bem), um solenoide supercondutor de 2T com capacidade de mudar a polaridade e um detector de múons na região frontal. O CDF completou o seu sistema de muons na região central, mudou toda sua câmara de fios (para diminuir o tempo de drifting), construiu o maior detector de silício que existia até antes do LHC (e que deu grandes emoções para eles, um dia eu conto a história), e um novo sistema de calorimetria frontal. Detectores completamente diferentes com propósitos diferentes e um acelerador diferente também: o tempo entre colisões caiu de alguns microsegundos para 132 ns e a energia subiu para quase 2 TeV.

O objetivo das grandes modificações no sistema de tracking (que eram para ser ainda maior, mas não teve dinheiro para tudo) era estudar física de quark bottom. E, novamente, isso foi um sucesso! O CDF foi os primeiro a observar a oscilação do B_s, antes inclusive que experimentos dedicado a física do quark bottom. Muitas medidas do D0 e CDF só estão sendo ultrapassadas agora pelo LHCb.

Os sistemas de identificação de quarks bottom, juntamente com novos cálculos teóricos da seção de choque do Higgs, permitiu que se criasse todo um programa de procura pelo Higgs, principalmente em produção associada WH/ZH decaindo para quarks bottom. E esse programa, apesar das limitações impostas inicialmente nos detectores, também foi de grande sucesso. Usando o canal de WW, foram os primeiros experimentos onde se conseguiu excluir regiões de massa acima do limite do LEP e hoje tem um paper na PRL com uma evidência de 3\sigma justamente nos canais que foram planejados para ter tal evidência. Isso não é um sucesso?

O Run II ainda tinha por objetivo fazer medidas de precisão e a medida da massa do W e da massa do top ainda são mais precisa que as do LHC, mesmo este tendo agora muito mais eventos que o Tevatron. A calibração da escala de energia de jatos para medida da massa do top e da resposta a léptons para medida da massa do W feita no D0 e CDF é ainda a mais precisa já feita na história, mesmo com detectores muito piores que os do LHC (e velhos by now). Eu diria que isso é um grande sucesso.

Então, antes de falar que o Tevatron foi um fracasso, acho que devíamos dar uma olhada em tudo que ele produziu. E isso porque eu não quero nem começar em falar de métodos experimentais. Quem popularizou os MVAs que são usados amplamente no LHC foi D0 e CDF, várias das primeiras análises usando método de elemento de matriz também foram no D0 e no CDF, etc etc etc…

Pronto, ranting mode over.

A segunda propaganda que eu queria fazer é sobre uma série de posts no blog Quantum Diaries. Tem uma editor lá chamado Denis Damazio, quem eu não conheço, que escreve seus posts em inglês e português. E ele obviamente trabalha com o calorímetro do Atlas, que é um sistema de calorimetria muito interessante. Fortemente baseado no calorímetro do D0, mas com modificações para lidar com o intervalo de 25 ns entre colisões que eles planejam ter no LHC (por causa do acidente, eles ainda estão funcionando com 50 ns). Bem, eu não vou gastar mais tempo descrevendo o calorímetro deles, já que o Denis o fez tão bem:

Como um calorímetro funciona, parte 1
Como um calorímetro funciona, parte 2
Como um calorímetro funciona, parte 3

Calorimetria é um assunto que eu gosto muito até porque eu passei meu doutorado inteiro trabalhando com o calorímetro do D0, tanto em hardware, quanto em software online e offline, quanto em análise. Para quem quiser se aprofundar mesmo em calorimetria, essa é a referência canônica:

Calorimetry: Energy Measurement in Particle Physics

Agora que as propagandas e reclamações passaram, vamos falar um pouco de física. No meu último post eu aludi ao fato que, embora seja claro que algo novo foi descoberto, a maioria das pessoas ainda são cautelosas ao associar essa coisa nova ao bóson de Higgs. Note que existe evidências fortes para que esse seja o bóson de Higgs, mas é importante medir todas as suas propriedades antes de dar o carimbo final.

Quais são as propriedades que as pessoas mais querem medir?

Spin: O spin do Higgs no modelo padrão é 0, isto é, ele é um escalar. Na verdade, o primeiro escalar fundamental que, talvez, tenhamos observado. Contudo, nenhuma medida feita até agora permite, de verdade, separar a hipótese de spin 0 da hipótese de spin 2 (a hipótese de spin 1 é descartada pelo teorema de Landau-Yang).

Quando a gente fala em medir spin, a primeira coisa que se pensa é em fazer uma análise angular dos produtos de decaimento. Isso porque, no referencial de centro de massa, a distribuição angular dos produtos do decaimento é dada pela matriz de Wigner para um dado spin e para uma dada helicidade dos produtos.

Idealmente, isso é estudado no decaimento para 2 corpos quando então as helicidades são sempre relacionadas por h_1 = -h_2. No caso do Higgs, contudo, o principal canal de análise seria o decaimento para 4 léptons, já que a direção dos léptons podem ser medidas com precisão muito boa no sistema de tracking. Esse decaimento é um decaimento em cascata através de dois Z e a coisa fica um pouco mais complicada. O seguinte paper faz a análise de como seria essa medida:

Spin determination of single-produced resonances at hadron colliders

Como eu discuti no meu último post, nem sempre podemos realmente chamar o Higgs ou o Z de partículas. Às vezes essa aproximação é boa, às vezes não. Nesse paper eles estudam o caso em que os dois Z são considerados na camada de massa, isso é, como se eles fossem realmente partículas. Esse não é o caso para um Higgs leve, onde um dos Z é sempre muito longe da camada de massa e não obedece a relação M_Z^2 = E^2 - p^2. Na verdade, outros papers, sugerem inclusive usar a distribuição de M_Z medida como uma forma de medir o spin do Higgs:

Identifying the Higgs Spin and Parity in Decays to Z Pairs

Veja na figura abaixo que eu copiei do artigo como as distribuições são diferentes para cada spin:

Medida do spin do Higgs através do decaimento para dois bósons Z medindo a massa dos produtos.

Tem ainda outras propostas mais inusitadas. O artigo

Determination of Spin and CP of the Higgs Boson from WBF

propõe usar a correlação do ângulo azimutal entre dois jatos que às vezes são produzidos junto ao Higgs. Esse modo de produção é chamado de VBF (Vector Boson Fusion). É exatamente o processo inverso ao decaimento para dois Z ou dois W: nesse caso são dois Z ou dois W colidem para produzir o Higgs. Só que então esses bósons vetoriais tem que ser produzidos pelos quarks dentro do próton e, dado que carga de cor se conserva, algo tem que carregar essa carga para o estado final. O que carrega a carga de cor são justamente os dois jatos que o artigo se propõe a usar.

Paridade: O mundo olhado através do espelho não é igual ao nosso mundo. Por exemplo, o que é direito vira esquerdo. Com partículas também acontece isso. Em geral, partículas de spin J, ganham um sinal (-1)^J quando aplica-se o operador de paridade. Essas são as partículas cuja estrutura de Lorentz são descritas por tensores. Mas algumas partículas são descritas por densidades tensoriais, que recebem um sinal extra na transformação de paridade. Em física de partículas, as pessoas chamam isso de paridade intrínsica. E, no Modelo Padrão, a paridade do Higgs é +1.

Bem, num decaimento que preserva paridade é fácil determinar qual é o caso do Higgs. Todos os artigos citados acima sugerem usar distribuições do ângulo azimutal dos léptons no decaimento do Higgs para medir essa propriedade e desconfio que seja assim que a paridade intrínsica do Higgs vá ser medida. Da mesma forma que desconfio que é a através da distribuição de massa que vão medir o spin. Contudo, nenhum desses dois métodos usa toda a informação disponível nos eventos. Para isso, a análise tem que ser feita evento a evento, usando o método de elemento de matriz e eu gostaria muito de ver essa análise feita (na verdade, eu gostaria muito de fazer, mas eu tenho certeza que já tem muita gente fazendo e não é tão fácil assim de qualquer jeito).

Fração de decaimento: Essa talvez seja a propriedade mais simples de se medir e a que deve ter atualizações mais rápidas. A idéia é medir com que probabilidade o Higgs decai para cada um dos estados finais possíveis e ver se o número bate com o Modelo Padrão. Até agora, as únicas frações de decaimento medidas no LHC foram para WW, ZZ e dois fótons. As medidas para férmions ainda não foram possíveis, apesar de terem sido tentadas pelo CMS. A única medida com relativa sensibilidade feita para férmions foi justamente a feita no D0 e CDF recentemente.

Mas isso vai ser feito, inclusive em canais que, apesar de serem de grande resolução, nunca foram usados, como o Z\gamma (veja, por exemplo, Looking for a light Higgs boson in the overlooked channel). Essas medidas são uma forma de confirmar que o acoplamento do Higgs com outras partículas é mesmo proporcional à massa, como deve ser no mecanismo de quebra espontânea de simetria.

Auto-interação do Higgs: O Higgs não só interage com todos os outros campos, como interage com si mesmo. E faz isso mesmo classicamente, no sentido que na ação no modelo padrão tem um termo de interação quártica para o campo do Higgs. Essa auto-interação também é imprescindível para o mecanismo de quebra de simetria eletrofraca, já que é ela que determina que o valor do campo do Higgs não é nulo no vácuo.

Agora, medir isso no LHC é muito difícil. Eu não costumo duvidar da ingenuidade dos físicos experimentais – no passado tivemos exemplos de coisas que nunca poderiam ser feitas mas foram mesmo assim. Mas a maioria das pessoas acredita que mesmo com 3000 fb^{-1} a 14 TeV, a possibilidade de fazer essa medida não é certa. Para essa medida, o ideal é usar um colisor mais limpo, como os propostos ILC e CLiC que colidem elétrons e pósitrons, em vez de prótons. A idéia seria medir decaimentos do tipo H\rightarrow HH\rightarrow WWWW, que são muito raros e difíceis de identificar.

Novas idéias tem surgido. Uma seria fazer um LEP3 (veja LEP3: A High Luminosity e+e- Collider to study the Higgs Boson) no tunel do LHC. Ele usaria o CMS e Atlas e economizaria muito dinheiro. Outra idéia também interessante é criar um colisor de fótons para estudar o Higgs (veja aqui: SAPPHiRE: a Small Gamma-Gamma Higgs Factory), usando o processo inverso de decaimento para dois fótons. Nesse caso, ainda é necessário construir um acelerador de elétrons, mas em vez de deixar eles coliderem, se joga um laser no feixe e se usa o espalhamento Compton com grandes ângulos para gerar fótons de alta energia e fazê-los interagir.

O futuro da física de Higgs é muito rico e há uma possibilidade grande de se aprender mais sobre a física de altas energias medindo com precisão as quatro coisas descritas acima.

Categorias:Ars Physica

A descoberta do Higgs.

quinta-feira, 2 ago 2012; \31\UTC\UTC\k 31 3 comentários

Anteontem finalmente se tornaram públicos os artigos científicos da descoberta do bóson Higgs anunciada dia 4 de julho, no CERN (o link tem inclusive o vídeo desse anúncio histórico). Ei-los:

Observation of a new particle in the search for the Standard Model Higgs boson with the ATLAS detector at the LHC

Observation of a new boson at a mass of 125 GeV with the CMS experiment at the LHC

Ambos foram enviados para publicação na Physics Letters B e devem aparecer em breve. Meu objetivo aqui, contudo, não é apenas fazer esse anúncio, mas tentar explicar alguns conceitos que acho que pessoal não explica muito bem. A maioria deles eu já expliquei aqui no blog no passado, mas nunca faz mal falar de novo.

Que história é essa de o Higgs dar massa para as partículas?

O Higgs não dá massa para partículas, mas sim torna possível que elas tenham essa massa. O importante é entender porque então eles não deveriam ter massa em primeiro lugar.

Em teoria quântica de campos, a não ser que você tenha uma boa razão, todos os campos deveriam ser massivos e com massa na ordem de grandeza da validade da teoria. Contudo, o Modelo Padrão tem como princípio organizador o fato que as interações são descritas por teorias de gauge. E, em teorias de gauge pura, os bósons vetoriais fundamentais de gauge não tem massa. Logo, existe uma boa razão para os campos vetoriais não terem massa mas alguns deles tem, como o W e o Z. A diferença entre um bóson vetorial com massa para um sem massa é a componente longitudinal de polarização, que só existe no caso massivo.

Férmions espinoriais de Dirac (quarks e leptons) são campos diferentes porque são na verdade dois, o campo quiral e o anti-quiral. No Modelo Padrão, essas componentes tem carga (não elétrica, mas da força nuclear fraca) diferente e não podem ser misturadas. Se esse tipo de campo tivesse massa, essas duas componentes se misturariam. Logo também existe uma boa razão para os férmions espinoriais de Dirac não terem massa.

O Higgs resolve esses dois problemas. O campo de Higgs tem 4 componentes. 3 delas funcionam como componente longitudinal de polarização para o W+, W- e para o Z. A quarta componente gera justamente a partícula que foi encontrada. Além disso, na presença do campo de Higgs, o vácuo tem carga fraca não nula. Assim, o vácuo pode suprir a diferença de carga entre as componentes quirais e anti-quirais dos férmions espinoriais de Dirac.

A única partícula para qual não existe uma boa razão para ter massa zero, ou pelo menos muito baixa, é o próprio bóson de Higgs. O Higgs é um escalar e logo não possui componentes quirais, nem graus de liberdade de polarização. Logo, o Higgs deveria ter uma massa muito grande, na escala de validade do Modelo Padrão e, comparado a essa escala, o Higgs é bem leve. Esse é chamado de problema da hierarquia e nenhuma solução proposta (supersimetria sendo a mais famosa) parece ser a escolhida pela natureza.

O Higgs foi mesmo produzido? Existe mesmo uma partícula de Higgs?

Mais ou menos e vamos entender porque mais ou menos. Existir, ela existe, mas não no mesmo sentido que um elétron existe. Essa seção pode ficar técnica muito rápida, então vou usar umas analogias que, embora corretas, são um pouco forçadas. Em teorias quânticas, devido ao princípio de incerteza de Heisenberg, interações que acontecem muito rápido não precisam respeitar exatamente a equação de Einstein E^2 = m^2 + p^2 porque intrinsicamente impossível saber a energia com precisão.

Apenas quando se observa uma partícula por muito tempo é que, assintoticamente, essa relação vai ser obedecida. Bem, no caso de partículas instáveis, como o Higgs, isso não acontece porque ele decai rapidamente e o próprio conceito de ser assintótico não é bem definido. O tempo de decaimento do Higgs é em torno de 10^{-22}s que é muito curto nas escalas humanas.

Claro que usar escalas humanas não é o adequado para dizer se algo é rápido ou não. O que se usa em física é converter esse tempo para uma energia (\hbar/\Delta t) e converter a massa para uma energia (mc^2) e daí usar a massa da partícula como escala. E, usando essas conversões, o tempo de decaimento é 5 ordens de grandeza maior que a massa! Ou seja, o conceito de partícula de Higgs é razoável em várias situações e é por isso que você ouve frases como “a probabilidade de se gerar uma partícula de Higgs no LHC é…”.

Na realidade, o Higgs aparece mesmo é como uma ressonância: como um aumento na seção de choque da produção de outras partículas. E é isso que se faz no LHC, se estuda a interação entre glúons dentro do próton quando um certo estado final de partículas é produzido. Alguns desses estados finais são modificados pelo Higgs. Apesar de ser um fenômeno de ressonância, a contribuição do Higgs para esses processos ainda é muito menor que a contribuição de outros campos e é por isso que fica tão difícil estudar as propriedades do bóson de Higgs.

Grande parte do design no LHC foi motivado por isso. Por exemplo, a idéia de se ter uma energia muito alta é estar mais perto da ressonância. A idéia de se ter uma intensidade do feixe muito grande é poder distinguir com certeza contribuições muito pequenas à seção de choque. As interações mais interessantes de se estudar são aquelas em que todo o estado final pode ser medido e em que a contribuição de outros campos não é tão grande assim. Dois estados finais são realmente relevantes então: a produção de dois fótons H\rightarrow \gamma \gamma e de quatro léptons (elétrons ou múons) H\rightarrow 4\ell. Nesse sentido, tanto ATLAS quando CMS tem como maior especialidade a identificação e medida do momento de fótons, elétrons e múons de altas energias.

Foi mais fácil ou mais difícil do que inicialmente imaginado?

Bem, com certeza demorou mais do que eu esperava. A principal razão foi o acidente em 2008 que atrasou o início das operações do LHC e que limitou a energia dos prótons a metade do que se esperava inicialmente. Para compensar, o pessoal do LHC começou a colidir vários prótons de uma vez só, porque assim, na prática, a probabilidade de acontecer a produção de um desses dois estados descritos acima é maior.

O que acontece é que cada vez que esses estados finais são produzidos, outras muitas coisas também são e em lugares diferentes em torno do centro do detector. Daí, várias questões experimentais começam a surgir. Por exemplo, vamos dizer que você observou um fóton e mediu a energia dele. Para medir o momento você ainda precisa da direção, mas fóton não deixa traço no detector porque não é eletricamente carregado. Como saber de qual das interações ele veio?

Outro problema é na própria identificação dessas partículas. Por exemplo, um elétron ou fóton no calorímetro é muitas vezes identificado pelo formato do chuveiro. Mas esse formato é duramente alterado pela presença das partículas vindas das outras interações. Múons são bem resilientes a esse problema e, em vários aspectos, fornecem as medidas mais precisas. Por outro lado, neutrinos são muito sucetíveis a esse problema, pois são medidos por conservação de momento na interação. Com mais interações, a capacidade de se fazer essa medida piora e é por isso que estados finais com neutrinos são usados apenas marginalmente.

E como é feita essa procura? E como se sabe que foi uma descoberta?

Como é feito a procura depende muito do tipo de estado final que se está observando e cada colaboração ainda faz escolhas bem diferentes para um mesmo canal. Talvez uma das análise mais simples seja o H\rightarrow \gamma\gamma do ATLAS. Essa é a distribuição de massa invariante do sistema de dois fótons (não, a massa invariante de dois fótons não é zero, apesar da massa de cada um individualmente ser… um efeito interessante da relatividade de Einstein):

É óbvio que são produzidos muito mais fótons do que no gráfico (concentre-se no vermelho, por enquanto). Esse gráfico mostra, dentre aqueles fótons que são efetivamente identificados e medidos, os que são seleciados numa região em que a contribuição do Higgs para produção é mais forte. No gráfico é claro que há um aumento da produção, um excesso de eventos, uma ressonância, em torno de 126 GeV. Isso é devido ao Higgs. Mas note como esse aumento, mesmo depois de um exercício de seleção e identificação intenso, é pequeno comparado ao número total de estados finais com dois fótons produzidos.

O que se faz então é estudar com que chance esse pequeno excesso poderia ter sido produzido por uma flutuação estatística na hipótese em que o Higgs não existe. Então, se cria um modelo para a produção de fótons na ausência de Higgs e um na presença. Nesse caso específico, o modelo é completamente ad-hoc. Para a hipótese sem o Higgs, o modelo é um polinômio de quarta ordem e, na hipótese de presença de Higgs, soma-se a isso uma função crystal ball. No canal H\rightarrow 4\ell, os modelos são os previstos por teoria quântica de campos incluindo os efeitos do detector.

Uma função de verosimilhança é calculada entre esses modelos e o sinal, considerando que a distribuição de cada ponto no histograma é Poisson. Incertezas sistemáticas são introduzidas por uma técnica semi-bayesiana chamada profile likelihood. É semi-bayesiano porque, tal como numa aboradagem bayesiana, as incertezas sistemáticas são introduzidas através de priors. Esses priors são quase sempre distribuições simples (normais, log-normais,…) que refletem essencialmente a incerteza com que a origem da flutuação sistemática foi determinada. Contudo não é completamente bayesiano porque esses priors não são marginalizados. O que se faz é maximizar a função de verosimilhança, originalmente em função da massa do Higgs e da seção de choque de produção, também em função dos parâmetros de nuisance. No fim, é como se esses parâmetros fossem determinados como função da massa do Higgs e não como se a massa do Higgs fosse determinada como uma média ponderada sobre esses parâmetros, que é a abordagem bayesiana.

Depois dessas contas você tem um valor para o profiled likelihood nas duas hipóteses. Devido ao lema de Neyman-Pearson, a melhor estatística de teste para separar as duas hipóteses é a razão entre os likelihoods da hipótese alternativa e da hipótese nula. Essa razão segue uma distribuição de probabilidade que é diferente no caso o Higgs existir e no caso dele não existir. O que se está interessado é a probabilidade de se observar uma razão de verosimilhanças, na hipótese do Higgs não existir, pelo menos tão extrema (nesse caso, maior que) quanto a que foi observada. Isso, claro, é apenas a integral da distribuição entre o valor observado e infinito.

Essa distribuição, devido a todos os efeitos acima, é meio louca e se costuma traduzir o valor da integral para o valor que deveria ter sido observado no caso em que distribuição da razão de verosimilhança fosse gaussiana com média zero e desvio padrão unitário para que a integral tenha o mesmo valor. E isso é o que é a quantidade de “sigmas” de evidência que todo mundo fala. Resumindo a história, esses sigmas querem dizer o seguinte: suponha que eu faça um número muito grande de experimentos e que eu calcule essa mesma razão de verosimilhança neles, em qual fração deles eu vou observar uma razão pelo menos tão diferente do que eu observei, conforme o que é esperado no caso do Higgs não existir. Ou seja, dito de outra forma, qual é a probabilidade de, assumindo que a hipótese nula é verdade, de eu estar errado em negá-la (normalmente chamado de erro tipo I).

Esse número é bem pequeno! No caso do canal H\rightarrow \gamma \gamma, a evidência no ATLAS é de 4.5 \sigma e juntando todos os canais a evidência é de 6 \sigma (algo como uma vez em um bilhão). O CMS teve resultados similares e por isso que ambos se sentiram confortáveis em dizer que uma partícula foi descoberta, que é o bóson de Higgs.

Mas essa partícula parece mesmo com o bóson de Higgs do Modelo Padrão?

Bem, muito pouca coisa foi medida sobre ela até agora. Mediu-se a massa, a seção de choque total, e algumas seções de choque parciais. E, tudo isso que foi medido é perfeitamente consistente com o Higgs do Modelo Padrão. Mas também é consistente com outros modelos, por exemplo, com o Higgs na supersimetria. Nesses tipos de modelo, sempre tem um campo que é muito parecido com o Higgs do Modelo Padrão e por isso que ainda é muito cedo para distinguir entre eles (embora já haja artigos na praça tentando fazer isso). A figura abaixo mostra a consistência medida no ATLAS entre cada canal de decaimento e o Modelo Padrão (a linha pontilhada em 1):

Em termos de consistência entre ATLAS e CMS, tudo também parece ok. ATLAS mede uma massa de 126.0 \pm 0.6 GeV. O CMS mede 125.3\pm 0.6 GeV. Claro que uma verificação exata da consistência precisaria levar em conta correlações, mas de olho a diferença é na ordem de 1 \sigma, o que é algo que qualquer pessoa chamaria de consistente. Impressionante que, e aqui eu vou ignorar correlações de novo, a primeira medida da massa de uma nova partícula já foi feita com uma precisão relativa de 0.3%! ATLAS e CMS são, de fato, detectores fantásticos.

Categorias:Ars Physica
%d blogueiros gostam disto: