Arquivo

Archive for março \31\UTC 2009

Revisão por pares…

terça-feira, 31 mar 2009; \14\UTC\UTC\k 14 2 comentários

Já faz tempo que a qualidade do processo de revisão por pares, peer review, me deixa com a pulga atrás da orelha… mas, eu sempre acabo deixando essa questão de lado, achando que, de uma forma ou de outra, a “média” é melhor do que aquilo que eu venho vendo.

Pois bem, hoje saiu um artigo na “Inside of Higher Education” que mostra como esse problema, pelo visto, é muito maior do que eu imaginava,

O ponto é o seguinte: eu não me importo em ter artigos ou projetos rejeitados — de fato, dentro do ambiente acadêmico, ou vc aprende a lidar com rejeição e frustração, ou vc não vive muito. E isso não é necessariamente algo ruim, é apenas parte do “processo científico”, no sentido de que é assim que as “arestas” das proto-idéias são aparadas e trabalhadas, e o “mármore da criatividade é esculpido”, dando origem à Ciência, propriamente dita.

Não, certamente esse não é o problema… a questão é mais sutil, e é sobre o método pelo qual essa avaliação é feita, i.e., é uma crítica ao “como” o processo acontece. Eu explico: Se o avaliador nota erros científicos numa determinada proposta, eu acho absolutamente normal que ele faça o ‘fisking‘ necessário, i.e., que ele prossiga a dissecar o texto, ponto por ponto, comentando os méritos de cada um. Por outro lado, o que eu — pessoalmente — tenho visto (e, pelo visto, tem acontecido em outras áreas do saber também — como argumentado no texto acima) é que as revisões são feitas com um certo descaso… de fato, eu chamaria de “desrespeito” mesmo.

Veja, quando eu escrevo um artigo ou uma proposta, eu, particularmente, o faço com todo o carinho e respeito que tenho pela minha profissão. Dessa forma, eu espero que a revisão venha imbuida do mesmo respeito, do mesmo profissionalismo. Porém, ao contrário dessa expectativa, o que se recebe em troca é uma avaliação que, mais freqüentemente do que deveria, vem sem referência e sem argumentos científicos, mas recheada de generalismos como “esse trabalho será feito de modo isolado da comunidade, uma vez que não é ‘mainstream'”, “essa proposta é extremamente inovadora e rompe com paradigmas de décadas, portanto deve esperar por mais apoio da comunidade”, “não entendi boa parte desse artigo pois a matemática dele está além da minha compreensão, portanto não o recomendo para publicação porque não deve interessar a comunidade de um modo mais geral”, e assim por diante.

Esse tipo de revisão, pessoalmente, eu considero um desrespeito, de uma falta de profissionalismo sem tamanho! Eu mesmo, quando já revisei propostas completa e absolutamente ‘crackpot‘, tive o respeito de fazê-lo exatamente da forma como descrevi acima, ‘fisking’ todos os argumentos, citando fontes e mais fontes, e mostrando claramente os erros envolvidos: se uma pessoa, por mais ‘crackpot’ que seja, se dá ao trabalho da mandar um artigo ou uma proposta de dezenas de páginas (às vezes, até centenas!), o mínimo que se pode fazer é ter o profissionalismo de se refutar os pseudo-argumentos com razões científicas sólidas e robustas, devidamente estabelecidas. Claro que não é agradável ter que revisar propostas completamente crackpots… mas, vc pode muito bem escolher não fazê-lo! Porém, uma vez que se assume a responsabilidade, eu espero sim que o trabalho seja profissional e de qualidade. E não é isso que tenho visto ultimamente… 😦

Aliás, tenho visto uma situação bastante deplorável: gente que não conhece a representação integral das funções de Airy (o que não é problema nenhum, posto que uma simples busca na Wikipedia resolve esse problema de modo bastante completo — imagine, então, quando é necessário se extender essa representação para representações “matrix-valued” ou “Lie algebra-valued”), gente que admite não conseguir acompanhar o nível matemático dum artigo (e usa a incompetência pessoal como argumento para justificar a não publicação do mesmo, ao invés de recomendar que outra pessoa avalie o artigo), gente que percebe a criatividade e inovatividade do trabalho mas usa essas qualidades como argumentos derrogatórios contra o fomento do mesmo (dizendo que o trabalho é isolado da comunidade), e assim por diante… 😥

O que fazer nessas situações?! Não há absolutamente nada a ser feito… a qualidade dos “revisores” está cada vez pior, e a única coisa que pode ser feita é agradecer a existência dos arXivs, senão, apenas o “arroz-e-feijão” estaria sendo publicado atualmente.

Assim caminha a humanidade…

Os melhores livros de divulgação

domingo, 29 mar 2009; \13\UTC\UTC\k 13 29 comentários

Que tal uma lista de utilidade pública com alguns dos melhores livros de divulgação? 🙂

Bom, naturalmente que a lista será parcial. Vai ser baseada na experiência pessoal dos editores do blog, mas a vantagem é que você pode usá-la como ponto de partida se quer algumas sugestões de leitura leve para as férias, ou então se você gostou de alguns dos livros da lista, há potencial de gostar dos demais. 🙂 Volte sempre para checar atualizações na lista! 😉

Não vamos tentar fazer uma resenha de cada livro que ficaria muito longo, você pode ver essas resenhas por ai na Internet, no site das editoras e livrarias. Ah, e a lista não tem nenhuma ordem em especial, certo?

Vamos lá:

Disponível em português:

  • A Dança do Universo, Marcelo Gleiser
  • DNA: O Segredo da Vida, James D. Watson
  • Uma breve história do tempo, Stephen W. Hawking
  • Como a mente funciona, Steven Pinker
  • A falsa medida do homem, Stephen Jay Gould
  • O mundo assombrado pelos demônios, Carl Sagan
  • QED: A Estranha Teoria da Luz e da Matéria, Richard P. Feynman
  • O que é uma lei física?, Richard P. Feynman
  • Einstein para principiantes, Joseph Schwartz, Michael McGuinness
  • Os Três Primeiros Minutos, Steven Weinberg
  • O Universo Inflacionário, Alan H. Guth
  • Será que Deus joga dados?, Ian Stewart
  • O Quark e o Jaguar, Murray Gell-Mann
  • As aventuras e descobertas de Darwin a bordo do Beagle, Richard Darwin Keynes
  • O que é Matemática?, Richard Courant e Herbert Robbins
  • O último teorema de Fermat, Simon Singh
  • História da Matemática, Carl Boyer, Uta C. Merzbacher. Não é divulgação, mas é excelente e acessível.
  • História química de uma vela, Michael Faraday
  • Cronologia das ciências e das descobertas, Isaac Asimov
  • A Filha de Galileu, Dave Sobel

Apenas em inglês:
Estes você pode comprar na Amazon.com, ou na Barnes & Noble. Você só pagará o livro, frete e a taxa de câmbio. Não há imposto cobrado de importação para livros.

  • Huygens & Barrow, Newton & Hooke, Vladimir I. Arnold
  • From Galileo to Einstein (aka Biography of Physics), George Gamow
  • Longing for the Harmonies, Frank Wilczek e Betsy Devine
  • Black Holes and Time Warps, Kip Thorne
  • Men of Mathematics, E. T. Bell
  • Einstein’s Legacy, Julian Schwinger
  • Gravity, George Gamow
  • Cosmology: The Science of the Universe, E. Harrison

Alternativas a unificação

quarta-feira, 25 mar 2009; \13\UTC\UTC\k 13 3 comentários

O princípio vingente para descrever a física de partículas nas escalas de tamanho de 10-13 cm (1 GeV) até 10-15 cm (100 GeV) é o de que há uma simetria na lei de evolução temporal, quer dizer, certas transformações que mantém as leis da física invariantes. Há dois conjuntos distintos de transformações independentes que constituem o que se chama o Modelo Padrão da física, e em matemática esses conjuntos são denotados por SU(3) e SU(2)\times U(1). O conjunto U(1) e.g. consiste nas transformações em que um número complexo z é multiplicado por uma fase complexa:

z' = e^{i \theta} z .

Há um teorema, devido ao Sheldon Glashow e Murray Gell-Mann que diz que todas as simetrias admissíveis para teorias onde há uma corrente que se conserva (que no eletromagnetismo é a condição da conservação da carga elétrica) são um entre os conjuntos que os matemáticos chamam de grupos de Lie simples que podem ou não serem combinados também com o conjunto de transformações chamadas de U(1). Graças ao matemático Élie Cartan, há uma classificação completa (uma lista) de todos os grupos de Lie simples. A lista é infinita porém enumerável e é muito útil porque permite os físicos teóricos terem uma tabela completa de todas as teorias físicas que fazem sentido. Mas também é muito frustrante: embora o princípio de simetria de conservação das cargas descreve muito bem o mundo subatômico, há uma quantidade infinita de possibilidades de teorias e não há nenhuma racionalização disponível que permita decidir por que o Modelo Padrão escolheu SU(3) e SU(2)\times U(1). Ou dito de forma diferente: há algo de especial nessas simetrias?

Talvez não. Talvez todos os grupos de Lie simples existam na Natureza de forma independente do Modelo Padrão, porém ainda não foram observados. John Donoghue e Preema Pais recentemente mostraram que dentro deste cenário é possível haver unificação de todas as forças fundamentais (excetuando-se a gravitação) (arxiv:0903.3929). A idéia básica é que há uma teoria subjacente que não daria nenhum privilégio para SU(2) e SU(3), mas geraria toda a cadeia de simetrias SU(N), com infinitos férmions e interações. Porém, se todas essas interações tiverem uma origem comum, é possível simultaneamente ajustar que estas forças se tornam todas iguais em magnitude numa certa escala de energia próxima a escala de Planck e ao mesmo tempo há uma hierarquia entre as forças: SU(4), p.ex., o próximo grupo depois do SU(3), é confinante (como a QCD) na escala de pelo menos 1 TeV, e os próximos grupos são confinantes em escalas mais altas. Desse modo, a massa dos estados ligados, os hádrons destas forças, seriam maiores que 1 TeV. Todas as partículas geradas por essa cascata de simetrias são mais pesadas que qualquer partícula do atual do Modelo Padrão, portanto não estão excluídas.

Esse é um exemplo de como hoje em dia a noção de unificação na física vem ganhando novas janelas. Em 98, Arkani-Hamed, Dimopoulos e Dvali notaram que se há dimensões extras espaciais no universo então é permitido que a constante da gravitação universal seja bem maior do que o observado em 3 dimensões. Em unidades de energia, a constante de Newton é a massa de Planck que é 1019 GeV, mas com o número adequado de dimensões extras grandes é possível trazer a massa de Planck para 103 GeV, que é próxima da escala de energia da unificação eletrofraca (246 GeV), e portanto ambas as escalas (gravitacional e força fraca) seriam iguais. Esta é uma outra noção de unificação.

Uma das mais bonitas e interessantes, ao meu ver, é a motivada pelas descobertas das dualidades em teorias de campos: a propriedade que alguns sistemas físicos descritos por teorias de campo tem de que o mesmo sistema físico pode ser descrito por diferentes teorias de campo. A informação que eu tenho é que essa idéia surgiu mais ou menos nos anos 70 nos trabalhos do Sidney Coleman, Jorge Andre Swieca e outros, mas ganhou notoriedade mais tarde com os trabalhos do Witten e Maldacena. É como se cada teoria de campo fosse uma escolha diferente de coordenadas (o Rafael já postou sobre isso no blog aqui, aqui e aqui.). Nesse caso a unificação pode ser de uma natureza diferente: talvez o que nos parece uma teoria desconexa com simetrias que não conversam entre si, sem nenhuma unificação, é na verdade apenas uma escolha ruim de coordenadas de uma teoria onde há realmente uma unificação, só que evidente apenas em outro sistema de coordenadas (quero dizer campos). No caso do exemplo do Donoghue e Pais, seria interessante saber se um universo com todos os grupos de Lie simples de simetrias seria dual a uma descrição usando apenas poucos campos, ou mesmo uma teoria gravitacional.

A semana nos arXivs…

quarta-feira, 25 mar 2009; \13\UTC\UTC\k 13 Deixe um comentário

LHC e nova física

segunda-feira, 23 mar 2009; \13\UTC\UTC\k 13 6 comentários

09 dez. 2008: remoção de ímãs para reparo no LHC. O acelerador deve voltar a funcionar em outubro deste ano.

09 dez. 2008: remoção de ímãs para reparo no LHC. O acelerador deve voltar a funcionar em outubro deste ano.

Boa noite de segunda-feira! 🙂

Hoje há dois posts interessantes na blogoesfera sobre o LHC parcialmente sobre o mesmo tema. Um do Marcelo Gleiser e outro do Peter Woit comentando um recente texto de Freeman Dyson sobre o último livro do Frank Wilczek. O ponto em comum é o seguinte: os filtros de dados do LHC não poderiam esconder física nova?

Para entender a pergunta, permitam-me usar um exemplo já mais ou menos bem estabelecido, o WMAP Haze. Os satélites COBE e WMAP medem fótons que chegam aos detetores e apenas isso. Cabe aos físicos experimentais fazer uma análise dos dados para extrair o que é considerado a radiação cósmica de fundo (CMB) prevista pelo Big Bang de qualquer outro tipo de sinal que chega ao detetor. Em parte esse problema não é muito difícil porque a teoria é de que a CMB é praticamente homogênea e isotrópica no referencial da Terra, com pequenas contaminações devido a mudança de referencial — já que a Terra não está em repouso em relação a CMB. Isso está consistente com os dados, que mostram uma radiação na região de microondas que é aproximadamente homogênea e isotrópica quando se faz uma média da intensidade da luz sobre todo o ângulo sólido do céu. Entre as contaminações possíveis, há a contribuição de microondas da nossa própria galáxia. Esta é fácil de identificar porque estes fótons estão em sua maioria no plano da galáxia. No entanto, há um excesso de fótons em algumas freqüências específicas no plano da nossa galáxia que não vêm de estrelas porque a distribuição espacial é difusa, e não vêm do plasma de hidrogênio existente na galáxia, porque não concorda em energia. Essa emissão é conhecida como o “WMAP Haze”1. A colaboração WMAP remove essa contribuição da CMB de forma arbitrária, e assume que ela deve ser resultado de supernovas de mecanismos físicos pouco entendidos. Porém, Douglas Finkbeiner, astrofísico de Harvard, aponta que esse sinal pode também ser devido a aniquilação da matéria escura na galáxia — nova física.

O que acontecerá no LHC não é conceitualmente diferente, embora bem mais complicado. Primeiro, cada detetor do LHC tem um filtro no hardware que seleciona dados, primordialmente para excluir sinais que são considerados espúrios como a passagem de um raio cósmico pelo detetor ou uma flutuação elétrica. Esses filtros levam em consideração algumas suposições sobre o que pode acontecer na colisão, como conservação do momento e energia dentro de certo limite estatístico para múons e outros mésons. Só eventos que passam no filtro de hardware são transmitidos do detetor para a central de computadores do LHC. Mesmo assim, a previsão é que haverá muito mais dados sendo transmitidos do que poderiam ser gravados em HDs. Nos computadores do LHC, esses dados então serão filtrados novamente: um software compara-os com simulações Monte Carlo para remover aquilo considerado desinteressante, porque consiste em física conhecida. O resto dos eventos é gravado em disco. Esses eventos incluem qualquer efeito não previsto pelo MP mais qualquer coisa que não foi programada na simulação. Há uma probabilidade pequena de que parte dos dados excluídos contém nova física de eventos raros que foram confundidos com eventos do MP devido a janela de probabilidade usada pelo filtro.

Então, no final do dia, a imagem que sairá do LHC é apenas parcial, ligada diretamente a suposições dos físicos sobre onde algo pode dar errado e onde provavelmente não vai dar. Os dados jogados fora pelos filtros do LHC podem conter física nova, como pode ser o caso do WMAP Haze. Todavia o que se pode fazer na física é esperar que todos os dados permaneçam consistentes, só isso. Se ocorrer alguma discrepância os físicos experimentais vão voltar um passo atrás e checar as simulações e os filtros. Um exemplo disso aconteceu recentemente, quando a sessão de choque para decaimento de mésons B medida pelo CDF e D0 no Tevatron apresentou uma diferença entre duas formas distintas de medi-la, uma utilizando múons e outra não. O CDF deu um passo atrás e fez novas medidas rastreando a origem espacial dos múons, descobrindo no final do ano passado que havia um grande número deles sendo produzidos numa região inesperada. Esse problema permanece em aberto e é conhecido como os “múons fantasmas”, e ainda precisa ser confirmado pelo D0. Acredita-se que se os filtros do LHC fizerem algo errado, isso aparecerá como alguma inconsistência nos resultados, e a partir daí haverá uma investigação da origem do problema. Enquanto tudo estiver conforme o planejado, não há a menor condição, nem de recursos humanos, tempo e dinheiro, de fazer a análise de dados de cada sinal do LHC. Há um risco natural de que inicialmente o LHC só irá sinalizar aquilo que já era esperado não concordar com os dados, mas a longo prazo espera-se que isso será resolvido por inconsistências.

Para finalizar, só gostaria de comentar sobre o ceticismo de Woit e Dyson sobre o LHC “poder falhar”. Não há tal possibilidade — exceto se o dinheiro do projeto for cortado. O LHC vai inevitavelmente descobrir nova física: i) ou o bóson de Higgs será encontrado dentro de todo o paradigma atual da física de partículas sem nada mais, ii) ou o bóson de Higgs será encontrado com novas partículas ou iii) nem o bóson de Higgs nem nenhuma nova partícula é encontrada. Se i) saber-se-á a origem da quebra espontânea de simetria, o valor preciso da massa do Higgs e os valores precisos da violação CP no setor dos quarks pesados; ii) relaciona-se com novas forças da natureza, novas simetrias, dimensões espaciais extras ou algo ainda menos esperado; iii) o paradigma da física de partículas perturbativa pode requerer uma revisão profunda que eu prefiro nem especular a respeito, já que algo como o bóson de Higgs ou similar é inevitável dentro da abordagem perturbativa acreditada hoje em dia — e o Daniel vai dar pulinhos de alegria :).

Eu creio que o Woit acredita que i) não seria uma nova era dourada para física de partículas porque representaria apenas confirmação de um modelo já estabelecido. Isso é muito triste, acreditar que a física só progride se caminhar para novos modelos ou unificação das forças ou o que valha. O LHC vai abrir uma nova era dourada da física de partículas sem dúvidas, pois vai exigir melhores cálculos da QCD que podem levar a descobertas de novas simetrias e talvez avanços da lattice QCD. Isso servirá de acúmulo de evidência da validade do modelo que automaticamente permitirá restringir nova física de forma muito importante. Por exemplo, os parâmetros de violação CP serão medidos com maior precisão para os quarks pesados. Estes parâmetros são os mais sensíveis do MP à nova física, e o fato de que o MP aparenta responder por toda violação CP observada anula várias teorias que predizem “muita” violação CP — e também gera um problema teórico: por que a nova física não viola CP? Isso em geral requer adicionar novas simetrias a essas teorias. Além disso, CP combinada com a massa do Higgs são exatamente os números mais importantes para a cosmologia: são eles que determinam a contribuição da física eletrofraca para a assimetria matéria-antimatéria do universo, um problema em aberto e básico da física. O LHC também permitirá estudar o plasma de quarks e gluons que não apenas testará a QCD como também as dualidades entre QCD e teorias conformes, que vem reabrindo espaço para a contribuição da teoria de cordas na descrição do mundo real. Há muito território ainda a ser explorado nos modelos já conhecidos…

Notas

  1. “Haze” tem um duplo significado: no sentido de ser uma nuvem de emissão na galáxia, e no sentido de ter significado ainda confuso para a comunidade astrofísica.
  2. Agradeço ao Daniel por passar-me a informação sobre o post do Woit. 🙂

A semana nos arXivs…

quarta-feira, 18 mar 2009; \12\UTC\UTC\k 12 Deixe um comentário

Novo valor para a massa do top, e a coincidência persiste

terça-feira, 17 mar 2009; \12\UTC\UTC\k 12 Deixe um comentário

Hoje apareceu no arxiv um artigo do CDF e D0 com o mais recente resultado da medida da massa do top:

m_\text{top} = 173.1 \pm 1.3 \,\text{GeV} \, .

Este resultado é relativamente mais preciso do que se tinha até então, e está jogando a massa do top de volta aos 173 (o valor já foi 160, passou para 170 uns anos atrás e agora se mantém bem em cima do 174). O interessante desse número para massa do top é que o valor do campo do bóson de Higgs no vácuo é v = 246.2\, \text{GeV} (nível árvore), fornecendo um acoplamento do Higgs aos férmions igual a v/\sqrt{2\,{}} =174.1 \,\text{GeV}, que é praticamente idêntico a massa do top.

A massa das partículas no Modelo Padrão é paramétrica a este valor de v : \lambda\, v, onde \lambda é um número adimensional. Para a maioria das partículas \lambda é pequeno, já que a massa de todas é bem menor que 174 GeV. Isso é importante porque acredita-se que a massa das partículas no Modelo Padrão é proveniente de um acoplamento fraco com o Higgs, que permite o uso de teoria de perturbação. Mas a massa do top está perto de desafiar essa idéia, já que ela exige um acoplamento \lambda igual a 1. Isso em si não é um problema técnico porque em detalhes a teoria de perturbação é válida mesmo quando os acoplamentos são \approx O(1) devido a um efeito quântico, sendo que a quantidade mais relevante é na realidade \lambda/(16\, \pi^2) vezes um certo logarítmo, que quase sempre é muito pequeno. Além disso, nós já conhecemos um exemplo de teoria da perturbação para partículas que milagrosamente funciona mesmo sendo uma expansão em um número da ordem de 1 que é a Lagrangiana quiral para píons e nucleons. Mas o valor da massa do top é um pouco não natural porque no Modelo Padrão não há nenhuma boa razão para esse acoplamento ser 1. Há uma coincidência de massa inexplicável ai…

Não sei se correções radiativas melhoram ou pioram a concordância do VEV do Higgs com a massa do top, alguém conhece uma referência?

Ah, e olhando rapidamente estes artigos experimentais não vi que esquema de renormalização eles estão usando para essa massa. Como a massa dos quarks depende do esquema de renormalização, isso deveria estar dito em algum lugar. Eu suponho que seja \overline{MS}.

%d blogueiros gostam disto: