Arquivo

Archive for março \31\America/New_York 2009

Revisão por pares…

terça-feira, 31 mar 2009; \14\America/New_York\America/New_York\k 14 2 comentários

Já faz tempo que a qualidade do processo de revisão por pares, peer review, me deixa com a pulga atrás da orelha… mas, eu sempre acabo deixando essa questão de lado, achando que, de uma forma ou de outra, a “média” é melhor do que aquilo que eu venho vendo.

Pois bem, hoje saiu um artigo na “Inside of Higher Education” que mostra como esse problema, pelo visto, é muito maior do que eu imaginava,

O ponto é o seguinte: eu não me importo em ter artigos ou projetos rejeitados — de fato, dentro do ambiente acadêmico, ou vc aprende a lidar com rejeição e frustração, ou vc não vive muito. E isso não é necessariamente algo ruim, é apenas parte do “processo científico”, no sentido de que é assim que as “arestas” das proto-idéias são aparadas e trabalhadas, e o “mármore da criatividade é esculpido”, dando origem à Ciência, propriamente dita.

Não, certamente esse não é o problema… a questão é mais sutil, e é sobre o método pelo qual essa avaliação é feita, i.e., é uma crítica ao “como” o processo acontece. Eu explico: Se o avaliador nota erros científicos numa determinada proposta, eu acho absolutamente normal que ele faça o ‘fisking‘ necessário, i.e., que ele prossiga a dissecar o texto, ponto por ponto, comentando os méritos de cada um. Por outro lado, o que eu — pessoalmente — tenho visto (e, pelo visto, tem acontecido em outras áreas do saber também — como argumentado no texto acima) é que as revisões são feitas com um certo descaso… de fato, eu chamaria de “desrespeito” mesmo.

Veja, quando eu escrevo um artigo ou uma proposta, eu, particularmente, o faço com todo o carinho e respeito que tenho pela minha profissão. Dessa forma, eu espero que a revisão venha imbuida do mesmo respeito, do mesmo profissionalismo. Porém, ao contrário dessa expectativa, o que se recebe em troca é uma avaliação que, mais freqüentemente do que deveria, vem sem referência e sem argumentos científicos, mas recheada de generalismos como “esse trabalho será feito de modo isolado da comunidade, uma vez que não é ‘mainstream'”, “essa proposta é extremamente inovadora e rompe com paradigmas de décadas, portanto deve esperar por mais apoio da comunidade”, “não entendi boa parte desse artigo pois a matemática dele está além da minha compreensão, portanto não o recomendo para publicação porque não deve interessar a comunidade de um modo mais geral”, e assim por diante.

Esse tipo de revisão, pessoalmente, eu considero um desrespeito, de uma falta de profissionalismo sem tamanho! Eu mesmo, quando já revisei propostas completa e absolutamente ‘crackpot‘, tive o respeito de fazê-lo exatamente da forma como descrevi acima, ‘fisking’ todos os argumentos, citando fontes e mais fontes, e mostrando claramente os erros envolvidos: se uma pessoa, por mais ‘crackpot’ que seja, se dá ao trabalho da mandar um artigo ou uma proposta de dezenas de páginas (às vezes, até centenas!), o mínimo que se pode fazer é ter o profissionalismo de se refutar os pseudo-argumentos com razões científicas sólidas e robustas, devidamente estabelecidas. Claro que não é agradável ter que revisar propostas completamente crackpots… mas, vc pode muito bem escolher não fazê-lo! Porém, uma vez que se assume a responsabilidade, eu espero sim que o trabalho seja profissional e de qualidade. E não é isso que tenho visto ultimamente… 😦

Aliás, tenho visto uma situação bastante deplorável: gente que não conhece a representação integral das funções de Airy (o que não é problema nenhum, posto que uma simples busca na Wikipedia resolve esse problema de modo bastante completo — imagine, então, quando é necessário se extender essa representação para representações “matrix-valued” ou “Lie algebra-valued”), gente que admite não conseguir acompanhar o nível matemático dum artigo (e usa a incompetência pessoal como argumento para justificar a não publicação do mesmo, ao invés de recomendar que outra pessoa avalie o artigo), gente que percebe a criatividade e inovatividade do trabalho mas usa essas qualidades como argumentos derrogatórios contra o fomento do mesmo (dizendo que o trabalho é isolado da comunidade), e assim por diante… 😥

O que fazer nessas situações?! Não há absolutamente nada a ser feito… a qualidade dos “revisores” está cada vez pior, e a única coisa que pode ser feita é agradecer a existência dos arXivs, senão, apenas o “arroz-e-feijão” estaria sendo publicado atualmente.

Assim caminha a humanidade…

Os melhores livros de divulgação

domingo, 29 mar 2009; \13\America/New_York\America/New_York\k 13 29 comentários

Que tal uma lista de utilidade pública com alguns dos melhores livros de divulgação? 🙂

Bom, naturalmente que a lista será parcial. Vai ser baseada na experiência pessoal dos editores do blog, mas a vantagem é que você pode usá-la como ponto de partida se quer algumas sugestões de leitura leve para as férias, ou então se você gostou de alguns dos livros da lista, há potencial de gostar dos demais. 🙂 Volte sempre para checar atualizações na lista! 😉

Não vamos tentar fazer uma resenha de cada livro que ficaria muito longo, você pode ver essas resenhas por ai na Internet, no site das editoras e livrarias. Ah, e a lista não tem nenhuma ordem em especial, certo?

Vamos lá:

Disponível em português:

  • A Dança do Universo, Marcelo Gleiser
  • DNA: O Segredo da Vida, James D. Watson
  • Uma breve história do tempo, Stephen W. Hawking
  • Como a mente funciona, Steven Pinker
  • A falsa medida do homem, Stephen Jay Gould
  • O mundo assombrado pelos demônios, Carl Sagan
  • QED: A Estranha Teoria da Luz e da Matéria, Richard P. Feynman
  • O que é uma lei física?, Richard P. Feynman
  • Einstein para principiantes, Joseph Schwartz, Michael McGuinness
  • Os Três Primeiros Minutos, Steven Weinberg
  • O Universo Inflacionário, Alan H. Guth
  • Será que Deus joga dados?, Ian Stewart
  • O Quark e o Jaguar, Murray Gell-Mann
  • As aventuras e descobertas de Darwin a bordo do Beagle, Richard Darwin Keynes
  • O que é Matemática?, Richard Courant e Herbert Robbins
  • O último teorema de Fermat, Simon Singh
  • História da Matemática, Carl Boyer, Uta C. Merzbacher. Não é divulgação, mas é excelente e acessível.
  • História química de uma vela, Michael Faraday
  • Cronologia das ciências e das descobertas, Isaac Asimov
  • A Filha de Galileu, Dave Sobel

Apenas em inglês:
Estes você pode comprar na Amazon.com, ou na Barnes & Noble. Você só pagará o livro, frete e a taxa de câmbio. Não há imposto cobrado de importação para livros.

  • Huygens & Barrow, Newton & Hooke, Vladimir I. Arnold
  • From Galileo to Einstein (aka Biography of Physics), George Gamow
  • Longing for the Harmonies, Frank Wilczek e Betsy Devine
  • Black Holes and Time Warps, Kip Thorne
  • Men of Mathematics, E. T. Bell
  • Einstein’s Legacy, Julian Schwinger
  • Gravity, George Gamow
  • Cosmology: The Science of the Universe, E. Harrison

Alternativas a unificação

quarta-feira, 25 mar 2009; \13\America/New_York\America/New_York\k 13 3 comentários

O princípio vingente para descrever a física de partículas nas escalas de tamanho de 10-13 cm (1 GeV) até 10-15 cm (100 GeV) é o de que há uma simetria na lei de evolução temporal, quer dizer, certas transformações que mantém as leis da física invariantes. Há dois conjuntos distintos de transformações independentes que constituem o que se chama o Modelo Padrão da física, e em matemática esses conjuntos são denotados por SU(3) e SU(2)\times U(1). O conjunto U(1) e.g. consiste nas transformações em que um número complexo z é multiplicado por uma fase complexa:

z' = e^{i \theta} z .

Há um teorema, devido ao Sheldon Glashow e Murray Gell-Mann que diz que todas as simetrias admissíveis para teorias onde há uma corrente que se conserva (que no eletromagnetismo é a condição da conservação da carga elétrica) são um entre os conjuntos que os matemáticos chamam de grupos de Lie simples que podem ou não serem combinados também com o conjunto de transformações chamadas de U(1). Graças ao matemático Élie Cartan, há uma classificação completa (uma lista) de todos os grupos de Lie simples. A lista é infinita porém enumerável e é muito útil porque permite os físicos teóricos terem uma tabela completa de todas as teorias físicas que fazem sentido. Mas também é muito frustrante: embora o princípio de simetria de conservação das cargas descreve muito bem o mundo subatômico, há uma quantidade infinita de possibilidades de teorias e não há nenhuma racionalização disponível que permita decidir por que o Modelo Padrão escolheu SU(3) e SU(2)\times U(1). Ou dito de forma diferente: há algo de especial nessas simetrias?

Talvez não. Talvez todos os grupos de Lie simples existam na Natureza de forma independente do Modelo Padrão, porém ainda não foram observados. John Donoghue e Preema Pais recentemente mostraram que dentro deste cenário é possível haver unificação de todas as forças fundamentais (excetuando-se a gravitação) (arxiv:0903.3929). A idéia básica é que há uma teoria subjacente que não daria nenhum privilégio para SU(2) e SU(3), mas geraria toda a cadeia de simetrias SU(N), com infinitos férmions e interações. Porém, se todas essas interações tiverem uma origem comum, é possível simultaneamente ajustar que estas forças se tornam todas iguais em magnitude numa certa escala de energia próxima a escala de Planck e ao mesmo tempo há uma hierarquia entre as forças: SU(4), p.ex., o próximo grupo depois do SU(3), é confinante (como a QCD) na escala de pelo menos 1 TeV, e os próximos grupos são confinantes em escalas mais altas. Desse modo, a massa dos estados ligados, os hádrons destas forças, seriam maiores que 1 TeV. Todas as partículas geradas por essa cascata de simetrias são mais pesadas que qualquer partícula do atual do Modelo Padrão, portanto não estão excluídas.

Esse é um exemplo de como hoje em dia a noção de unificação na física vem ganhando novas janelas. Em 98, Arkani-Hamed, Dimopoulos e Dvali notaram que se há dimensões extras espaciais no universo então é permitido que a constante da gravitação universal seja bem maior do que o observado em 3 dimensões. Em unidades de energia, a constante de Newton é a massa de Planck que é 1019 GeV, mas com o número adequado de dimensões extras grandes é possível trazer a massa de Planck para 103 GeV, que é próxima da escala de energia da unificação eletrofraca (246 GeV), e portanto ambas as escalas (gravitacional e força fraca) seriam iguais. Esta é uma outra noção de unificação.

Uma das mais bonitas e interessantes, ao meu ver, é a motivada pelas descobertas das dualidades em teorias de campos: a propriedade que alguns sistemas físicos descritos por teorias de campo tem de que o mesmo sistema físico pode ser descrito por diferentes teorias de campo. A informação que eu tenho é que essa idéia surgiu mais ou menos nos anos 70 nos trabalhos do Sidney Coleman, Jorge Andre Swieca e outros, mas ganhou notoriedade mais tarde com os trabalhos do Witten e Maldacena. É como se cada teoria de campo fosse uma escolha diferente de coordenadas (o Rafael já postou sobre isso no blog aqui, aqui e aqui.). Nesse caso a unificação pode ser de uma natureza diferente: talvez o que nos parece uma teoria desconexa com simetrias que não conversam entre si, sem nenhuma unificação, é na verdade apenas uma escolha ruim de coordenadas de uma teoria onde há realmente uma unificação, só que evidente apenas em outro sistema de coordenadas (quero dizer campos). No caso do exemplo do Donoghue e Pais, seria interessante saber se um universo com todos os grupos de Lie simples de simetrias seria dual a uma descrição usando apenas poucos campos, ou mesmo uma teoria gravitacional.

A semana nos arXivs…

quarta-feira, 25 mar 2009; \13\America/New_York\America/New_York\k 13 Deixe um comentário

LHC e nova física

segunda-feira, 23 mar 2009; \13\America/New_York\America/New_York\k 13 6 comentários

09 dez. 2008: remoção de ímãs para reparo no LHC. O acelerador deve voltar a funcionar em outubro deste ano.

09 dez. 2008: remoção de ímãs para reparo no LHC. O acelerador deve voltar a funcionar em outubro deste ano.

Boa noite de segunda-feira! 🙂

Hoje há dois posts interessantes na blogoesfera sobre o LHC parcialmente sobre o mesmo tema. Um do Marcelo Gleiser e outro do Peter Woit comentando um recente texto de Freeman Dyson sobre o último livro do Frank Wilczek. O ponto em comum é o seguinte: os filtros de dados do LHC não poderiam esconder física nova?

Para entender a pergunta, permitam-me usar um exemplo já mais ou menos bem estabelecido, o WMAP Haze. Os satélites COBE e WMAP medem fótons que chegam aos detetores e apenas isso. Cabe aos físicos experimentais fazer uma análise dos dados para extrair o que é considerado a radiação cósmica de fundo (CMB) prevista pelo Big Bang de qualquer outro tipo de sinal que chega ao detetor. Em parte esse problema não é muito difícil porque a teoria é de que a CMB é praticamente homogênea e isotrópica no referencial da Terra, com pequenas contaminações devido a mudança de referencial — já que a Terra não está em repouso em relação a CMB. Isso está consistente com os dados, que mostram uma radiação na região de microondas que é aproximadamente homogênea e isotrópica quando se faz uma média da intensidade da luz sobre todo o ângulo sólido do céu. Entre as contaminações possíveis, há a contribuição de microondas da nossa própria galáxia. Esta é fácil de identificar porque estes fótons estão em sua maioria no plano da galáxia. No entanto, há um excesso de fótons em algumas freqüências específicas no plano da nossa galáxia que não vêm de estrelas porque a distribuição espacial é difusa, e não vêm do plasma de hidrogênio existente na galáxia, porque não concorda em energia. Essa emissão é conhecida como o “WMAP Haze”1. A colaboração WMAP remove essa contribuição da CMB de forma arbitrária, e assume que ela deve ser resultado de supernovas de mecanismos físicos pouco entendidos. Porém, Douglas Finkbeiner, astrofísico de Harvard, aponta que esse sinal pode também ser devido a aniquilação da matéria escura na galáxia — nova física.

O que acontecerá no LHC não é conceitualmente diferente, embora bem mais complicado. Primeiro, cada detetor do LHC tem um filtro no hardware que seleciona dados, primordialmente para excluir sinais que são considerados espúrios como a passagem de um raio cósmico pelo detetor ou uma flutuação elétrica. Esses filtros levam em consideração algumas suposições sobre o que pode acontecer na colisão, como conservação do momento e energia dentro de certo limite estatístico para múons e outros mésons. Só eventos que passam no filtro de hardware são transmitidos do detetor para a central de computadores do LHC. Mesmo assim, a previsão é que haverá muito mais dados sendo transmitidos do que poderiam ser gravados em HDs. Nos computadores do LHC, esses dados então serão filtrados novamente: um software compara-os com simulações Monte Carlo para remover aquilo considerado desinteressante, porque consiste em física conhecida. O resto dos eventos é gravado em disco. Esses eventos incluem qualquer efeito não previsto pelo MP mais qualquer coisa que não foi programada na simulação. Há uma probabilidade pequena de que parte dos dados excluídos contém nova física de eventos raros que foram confundidos com eventos do MP devido a janela de probabilidade usada pelo filtro.

Então, no final do dia, a imagem que sairá do LHC é apenas parcial, ligada diretamente a suposições dos físicos sobre onde algo pode dar errado e onde provavelmente não vai dar. Os dados jogados fora pelos filtros do LHC podem conter física nova, como pode ser o caso do WMAP Haze. Todavia o que se pode fazer na física é esperar que todos os dados permaneçam consistentes, só isso. Se ocorrer alguma discrepância os físicos experimentais vão voltar um passo atrás e checar as simulações e os filtros. Um exemplo disso aconteceu recentemente, quando a sessão de choque para decaimento de mésons B medida pelo CDF e D0 no Tevatron apresentou uma diferença entre duas formas distintas de medi-la, uma utilizando múons e outra não. O CDF deu um passo atrás e fez novas medidas rastreando a origem espacial dos múons, descobrindo no final do ano passado que havia um grande número deles sendo produzidos numa região inesperada. Esse problema permanece em aberto e é conhecido como os “múons fantasmas”, e ainda precisa ser confirmado pelo D0. Acredita-se que se os filtros do LHC fizerem algo errado, isso aparecerá como alguma inconsistência nos resultados, e a partir daí haverá uma investigação da origem do problema. Enquanto tudo estiver conforme o planejado, não há a menor condição, nem de recursos humanos, tempo e dinheiro, de fazer a análise de dados de cada sinal do LHC. Há um risco natural de que inicialmente o LHC só irá sinalizar aquilo que já era esperado não concordar com os dados, mas a longo prazo espera-se que isso será resolvido por inconsistências.

Para finalizar, só gostaria de comentar sobre o ceticismo de Woit e Dyson sobre o LHC “poder falhar”. Não há tal possibilidade — exceto se o dinheiro do projeto for cortado. O LHC vai inevitavelmente descobrir nova física: i) ou o bóson de Higgs será encontrado dentro de todo o paradigma atual da física de partículas sem nada mais, ii) ou o bóson de Higgs será encontrado com novas partículas ou iii) nem o bóson de Higgs nem nenhuma nova partícula é encontrada. Se i) saber-se-á a origem da quebra espontânea de simetria, o valor preciso da massa do Higgs e os valores precisos da violação CP no setor dos quarks pesados; ii) relaciona-se com novas forças da natureza, novas simetrias, dimensões espaciais extras ou algo ainda menos esperado; iii) o paradigma da física de partículas perturbativa pode requerer uma revisão profunda que eu prefiro nem especular a respeito, já que algo como o bóson de Higgs ou similar é inevitável dentro da abordagem perturbativa acreditada hoje em dia — e o Daniel vai dar pulinhos de alegria :).

Eu creio que o Woit acredita que i) não seria uma nova era dourada para física de partículas porque representaria apenas confirmação de um modelo já estabelecido. Isso é muito triste, acreditar que a física só progride se caminhar para novos modelos ou unificação das forças ou o que valha. O LHC vai abrir uma nova era dourada da física de partículas sem dúvidas, pois vai exigir melhores cálculos da QCD que podem levar a descobertas de novas simetrias e talvez avanços da lattice QCD. Isso servirá de acúmulo de evidência da validade do modelo que automaticamente permitirá restringir nova física de forma muito importante. Por exemplo, os parâmetros de violação CP serão medidos com maior precisão para os quarks pesados. Estes parâmetros são os mais sensíveis do MP à nova física, e o fato de que o MP aparenta responder por toda violação CP observada anula várias teorias que predizem “muita” violação CP — e também gera um problema teórico: por que a nova física não viola CP? Isso em geral requer adicionar novas simetrias a essas teorias. Além disso, CP combinada com a massa do Higgs são exatamente os números mais importantes para a cosmologia: são eles que determinam a contribuição da física eletrofraca para a assimetria matéria-antimatéria do universo, um problema em aberto e básico da física. O LHC também permitirá estudar o plasma de quarks e gluons que não apenas testará a QCD como também as dualidades entre QCD e teorias conformes, que vem reabrindo espaço para a contribuição da teoria de cordas na descrição do mundo real. Há muito território ainda a ser explorado nos modelos já conhecidos…

Notas

  1. “Haze” tem um duplo significado: no sentido de ser uma nuvem de emissão na galáxia, e no sentido de ter significado ainda confuso para a comunidade astrofísica.
  2. Agradeço ao Daniel por passar-me a informação sobre o post do Woit. 🙂

A semana nos arXivs…

quarta-feira, 18 mar 2009; \12\America/New_York\America/New_York\k 12 Deixe um comentário

Novo valor para a massa do top, e a coincidência persiste

terça-feira, 17 mar 2009; \12\America/New_York\America/New_York\k 12 Deixe um comentário

Hoje apareceu no arxiv um artigo do CDF e D0 com o mais recente resultado da medida da massa do top:

m_\text{top} = 173.1 \pm 1.3 \,\text{GeV} \, .

Este resultado é relativamente mais preciso do que se tinha até então, e está jogando a massa do top de volta aos 173 (o valor já foi 160, passou para 170 uns anos atrás e agora se mantém bem em cima do 174). O interessante desse número para massa do top é que o valor do campo do bóson de Higgs no vácuo é v = 246.2\, \text{GeV} (nível árvore), fornecendo um acoplamento do Higgs aos férmions igual a v/\sqrt{2\,{}} =174.1 \,\text{GeV}, que é praticamente idêntico a massa do top.

A massa das partículas no Modelo Padrão é paramétrica a este valor de v : \lambda\, v, onde \lambda é um número adimensional. Para a maioria das partículas \lambda é pequeno, já que a massa de todas é bem menor que 174 GeV. Isso é importante porque acredita-se que a massa das partículas no Modelo Padrão é proveniente de um acoplamento fraco com o Higgs, que permite o uso de teoria de perturbação. Mas a massa do top está perto de desafiar essa idéia, já que ela exige um acoplamento \lambda igual a 1. Isso em si não é um problema técnico porque em detalhes a teoria de perturbação é válida mesmo quando os acoplamentos são \approx O(1) devido a um efeito quântico, sendo que a quantidade mais relevante é na realidade \lambda/(16\, \pi^2) vezes um certo logarítmo, que quase sempre é muito pequeno. Além disso, nós já conhecemos um exemplo de teoria da perturbação para partículas que milagrosamente funciona mesmo sendo uma expansão em um número da ordem de 1 que é a Lagrangiana quiral para píons e nucleons. Mas o valor da massa do top é um pouco não natural porque no Modelo Padrão não há nenhuma boa razão para esse acoplamento ser 1. Há uma coincidência de massa inexplicável ai…

Não sei se correções radiativas melhoram ou pioram a concordância do VEV do Higgs com a massa do top, alguém conhece uma referência?

Ah, e olhando rapidamente estes artigos experimentais não vi que esquema de renormalização eles estão usando para essa massa. Como a massa dos quarks depende do esquema de renormalização, isso deveria estar dito em algum lugar. Eu suponho que seja \overline{MS}.

ScribTeX = Wiki + TeX…?

terça-feira, 17 mar 2009; \12\America/New_York\America/New_York\k 12 Deixe um comentário

Ainda falando sobre a edição colaborativa de textos em TeX, acabei de trombar em algo bastante inusitado,

A idéia é simples, é uma mistura orgânica de Wiki com TeX: o software contém uma distribuição completa de TeX (LiveTeX) e vc usa a sintaxe normal do TeX/LaTeX; a diferença é que é num ambiente “Web2.0”: numa interface de Wiki e nas “nuvens” (i.e., não é no seu computador, mas nas “Internets” 😉 ). Então, vc tem o controle de versão e a possibilidade de colaboração feito pela parte “Wiki”, e o TeX feito pela distribuição LiveTeX contida no software. A interface é análoga a do GoogleDocs: vc cria seu documento e escolhe com quem vai compartilhar e tudo mais — básico mas efetivo.

Me parece que essa idéia é análoga a do branch do Instiki que o Distler usa,

Porém, o ScribTeX parece usar o Wikimedia como engine (além de ser um ‘hosted service’, i.e., funcionar “in the cloud”) — código fonte pode ser encontrado no GitHUB: MathWiki.

Eu, pessoalmente, ainda prefiro algo nas linhas daquilo que descrevi no post que fiz aqui no AP sobre isso (integração de “Emacs + AUCTeX” com git rodando num servidor central, esse sim, na “cloud”), mas acho que essa é uma excelente opção para um “hosted service” (i.e., eu não tenho que administrar nem servidor nem instalação nenhuma 😛 ), pra algo na “cloud”, no melhor estilo Web2.0.

Vamos ver como andam as coisas daqui pra frente… 😈

Nova restrição a massa do Higgs

segunda-feira, 16 mar 2009; \12\America/New_York\America/New_York\k 12 9 comentários

Sexta-feira o Fermilab anunciou que CDF e D0 irão publicar em breve uma nova restrição a massa do bóson de Higgs. A região excluída é a janela 160-180 GeV/c2. Isso sugere que o Higgs, se é que existe, deve ter massa menor que 160 GeV/c2 embora a região entre 180 e 185 não pode ser excluída com muita certeza (mas é pouco provável, já excluída com uma probabilidade de uns 80%). Não há ainda um artigo publicado com o resultado, embora hoje o CDF publicou uma medida das seções de choque de mésons B (que é utilizada na procura do Higgs no Fermilab).

Região de massa permitida ao Higgs, março de 2009.

Região de massa permitida ao Higgs, março de 2009.

A Próxima Campanha…

domingo, 15 mar 2009; \11\America/New_York\America/New_York\k 11 Deixe um comentário

Enquanto eu estou aqui, entre esperar minha roupa secar e me preparar pra levar o lixo pra fora, decidi dar uma lidinha (um pouco atrasada, é verdade) na última edição da Science que eu tenho aqui, em particular, no editorial,

Deixem-me traduzir esse editorial.

A eleição presidencial dos USA acabou, o presidente já tomou posse. Agora vem o desafio de governar. O Presidente Obama, seu time de liderança, e o 111º Congresso enfrentam problemas atordoantes. Entre os [problemas] mais teimosos dos USA estão aqueles relacionados a prover uma educação de primeiro nível a todas as crianças, atualizando os conhecimentos e habilidades dos pais [dessas crianças], e preparando todos para enfrentar as ameaças e oportunidades do século 21. A comunidade científica precisa tirar vantagem da crescente insatisfação pública com o sistema educacional atual e perguntar como o ensino e aprendizado de ciência pode ser transformado. Resumindo, os cientistas precisam montar a próxima campanha.

Em primeiro lugar, os cientistas precisam ajudar o público adulto a desenvolver um entendimento claro do que é ciência e o que deveria ser educação científica: um modo de descobrir o mundo baseado em evidências e análises lógicas. Um consenso está se formando nas comunidades científica, filantrópica e poĺitica sobre quais devem ser nossos objetivos. Pesquisas feita pela organização sem fins lucrativos “Public Agenda” indicam que os adultos se dão conta de que alguma coisa está faltando na instrução científica, apesar que não necessariamente para seus filhos. Essa tensão pode providenciar o espaço necessário para se introduzir um núcleo comum  de padrões para educação científica através dos USA; investir, enquanto nação, em procedimentos que mensuram o entendimento e habilidade científica que cada criança precisa para ter sucesso na economia global de hoje; e construir esforços vigorosos para recrutar, treinar, e reter os professores de ciências mais efetivos.

Se é para os USA atacar seus vários desafios — incluindo o desenvolvimento duma “economia verde” e fontes alternativas de energia que diminuem o impacto climático e atacam o aquecimento global como, talvez, a maior ameaça que enfrentamos como um planeta — a educação científica tem que ir para o palco e ter o foco principal. O Presidente Obama já reconheceu os desafios de recrutar e recompensar professores de ciência e matemática e de fazer da ciência, como nos anos pós-Sputnik, uma parte mais integral e inspiracional da nossa cultura. Agora nós precisamos tornar esse tipo de visão nacional de longo prazo em realidade orgânica.

Apesar da necessidade de se criar uma base de talentos para carreiras e cidadãos com base científica para o século 21 ser nacional (na verdade, global), a maioria das atividades pra se conseguir tal objetivo é local. Comunicação é necessária para se explicar as contribuições passadas da ciência para o crescimento econômico e o papel tradicional da ciência como um motor de mudança. Os trabalhadores para essa campanha devem ser recrutados, treinados, e postos para trabalhar, desde cientistas acadêmicos, indústrias e negócios, grupos da sociedade cívica, e sindicatos. Fontes devem ser extraídas a partir de filantropistas locais, entendendo a necessidade de se construir a consciência pública e apoio para uma agenda de mudanças. Apoio deve ser alistado da mídia, mas também de grupos comunitários, associações de pais e professores, e aposentados de todas as vertentes políticas. A comunidade científica tem muito a oferecer. Imaginem expandir por ordens de magnitude o número de cientistas e engenheiros aposentados trabalhando com professores e alunos em escolas ou em museus e centros de ciência como docentes; cientistas servindo em comissões educacionais estaduais e conselhos sendo reunidos por vários governadores; e em comunidades locais, cientistas advogando pela educação científica para prefeitos, comissões escolares, e superintendentes e apoiando a implementação com diretores, professores e alunos.

Nessa campanha, os cientistas vão precisar medir “ativos” (“espólios”) nacionais e locais, notando o que já deu resultado em outros lugares, como nos países Nórdicos onde a alfabetização científica é alta. Diferentemente de alguns países, os USA não têm um ministério da educação. Ao invés disso, uma estratégia para transformar a educação científica precisa unir os interesses e ações de 50 estados, 15.000 distritos locais, 3.500 faculdades e universidades, e incontáveis organizações científicas informais que constituem o sistema educacional dos USA. Incentivos federais devem fomentar a colaboração em agregar e compartilhar evidência de experimentos informados por pesquisas, guiados por um núcleo sólido de padrões nacionais para a educação científica. Os estados poderiam começar com lições de décadas de idade aprendidas pela Associação Americana para o Avanço da Ciência (AAAS) e plas Academias Nacionais, e por estados como Massachusetts ou países como Singapura, ambos os quais tiveram performances boas nos testes internacionais.

Apesar de cientistas geralmente ficarem mais confortáveis com a apresentação de fatos do que com a divulgação pública [dos mesmos], a próxima campanha pede que eles façam ambos.

Esse é um “Plano de Nação”, baseado em sólidos e robustos princípios científicos, visando melhorar todo o país: uma idéia simples (usar princípios científicos par melhorar o país, elevando seus padrões científicos e educacionais, trazendo consigo uma multiplicação econômica) com uma implementaçnao estrategicamente planejada.

Pra finalizar, só pra dar uma relaxada, eu preparo vcs pro que está por vir amanhá… Duas Culturas. 😎

Diversão garantida… 😈

PI Summer School 2009

sexta-feira, 13 mar 2009; \11\America/New_York\America/New_York\k 11 Deixe um comentário

Forwarding message:

Dear Colleague,

The registration is now open for the Perimeter Institute Summer School,
*“Exploring the Cosmological Frontiers”*, which will be held June 24 to July 1, 2009. This will be the seventh of an ongoing series of annual summer schools in theoretical physics. This year’s lecturers include: Neta Bahcall, Alessandra Buonanno, Paolo Creminelli, Olivier Dore, Jaume Garriga, Stephen Hawking, Jean-Luc Lehners, Avi Loeb, Leonard Susskind, Neil Turok and Neal Weiner.
Perimeter Institute Summer School 2009: Particle Physics, Cosmology & Strings: June 24 – July 1.

— End.

Nota: no site do PI, vejam os novos “Distinguished Research Chairs”… O que será que o PI está tramando? Dominar o mundo? :O

Aff… não bastava eles terem tomado uns meses do Hawking, fizeram o Turok de diretor!

A semana nos arXivs…

sexta-feira, 13 mar 2009; \11\America/New_York\America/New_York\k 11 Deixe um comentário

Velhas e novas evidências da matéria escura, e um pouco do lado negro da força

quinta-feira, 12 mar 2009; \11\America/New_York\America/New_York\k 11 10 comentários

Ilustração da situação do espectro de raios cósmicos. Com o lado negro da força no meio.

Ilustração da situação do espectro de raios cósmicos. Com o lado negro da força no meio.


Ah, terminado esse trimestre, dois seminários de cursos concluídos. Daí pensei em compartilhar com vocês o que eu aprendi para dar um desses seminários: os possíveis novos sinais (de outubro de 2008) da existência da matéria escura que vieram do satélite PAMELA e do balão ATIC. 🙂 Fica ai quem quiser… Primeiro eu falo sobre as velhas evidências, depois sobre as novas.

Coisas velhas

Já estava na hora de falar de matéria escura nesse blog. Essa história começou quando o Zwicky descobriu que a razão massa/luminosidade de galáxias espirais é pelo menos mais de 10 vezes maior que a do Sol. A luminosidade é uma medida da potência irradiada da luz (aquela em Watts), essa se mede diretamente na Terra. E a massa se acha utilizando a lei de Newton da gravidade para deduzir a distribuição de velocidades das estrelas nas galáxias. Mais tarde, Vera Rubin fez várias medidas precisas das velocidades das estrelas em várias galáxias espirais e obteve sistematicamente que a velocidade é mais ou menos constante mesmo longe do centro luminoso da galáxia (onde a maioria das estrelas se encontram). Isso só pode ser explicado no paradigma da gravitação de Newton se há uma distribuição aproximadamente uniforme de massa que se estende para bem além da galáxia visível (chamado halo de matéria escura).

Mas esse efeito não é, de repente, da Relatividade Geral? A resposta é não, por duas razões muito importantes. A primeira é que a velocidade das estrelas nas galáxias é tão pequena em comparação com a da luz que é válida a lei de Newton. E isso é possível ser quantificado com a aproximação pós-Newtoniana da Relatividade Geral, que é confirmada com enorme precisão nas medidas da NASA/CalTech da órbita das sondas espaciais e da Lua no Lunar Ranging Interferometer (saca só este artigo). A segunda é que mesmo a Relatividade Geral em toda a sua glória (resolvida exatamente, sem nenhuma aproximação) exige a matéria escura, por causa do diagrama de Hubble.

Qual é a desse diagrama? Na Relatividade Geral se calcula o valor do parâmetro de Hubble (que não é constante) em função da idade do universo em termos dos constituintes do universo: radiação, matéria massiva e qualquer outra coisa que você quiser colocar. A grande utilidade dessa variável cosmológica é que a dependência dela com a idade é distinta para cada diferente componente. P.ex. a matéria massiva contribui com uma potência (1+z)3 para H2, onde z é o desvio para o vermelho das linhas espectrais (quanto maior z menor é a idade do universo), mas a radiação contribui com (1+z)4, a energia escura contribui com \approx (1+z)^0 (constante) e por ai vai (err.. na verdade tem que fazer uma integral dessa série de potências… mas permita-me simplificar, ok?). Então é fácil saber quanto tem de matéria massiva no universo: medindo o valor de H em função de z utilizando diversos dados astronômicos, basta ajustar uma série de potência aos dados e extrair o coeficiente do termo adequado. Resultado: ~ 30% da densidade de energia do universo é matéria massiva. Mas isso não pode ser bárions ou léptons (prótons, nêutrons / elétron e neutrino), porque a abundância primordial de hélio-4, hélio-3, hidrogênio, deutério, lítio, boro e outros restringe que esse tipo de material só soma 4%-5% no máximo. Portanto, cerca de 25% da densidade de massa do universo é composta de algo desconhecido (a matéria escura).

Coisas novas

Há um modelo astrofísico no mercado que prevê o número de partículas como elétrons, pósitrons, prótons, etc. que devem chegar a Terra — os raios cósmicos — vindo de processos naturais de estrelas na galáxia, a versão mais sofisticada atual é do Igor Moskalenko (Stanford U) e Andrew Strong (Max Planck). Esse modelo faz um bom trabalho em prever quase todo o espectro de raios cósmicos de poucos MeV até 10 TeV (são aqueles que vem da nossa própria galáxia). Isso é visto com nitidez nas Figs. 1 e 2. Mas na Fig. 2 você vê que há uma lombada nos dados que o modelo perde. E na Fig. 3 você vê que o modelo está completamente fora. Qual a explicação para a lombada do ATIC na região de 300 – 800 GeV? E o excesso de pósitrons do PAMELA em comparação com o cálculo astrofísico?

Agora, outro ponto de informação interessante. O satélite INTEGRAL/SPI mediu uma emissão de luz que vem do centro da galáxia que é devida a reação elétron+pósitron->fótons. De onde vem esses pósitrons no centro da galáxia? Os dados do INTEGRAL já excluiram a possibilidade de supernovas. Até o momento os astrofísicos não tem idéia…

Espectro de antiprotons medidos pelo satélite PAMELA (Out 2008). As linhas correspondem a modelos, a sólida a um do tipo Moska&Strong.

Fig. 1. Espectro de antiprotons medidos pelo satélite PAMELA (Out 2008). As linhas correspondem a modelos, a sólida a um do tipo Moska&Strong.

Espectro de elétrons cósmicos na Terra medido pelo balão ATIC (Nature, Out 2008). A curva tracejada é o resultado do cálculo Moska&Strong somado com fontes pontuais astrofísicas de conhecimento do ATIC que estavam ativas no momento das medidas (a contribuição destas é exageradas nas curvas corloridas).

Fig. 2. Espectro de elétrons cósmicos na Terra medido pelo balão ATIC (Nature, Out 2008). A curva tracejada é o resultado do cálculo Moska&Strong somado com fontes pontuais astrofísicas de conhecimento do ATIC que estavam ativas no momento das medidas (a contribuição destas é exageradas nas curvas corloridas).

Medidas precisas do espectro de pósitrons cósmicos do satélite PAMELA. A linha sólida é o cálculo Moska & Strong. Esse gráfico não é tão bom quanto do ATIC porque PAMELA não incluiu (ainda) o fluxo previsto por qualquer fonte pontual temporária (diferente do ATIC).

Fig. 3. Medidas precisas do espectro de pósitrons cósmicos do satélite PAMELA. A linha sólida é o cálculo Moska & Strong. Esse gráfico não é tão bom quanto do ATIC porque PAMELA não incluiu (ainda) o fluxo previsto por qualquer fonte pontual temporária (diferente do ATIC).

A-Ha. Ai há uma janela de descobertas. Enquanto alguns se perguntam que mecanismo de aceleração de partículas carregadas foi esquecido (um pulsar, talvez) no modelo Moska&Strong, outros propõem que os excessos vistos por PAMELA, ATIC e INTEGRAL são da matéria escura. Dentro de um modelo genérico para a matéria escura conhecido por WIMPs (de weakly interacting massive particles, partículas massivas que interagem pela força eletrofraca), é previsto que na galáxia atualmente deve haver aniquilação de WIMPs com anti-WIMPs. WIMPs aparecem muitas vezes em modelos além do Modelo Padrão (que resolvem o chamado problema da hierarquia): dimensões extras, supersimetria (SUSY), Little Higgs, etc. Dentro do modelo de que existem mais dimensões espaciais no universo, mas que são grandes ~ 10-16 cm (i.e. TeV) em comparação com o comprimento de Planck, esses dados podem ser naturalmente explicados. Isso já havia sido mostrado na publicação original do ATIC na Nature, todavia há trabalhos mais detalhados disponíveis. Não tem muito jogo de cintura possível aqui porque a seção de choque de produção dessas partículas é fixada automaticamente pela densidade de matéria, e a escala de massa (embora não o valor exato) é fixada pela massa do bóson W.

O Modelo Padrão Supersimétrico Mínimo (MSSM) não consegue, por si só, explicar os dados do PAMELA. A seção de choque do MSSM fixada pela densidade de matéria escura observada astronomicamente precisa de um fator pelo menos de 30 para explicar o número de pósitrons observados. Dependendo de como você brinca com os parâmetros dos modelos supersimétricos, esse fator pode chegar a 100, 1000… 1010. Mas nem tudo está perdido para supersimetria. Fatores de 100 ou 1000 foram recentemente descobertos como esperados se você introduzir uma nova interação na teoria, que interage fortemente com a matéria escura, mas não com as partículas já conhecidas. Curiosamente, os dados do PAMELA e do ATIC sugerem que essa nova interação tem que ser leve em comparação com a escala TeV, digamos de poucos GeV de massa ou menos. Se essa nova interação escura for devida a uma partícula de massa da ordem de até 100 MeV, ela pode explicar a origem do sinal do INTEGRAL, porque permite um mecanismo no qual há uma pequena diferença de massa entre estados da matéria escura que é da ordem de MeV, e transições entre esses estados estão na região certa de energia para criar pares elétron-pósitrons (o par tem 1 MeV de massa). Com isso se explica tanto o sinal do PAMELA e ATIC, que exige uma partícula de matéria escura pesada > 600 GeV para produzir elétrons/pósitrons nas energias observadas, com o INTEGRAL/SPI que exige matéria escura ~ 1-100 MeV.

E então? Nova física? Novas partículas? Uma nova força que age apenas nas matéria escura portanto, uma força escura? 🙂

Citation Needed

  1. ATIC: J. Chang et al. (ATIC), Nature 456, 362 (2008).
  2. PAMELA: antiprotons, positrons
  3. Nova força escura: N. Weiner et al.; Katz & Sundrum Model para SUSY.

Teorias de Gauge: passado e futuro…

quarta-feira, 11 mar 2009; \11\America/New_York\America/New_York\k 11 7 comentários

Em outubro e novembro de 1994 muitos acreditaram que o epitáfio das Teorias de Gauge estava escrito (pelo menos no que diz respeito a sua aplicação em Topologia Diferencial 😉 )… Mas, a estória não começa aí. Nos idos de 1984 S. K. Donaldson encontrou uma conexão profunda, porém misteriosa, entre Yang-Mills e Topologia Diferencial 4-dimensional. O trabalho, entitulado Self-dual connections and the topology of smooth 4-manifolds (ver também An application of gauge theory to four-dimensional topology), segundo M. Atiyah, simplesmente

“(…) stunned the mathematical world.”

Passados 10 anos desse trabalho, aparece um rumor, dizendo que um conjunto de equações propostas por E. Witten havia tornado essa conexão obsoleta em Topologia — claro, era um exagero. 😎

Atualmente conhecidas como Teoria de Gauge de Seiberg-Witten (ver mais em A Revolution in Mathematics, The Seiberg-Witten equations and 4-manifold topology e Introduction to Seiberg-Witten Theory and its Stringy Origin), essa equações realmente representam um atalho pra várias resultados em Teorias de Gauge e rapidamente demonstram novos resultados importantes — elas mesmas são parte duma Teoria de Gauge e iluminam aspectos das equações de Yang-Mills usadas por Donaldson.

Ao invés de tornar Teorias de Gauge obsoletas, as equações de Seiberg-Witten tornaram as teorias de Gauge ainda mais interessantes e robustas.

O Passado das Teorias de Gauge…

Se valendo do trabalho de M. H. Freedman sobre variedades 4-dimensionais topológicas, a teoria de gauge de Donaldson mostrou que a classificação diferenciável de variedades 4-dimensionais suaves é muito diferente de sua classificação a menos de homeomorfismos. Combinado com o trabalho de Freedman, o resultado foram estruturas diferenciáveis exóticas em espaços Euclidianos 4-dimensionais que não aparecem em outras dimensões.

Teorias de Gauge versam sobre conexões (ou derivadas covariantes), A, num fibrado principal sobre uma variedade 4-dimensional suave, X, orientável e provida duma métrica Riemanniana, com um grupo de Lie compacto, G. As conexões de interesse são as chamadas instantons, as soluções das equações de Yang-Mills que são anti-self-dual, definidas da seguinte maneira: Seja ∗ o operador estrela de Hodge, definido pela orientação e pela métrica Riemanniana em X. Dessa forma, F^{A} é a curvatura da G-conexão A. Portanto, a parte self-dual da curvatura é,

F^{A}_{+} = \displaystyle\frac{1}{2}\, \bigl(F^{A} + \ast F^{A}\bigr)

e a equação de Yang-Mills anti-self-dual é dada por,

\ast F^{A} = -F^{A} \Longleftrightarrow F^{A}_{+} = 0 \; .

Instantons são os mínimos do funcional de Yang-Mills, \mbox{YM}[A] = \int_{X} |F^{A}|^{2}. Quando o grupo G = U(1) (i.e., no caso Abeliano, no Eletromagnetismo [clássico]), a equação anti-self-dual é linear e os instantons são completamente descritos pela Teoria de Hodge. Quando G = SU(2) (i.e., no caso não-Abeliano, para a Força Fraca), a equação é não-linear, elíptica no espaço das conexões módulo automorfismos do fibrado (i.e., transformações de gauge). O espaço de soluções dessas equações — o moduli space de instantons menos transformações de gauge — é, genericamente, uma variedade suave de dimensão finita, M. Porém, essa variedade é usualmente não-compacta, em parte por causa da invariância conforme das equações, e essa falta de compacticidade leva a vários problemas nas aplicações topológicas da teoria de gauge. Notem que aqui, assim como anteriormente, também é possível se usar Teoria de Hodge para atacar esse problema, porém é preciso usar Teoria de Hodge Não-Abeliana, como feita, e.g., em Higgs bundles and local systems ou em “Nonabelian Hodge Theory” (Proceedings of the International Mathematical Congress, Kyoto, 1990, 747-756) — e, como vcs já podem imaginar, existem conexões com Quebra Espontânea de Simetria e Transições de Fase (principalmente quando se nota que transições de fase quânticas é algo intimamente ligado com moduli spaces em Física 😉 ).

Em 1981–82, Donaldson teve a idéia de que a topologia algébrica do moduli space M contém informação sobre a estrutura diferencial de X. No começo, isso foi uma total surpresa para os topologistas. Mesmo depois da Teoria de Gauge já estar bem estabelecida como uma ferramenta em topologia, não havia um entendimento conceitual de como e porque os instantons estavam relacionados com a estrutura de variedades 4-dimensionais. No começo, Donaldson demonstrou que conexões em superfícies algébricas complexas com curvatura anti-self-dual são o mesmo que fibrados holomórficos estáveis no sentido dado pela teoria de invariantes geométricos. Mais ainda, os invariantes de instantons são não-triviais para superfícies algébricas. Isso estabeleceu uma forte ligação entre entre Teorias de Gauge e Geometria Algébrica. Topologia Diferencial em 4-dimensões passou a ser vista como sendo muito próxima de Geometria Complexa.

O Futuro das Teorias de Gauge…

Para escrever as equações de Witten sobre uma variedade Riemanniana suave, orientável e 4-dimensional X, é preciso se escolher uma estrutura de \mbox{Spin}^{c}, i.e., um lift do frame bundle de SO(4) para \mbox{Spin}^{c}(4) = \mbox{Spin}(4){\times}_{\pm 1} U(1). Associado a essa estrutura estão os fibrados V_{\pm} de spinores positivos e negativos e um complex determinant line bundle L = \mbox{det}(V_{\pm}). Mais ainda, há um mapa canônico \sigma\, :\; V_{+}\times V_{+} \rightarrow \Lambda_{+}^{2} definido via a parte sem traço dum elemento em V_{+}\otimes V_{+} considerado como um endomorfismo de V_{+}.

Uma conexão U(1), A, em L, juntamente com a conexão de Levi-Civita da métrica Riemanniana, induzem uma derivada convariante \Gamma(V_{+}) \rightarrow \Gamma(V_{+}\otimes T^{*}X). Compondo com a multiplicação de Clifford, \Gamma(V_{+}\otimes T^{*}X)\rightarrow \Gamma(V_{-}), se define um operador de Dirac, D_A:\; \Gamma(V_{+}) \rightarrow \Gamma(V_{-}). Dessa forma, as equações de Witten para uma conexão A e um spinor positivo \phi\in \Gamma(V_{+}) são:

D_A \phi = 0 \; ;

F^{A}_{+} = i\, \sigma(\phi,\phi) \; .

Essas equações são invariantes sob automorfismos do fibrado L, mas não são invariantes por simetria conforme. As soluções, chamadas de monopólos, são os mínimos do funcional,

\displaystyle\int_{X} \bigl(|F_{+}^{A} - i\, \sigma(\phi,\phi)|^2 + |D_{A}\phi|^2\bigr) \; .

O espaço de monopólos módulo automorfismos do fibrado (transformações de gauge) é, genericamente, uma variedade suave, e é sempre compacto. Compacticidade segue da fórmula para o Weitzenböck do operador de Dirac combinada com teoria elíptica tradicional. Mais, se a curvatura escalar da métrica Riemanniana for não-negativa, todas as soluções das equações do monopólo têm \phi=0 e, portanto, são U(1) instantons.

A compacticidade dos moduli spaces dos monopólos os torna muito mais simples de se trabalhar do que os moduli spaces de instantons. Essa é a razão principal que o torna o método de Witten muito mais simples do que o de Donaldson. Apesar dos moduli spaces de instantons e monopólos parecerem conter as mesmas informações, os monopólos estão amarrados muito mais intrinsecamente à geometria Riemanniana de X. Isso inspira esperança para o desenvolvimento dum approach combinatórico para teorias de gauge.

É possível se definir invariantes de estruturas diferenciáveis, e.g., se contando o número de pontos em moduli spaces 0-dimensional (será que alguém sabe como relacionar essa construção com transição de fases quânticas? 😉 ). Esses invariantes são triviais para variedades que admitem ou uma métrica Riemanniana com curvatura escalar positiva ou uma decomposição em termos duma soma conecta suave na qual ambas as parcelas têm formas de intersecção que não são negativa-definida.

As Origens Físicas…

Yang-Mills é uma teoria clássica de campos com simetria conforme cujos estados fundamentais são instantons. Um pouco de prática com Teorias Quânticas de Campos sugere uma receita para torná-las em Teorias de Campos Topológicos, cujas funções de correlação são os invarianes de instanton de Donaldson. Como eles são invariantes da estrutura diferenciável, é possível se variar a métrica Riemanniana usada sem afetar os invariantes. Witten mostra como, estudando uma família de métricas g_{t} = t\, g_{0}, onde t > 0 é um parâmetro real, leva naturalmente ao aparecimento das equações de monopólo. Para t pequenos, a aproximação clássica para teorias quânticas de campos coincide com a definição dos invariantes de instanton de Donaldson. Por outro lado, para grandes t, os estados de vácuo quânticos da teoria, parametrizados por uma variável complexa u, se tornam relevantes (será que alguém disse “transições de fase quânticas”? ou θ-vácuos? 😉 ). Dessa forma, a teoria quântica naturalmente implica na consideração da família de curvas elípticas,

y^2 = (x^2 - 1)\, (x - u) \; .

Para um u genérico, a curva elíptica é suave, mas ela se degenera para uma curva racional quando u = \pm 1.

Para uma grande classe de variedades, toda informação topológica da teoria dos instantons pode ser extraída se estudando as funções elípticas apropriadas em vizinhanças infinitesimais dos pontos \pm 1 no plano-u. A razão é que para esses valores especiais do parâmetro certas partículas na teoria quântica — os monopólos — se tornam sem massa (“massless”), apesar delas terem massa na teoria clássica. As equações dos monopólos parecem detectar as partes mais simples da teoria de Donaldson, que é tudo que existe em variedades simples. Porém, há variedades como o plano projetivo complexo, onde simplesmente não há monopólos, e para as quais a teoria de Donaldson tem outra parte mais complicada. Na descrição da teoria quântica de campos, essa parte é detectada via integração sobre o plano-u, uma vez que para essas variedades há mais no plano-u do que é possível se ver ao redor dos pontos especiais \pm 1.

Dado o enorme impacto da equação de monopólos U(1) sobre a topologia de espaços 4-dimensionais, há granes expectativas. Teoria de Gauge está mais ativa e motivante do que nunca. 😈

Referências…

Tamas Hausel, & Michael Thaddeus (2002). Mirror symmetry, Langlands duality, and the Hitchin system Inventiones Mathematicae, 153 (1), 197-229 arXiv: math/0205236v1

Atiyah, M. (1988). Topological quantum field theories Publications Mathématiques de l’Institut des Hautes Scientifiques, 68 (1), 175-186 DOI: 10.1007/BF02698547

Edward Witten (1994). Monopoles and Four-Manifolds Math. Res. Lett., 1, 769-796 arXiv: hep-th/9411102v1

Falando em fuga de cérebros…

terça-feira, 10 mar 2009; \11\America/New_York\America/New_York\k 11 Deixe um comentário

Pra quem sabe da importância desse assunto, os links abaixo são bastante interessantes e relevantes para essa discussão — vale a pena comparar o que ambos os textos dizem, e notar a diferença em política científica das partes envolvidas. Alguns trechos de ambos os artigos…

O trabalho que apresentei está disponível abaixo, e inclui alguns gráficos mostrando a forte tendência da CAPES e do CNPq de reduzir o apoio a estudos de brasileiros no exterior, e também de substituir as bolsas de doutorado por bolsas “sandwitch” de curta duração. Acho que estas políticas merecem uma discussão mais aprofundada.

A conclusão do artigo é que “es posible resumir esta discusión, remitiéndola a los riesgos y oportunidades que existen en la cooperación internacional. No se trata de optar por dos extremos, el de la internacionalización absoluta, que de hecho jamás va a existir, y el del nacionalismo cultural, científico y tecnológico, que tiene también obvios limites. Una política adecuada debería tomar en cuenta los beneficios del diálogo, oportunidades de aprendizaje y cooperación que existen cuando los caminos del intercambio y del flujo de personas e ideas están abiertos; asimismo, debería considerar los posibles límites de políticas educativas y de desarrollo científico y tecnológico que no invierten en la creación de instituciones de calidad en sus propios países, para que sea posible combinar de forma efectiva la investigación científica de calidad y actividades educativas, tecnológicas e científicas de interés y relevancia para sus propias sociedades. Esta no es, creo, una cuestión de recursos, sino que, principalmente, de orientación y actitud.

What should have been a short visit with her family in Belarus punctuated by a routine trip to an American consulate turned into a three-month nightmare of bureaucratic snafus, lost documents and frustrating encounters with embassy employees. “If you write an e-mail, there is no one replying to you,” she said. “Unfortunately, this is very common.”

Dr. Shkumatava, who ended up traveling to Moscow for a visa, is among the several hundred thousand students who need a visa to study in the United States. People at universities and scientific organizations who study the issue say they have heard increasing complaints of visa delays since last fall, particularly for students in science engineering and other technical fields.

(…)

The issue matters because American universities rely on foreign students to fill slots in graduate and postdoctoral science and engineering programs. Foreign talent also fuels scientific and technical innovation in American labs. And the United States can no longer assume that this country is everyone’s first choice for undergraduate, graduate or postgraduate work.

[]’s.

Esperteza no Mercado Financeiro…

terça-feira, 10 mar 2009; \11\America/New_York\America/New_York\k 11 9 comentários

Já não é de hoje que eu ando ouvindo as trombetas do apocalipse culpando os “analistas quantitativos” (chamados de “quants”) pela infâme crise financeira atual: segundo voz corrente em Wall Street, “a culpa de tudo é desses PhDs”,

“Quants occupy a revealing niche in modern capitalism. They make a lot of money but not as much as the traders who tease them and treat them like geeks. Until recently they rarely made partner at places like Goldman Sachs. In some quarters they get blamed for the current breakdown — “All I can say is, beware of geeks bearing formulas,” Warren Buffett said on “The Charlie Rose Show” last fall. Even the quants tend to agree that what they do is not quite science.”

Ou seja, no final das contas, eis o que está em jogo: Quanto mais “racionalização” (i.e., o trabalho dos quants) se tenta introduzir no tal “mercado financeiro”, pior fica a situação! 😥

Efetivamente, isso até faz sentido (nem acredito que falei isso — se protejam dos raios! 👿 ), uma vez que o tal “mercado financeiro” foi construído, historicamente, por forças que só viam uma maximização selvagem dos lucros, sem racionalidade nenhuma, quiçá ser passível de modelagem matemática. De fato, é como tentar se domar uma besta selvagem… com sete cabeças! 😯

Muita ingenuidade é acreditar que se pode simplesmente colocar um bando de gente modelando algo que, ainda hoje, contém forças intensas que não querem se submeter a nenhum tipo de racionalização (uma vez que, mais cedo ou mais tarde, isso acaba implicando numa racionalização dos lucros, i.e., vc não ganha tão selvagemente mas também não perde tanto dinheiro a ponto de causar uma epopéia mundial, como essa que estamos vivendo ❗ ).

O que é mais triste de tudo isso — absolutamente triste 😥 — é a idéia de que todo esse impasse não passa duma reinvenção da famigerada Guerra das Ciências (leia mais em Phony Science Wars, The Two Cultures, Making Social Science Matter, Social Text Affair, Edge Foundation, The Third Culture). Pior ainda, como o fato é que estamos numa crise financeira (recessão a caminho duma depressão!) de proporções mundiais, envolvendo as maiores potências econômicas atuais, fica cabalmente demonstrado que irracionalidade não leva a lugar nenhum, i.e., enquanto os cães ladravam (tentando avisar que a selvageria não iria levar a lugar nenhum), a caravana ia passando incólume (sem nunca perceber o tamanho do buraco negro que estava a sua frente).

Triste é ter que notar que essa é a essência da natureza humana: a completa e total falta de comunicação, um cabo-de-guerra onde todo mundo perde… 😥 Por que é tão difícil assim de finalmente darmos um passo a frente, largarmos essa irracionalidade “macho alpha” (que é a bússola guia dos “stock traders”) de lado, e partirmos em direção duma maior inclusão de razão na nossa vida como um todo, das “hard sciences” até o mercado financeiro?!

Esse é o objetivo final da chamada Terceira Cultura, que tenta construir uma ponte entre o antigo cabo-de-guerra representado pela “Guerra das Ciências”, e mover a humanidade adiante. E é isso que eu honestamente espero que deixemos como legado para as próximas gerações.

😈

Teorema do Livre Arbítrio

domingo, 8 mar 2009; \10\America/New_York\America/New_York\k 10 2 comentários

Teorema do Livre Arbítrio

Essencialmente, o enunciado desse teorema diz que se nós, seres humanos, temos livre arbítrio, então partículas elementares também já possuem sua justa parte desse bem. Mais ainda, a demonstração desse teorema não necessita [e, portanto, sequer menciona os termos] dos conceitos de “probabilidade” nem de “estados” [que determinam tais probabilidades], o que é excelente, uma vez que essas noções já causaram confusão demais.

Mas, antes de entrar nos pormenores desse resultado (e de sua versão mais robusta, chamada de “Teorema Forte do Livre Arbítrio”), é melhor começarmos com alguns problemas um pouco mais leves.

O Paradoxo EPR

O Paradoxo EPR (nomeado em homenagem aos seus criadores: Einstein, Podolsky e Rosen) era um experimento mental quando foi concebido, porém, atualmente, já tem sido testado em laboratórios. Essencialmente, ele diz o seguinte:

Paradoxo EPR

Dois fótons são emitidos a partir duma mesma fonte (que tem spin 0), de modo que suas polarizações são opostas — dessa forma, quando uma medida é feita sobre a polarização de um dos fótons na direção de um dos eixos o outro necessariamente terá a polarização complementar.

Agora, suponha que você meça a polarização de um dos fótons na direção do eixo ‘x‘. Isso automaticamente nos diz que a polarização do outro fóton estará “alinhada” ao longo do eixo ‘y‘. Portanto, como um dos fótons nunca foi medido, a única possibilidade é que ele tenha tido sua polarização alinhada ao longo do eixo ‘y‘ no momento que a polarização do primeiro foi medida.

Porém, nós poderíamos ter feito esse experimento ao longo de qualquer eixo! E eis o paradoxo: você, aparentemente, obtém informação sobre uma partícula quântica sem nunca ter que medí-la. Na verdade, você não pode devido ao teorema de não-clonagem: o resultado da medida continua não-determinístico, o que muda são correlações. Para se medir correlações é necessário medir várias vezes a mesma coisa, o que é impossível dado o teorema. Mas foi essa estranha ação à distância que levou Einstein, Podolsky e Rosen a considerarem esse experimento.

E é aqui que os resultados obtidos por um Irlandês chamado John S. Bell se fazem importantes: Bell derivou algumas desigualdades que relacionam os resultados de medidas feitas em objetos [quânticos] fisicamente separados. Essas desigualdades são violadas pela Mecânica Quântica, mas devem necessariamente serem satisfeitas por um par de partículas que se comportam como quantidades independentes depois de terem sido separadas.

Portanto, a violação das desigualdades de Bell demonstra a presença de efeitos intrinsecamente quânticos (chamados de emaranhamento quântico) que não podem ser explicados por nenhum modelo onde as partículas são tratadas como objetos independentes cujas propriedades sejam pré-determinadas e cujas interações sejam locais. Nesse ponto, a maioria das teorias de variáveis ocultas, como a famosa Teoria da Onda-Piloto de Bohm, saem incólumes pois são não-locais (embora haja muitas definições para a palavra não-local e por muitas vezes um sentido é usado no lugar de outro quando não são equivalentes).

O Paradoxo de Kochen–Specker

O Teorema de Kochen-Specker (KS) é um complemento às Desigualdades de Bell. O teorema demonstra que existe uma contradição fundamental entre duas hipóteses básicas de “teorias com variáveis escondidas” (usadas para reproduzir os resultados da mecânica quântica): (1) todas as variáveis escondidas têm um valor definido para qualquer instante; & (2) os valores dessas variáveis são intrínsecos e independentes do aparelho usado para medí-las.

A contradição acontece porque observáveis em mecânica quântica não precisam ser comutativos, tornando impossível de se colocar a álgebra desses observáveis dentro duma álgebra comutativa — que, por hipótese, representa a estrutura clássica duma teoria com variáveis escondidas.

Ou seja, a prova do Teorema KS demonstra a impossibilidade da hipótese de Einstein (acima), que observáveis em mecânica quântica representam “elementos da realidade física”. As teorias de variáveis escondidas, tais como a Teoria de Onda-Piloto de Bohm, tentam contornar essa dificuldade dizendo que graus de liberdade spin (ou qualquer outro utilizado para essa argumentação) não existem de verdade, mas que eles são uma construção “contextual” ao experimento. Face à relatividade, entendemos essa postura como um absurdo físico injustificável. Além disso, o que se está fazendo é abrir mão de um realismo em função de outro, algo menos justificável ainda.

Dessa forma, como o Teorema do Livre Arbítrio é baseado no Teorema KS, ele essencialmente, invalida, sob hipóteses físicas muito razoáveis, qualquer teoria de variáveis escondidas pois ele sugere uma forma explícita de como realizar as hipóteses desse teorema — mas isso vem na próxima seção.

Teorema do Livre Arbítrio

A prova do teorema é baseada em três axiomas, chamados de ‘fin’, ‘spin’ e ‘twin’:

  1. Fin: existe uma velocidade máxima para a propagação de informação (causalidade);
  2. Spin: a componente ao quadrado de partículas elementares de spin 1, medidas em três eixos ortogonais, será uma permutação de (1,1,0).
  3. Twin: é possível “emaranhar” duas partículas elementares, e separá-las por uma distância significativa, de modo que elas tenham os mesmos resultados para o quadrado do spin em direções paralelas (essa é uma conseqüência do “emaranhamento quântico”, apesar de ser mais limitada).

Na versão “forte” do teorema, o axioma ‘fin’ é substituído pelo ‘min’,

  • Min: nem toda informação precisa ter propagação com velocidade finita, apenas aquela informação pertinente às medidas (a serem feitas).

Mas, antes da demonstração… é sempre bom sabermos o que ele diz: dados os axiomas acima, se os dois experimentos em questão são “livres” para fazerem “escolhas” sobre quais medidas fazer, então os resultados desses experimentos não podem ser determinado por nada que tenha acontecido antes das medidas. Mais ainda, é demonstrado que esse resultado não é conseqüência de “aleatoriedade”, portanto uma mistura entre “leis da física” e “variação aleatória” também não funciona.


Também é bom sabermos que, embora Spin e Twin sejam consequências da Mecânica Quântica tradicional, o teorema do livre arbítrio não faz qualquer menção a esse formalismo, sendo suportado apenas por esses fatos que são amplamentes  verificados experimentalmente.

A tática da demonstração do teorema feito em [The Strong Free Will Theorem] é por contradição e se baseia em separar o que é livre arbítrio do que é pré-determinado em dois aparatos experimentais independentes (usando Fin, ao se admitir implicitamente uma separação tipo-espaço entre eles), daí usar um argumento tipo EPR [Twin] para argumentar que a medida em cada eixo de uma tripla ortogonal é perfeitamente correlacionada com a medida do segundo aparato (embora a noção de “primeiro” e “segundo” em experimentos separados por intervalos tipo espaço não seja muito relevante já que é dependente do referencial) e daí usar [Spin] para mostrar que a componente pré-determinada não pode existir através de um argumento do tipo KS.

Esse teorema tem, para ser sincero, pouco espaço sobre a Física mais muito espaço sobre o grande debate filosófico entre mecanicismo e livre arbítrio. A mecânica quântica tradicional argumenta de forma prática sobre essas questões ao introduzir o não determinismo na medida de quantidades físicas. É verdade que isso abre um outro debate de como o processo de medida destrói, ou pelos torna impraticável de detecção, a interferência quântica. Contudo, isso pode ser explicado pelas idéias que levam o nome de descoerência em que é a existência de muitos graus de liberdade no meio em que a medida é feita faz com que a mistura de resultados seja desprovida de termos quânticos, mas o carácter não-determinístico do resultado persiste. O maior valor desse teorema do livre arbítrio é colocar, de forma clara, o motivo porque uma teoria com variáveis ocultas não deve possuir validade física no caso relativístico e, consequentemente, como teorias quânticas de campos (para uma versão mais Física do assunto, veja Lectures on Quantum Field Theory ou Fields; e para uma versão mais matemática do assunto, veja Quantum Field Theory–IAS) que são nossas melhores teorias para descrever a natureza.

Mas… o fato da mecânica quântica ser estranha ao nosso senso comum não faz dela certa nem errada. E devemos ter cuidado com os preconceitos quando estamos criando hipóteses físicas para construir nossos modelos. A maior limitação do teorema do livre arbítrio é não dar nenhuma boa razão científica do porque o experimentador teria livre arbítrio, ou mesmo se não-determinismo é equivalente à livre arbítrio. Se o “livre arbítrio” for, por exemplo, apenas uma limitação experimental, seja de medida ou de determinação das condições iniciais, não há razão teórica para essa limitação não poder ser traduzida numa teoria de variáveis ocultas (não local, mas ainda assim com os problemas que citamos antes). Entretanto, se quisermos beber do que a mecânica quântica nos ensinou e adotar uma postura filosófica que nos parece inclusive mais razoável, então não há espaço para variáveis ocultas.

Referências…

 

Autores…

Esse texto foi editado em colaboração por Daniel Doro Ferrante e Rafael Lopes de Sá.

Categorias:Ars Physica

A semana nos arXivs…

sexta-feira, 6 mar 2009; \10\America/New_York\America/New_York\k 10 3 comentários



Quero fazer uns comentários sobre o artigo/entrevista (“Is There a Higgs”) do Brain Cox acima… continue lendo… 😉

Leia mais…

Testando Google Docs…

quinta-feira, 5 mar 2009; \10\America/New_York\America/New_York\k 10 1 comentário

Esse post é só um teste do uso do Google Docs para postar no AP.

Pra quem ainda não sabia… o Google Docs pode ser usado pra se editar posts e publicá-los diretamente no AP (ou qualquer outro blog do Blogger, WordPress.com ou WordPress.org, LiveJournal, etc — ou então via as APIs do Blogger, do MovableType ou do MetaWeblog).

Para configurar tudo (para o WordPress e usando um Google Docs em inglês) vá para os settings do seu Google Docs e clique em edit info… em Blog settings. Lá vc entra a informação necessária, porém, para o WP, escolha a API do MetaWeblog e digite o seu blog no seguinte formato: http://YOURSITE.wordpress.com/xmlrpc.php.

Depois, basta criar um documento normalmente, trabalhar nele à vontade e, depois de salvá-lo, quando vc já estiver satisfeito e quiser publicá-lo no blog, basta escolher publish e clicar o botão para publicar no seu blog.

Voilà 😈

P.S.: Agora que as plataformas de serviços Web2.0 estão razoavelmente bem desenvolvidas, essa pode não parecer uma grande vantagem, afinal de contas vc pode exportar todos os seus posts de dentro do WP e tudo mais. Mas, quem quiser guardar cópias do que posta no blog, pode usar essa estratégia como uma forma de backup: seus posts ficam devidamente arquivados no Google Docs e são mantidos sincronizados com o blog (de forma que qualquer alteração ou edição no Google Docs implica na atualização do post no blog 😉 ). Mais ainda, também é possível se usar todas as ferramentas/técnicas de colaboração disponíveis no Google Docs para se editar um post com muitos autores, de modo colaborativo (com direito a controle de versão e tudo mais). Então, é um bixinho que vale a pena morder… só pra ver no que dá. :mrgreen:

Entrevista com Caio Gomes

terça-feira, 3 mar 2009; \10\America/New_York\America/New_York\k 10 4 comentários

Dando continuidade a série de entrevistas que começamos a fazer na comunidade Física do orkut, o entrevistado dessa vez é Caio Gomes.

A entrevista será feita da seguinte forma: vocês podem enviar suas perguntas aqui no espaço de comentários desse post ou nesse tópico do Brasil Ciência ou nesse tópico do orkut até o dia 10 de Março. Após o entrevistado responder essa primeira bateria de perguntas, abriremos para novas perguntas por mais 3 dias. A preferência é que usem o blog ou o fórum de discussão do Google Grupos, mas se preferir usar o orkut, passaremos as questões para o local mais apropriado.

As perguntas e respostas serão publicadas numa página a parte e o link divulgado nesse post aqui.

Passaremos a usar esse espaço aqui pois muitas das entrevistas antigas feitas no orkut tiveram seu conteúdo perdido, ficando sem pé nem cabeça, devido aos perfis que saíram dessa plataforma, o que elimina também os comentários dessas pessoas. Felizmente a entrevista com o professor Henrique Fleming foi salva e a do professor Marcelo Gleiser parcialmente salva.

Sobre o Caio, por ele mesmo

Eu sou o Caio, de São Paulo. Sou Físico formado pelo Instituto de Física da USPIngenieur de l’Ecole Polytechnique pela École Polytechnique de Paris. Sou mestre em Física Teórica no Instituto de Física Teórica da UNESP sob a orientação do Prof. Dr. Nathan J. Berkovits, e trabalhei em aspectos da gravitação em d=3 e sua relação com teorias conformes de campos (é um tipo de AdS/CFT). O título da minha dissertação foi Aplicações do Formalismo de Chern-Simons para gravidade em d=3.

Após o fim do mestrado, fiz uma mudança radical na minha carreira. Atualmente estou dividindo meu tempo em duas coisas: Tenho trabalhado na area de modelagem financeira, para um fundo quantitativo em São Paulo, e estou “pesquisando” (ou planejando pesquisar) com dois amigos: o Rafael Calsaverini, um dos editores do AP e moderador da comunidade, em econofísica ( ou como ele gosta de dizer, mecânica estatística aplicada a sistemas econômicos). E estou em fase de buscar ideias com outro amigo, Alexandre Bisson, para trabalhos teóricos na fronteira química/genética.

Boa entrevista! 🙂

Feliz Dia da Raiz Quadrada…!

terça-feira, 3 mar 2009; \10\America/New_York\America/New_York\k 10 4 comentários

Hoje, 2009-Mar-03, ou mais apropriadamente 03/03/09, é o Dia da Raiz Quadrada ! 😎

Como o próximo só daqui a 7 anos… divirtam-se!

😈

Inglourious Basterds!

segunda-feira, 2 mar 2009; \10\America/New_York\America/New_York\k 10 3 comentários

O novo filme do Quentin Tarantino, Inglourious Basterds [sic] já está pronto! 😈 Assista o trailer:
http://www.imdb.com/title/tt0361748/

Estreia em agosto nos cinemas dos EUA e em Outubro no Brasil!

Categorias:Ars Physica

Como medir a massa de um astronauta?

segunda-feira, 2 mar 2009; \10\America/New_York\America/New_York\k 10 3 comentários

O corpo do ser humano evoluiu em um ambiente no qual a aceleração da gravidade possui um valor de g = 10\, \mathrm{m}/\mathrm{s}^{2}. Em condições de microgravidade o organismo e o corpo do ser humano sofre bastante perda de massa, e é por isso que a NASA monitora periodicamente essa perda de massa de seus astronautas.

Eles usam um dispositivo conhecido como Body Mass Measuring Device (BMMD), traduzido para o português seria Aparelho que Mede Massa do Corpo. Ok, não é um nome muito criativo, mas a idéia física por trás do funcionamento do aparelho é bastante engenhosa.

É bom senso que para medirmos nossa massa em uma balança é preciso exercer uma força (ficamos em pé na balança) que comprime uma mola e pela deformação da mola medimos um valor que é calibrado e nos fornece uma medida absoluta de nossa massa. Mas como fazer isso em um ambiente onde a gravidade é praticamente nula? Simples, usando o BMMD:

Body Mass Measuring Device (BMMD), o Aparelho de Medida de Massa Corpórea (AMMC) projetado pela NASA para monitorar a perda de massa de seus astronautas em microgravidade. Foto retirada do site da NASA.

Body Mass Measuring Device (BMMD), o Aparelho de Medida de Massa Corpórea (AMMC) projetado pela NASA para monitorar a perda de massa de seus astronautas em microgravidade. Foto retirada do site da NASA.

Como podemos ver pela figura acima o BMMD é uma cadeira montada com molas. O astronauta senta na cadeira e esta é posta a oscilar. O astronauta mede o período de oscilação na cadeira, e a partir das Leis de Newton ele obtém uma relação matemática que relaciona a massa com outras grandezas experimentais conhecidas. Calculando então sua massa.

Encontrar essa relação matemática entre a massa do astronauta e dados conhecidos é uma tarefa simples que envolve mecânica clássica que aprendemos no colegial.

O sistema formado pelo astronauta e pelo BMMD é um simples sistema massa-mola. Seja M a massa desconhecida do astronauta, e m a massa da mola que oscila no BMMD, k é a constante elástica da mola, e T o período que será a grandeza obtida no experimento.

Nós sabemos dos livros didáticos de física que para um Movimento Harmônico Simples (MHS) também conhecido como (OH). A relação entre a massa do sistema, a constante elástica e a frequência angular (\omega) do MHS é dado pela seguinte relação matemática:

m\omega ^2 =k

A massa na relação acima é a massa total do sistema, que para o caso do sistema BMMD + Astronauta seria M + m. Dessa maneira temos que

(M + m)\omega^2=k

Foto retirada do site da NASA. Mostra uma astronauta no BMMD executando as oscilações. O sistema astronauta + BMMD é o já conhecido sistema massa mola também conhecido como Oscilador Harmônico. O movimento realizado pelo sistema é um movimento harmônico simples (MHS).
Foto retirada do site da NASA. Mostra uma astronauta no BMMD executando as oscilações. O sistema astronauta + BMMD é o já conhecido sistema massa mola também conhecido como Oscilador Harmônico. O movimento realizado pelo sistema é um movimento harmônico simples (MHS).

Lembrando que a relação entre frequência angular (\omega) e período (T) é dado pela seguinte relação matemática:

\omega=\frac{2\pi}{T}

Dessa maneira temos que:

M+m= k\left(\frac{T}{2\pi}\right)^2

Isolando a massa do astronauta (M) do lado esquerdo da relação acima:

M= \frac{k}{4\pi^2}T^2 -m

Usando a relação acima é possível então que a NASA monitore as possíveis perdas de massa de seus astronautas em microgravidade, usando apenas a engenhosidade e conceitos físicos já conhecidos por estudantes do colegial.

Referências

%d blogueiros gostam disto: