Arquivo

Archive for novembro \30\America/New_York 2009

Encontrado um análogo da QCD?

segunda-feira, 30 nov 2009; \49\America/New_York\America/New_York\k 49 1 comentário

Quando cheguei a Dartmouth, o meu primeiro projeto de pesquisa envolveu uma aplicação cosmológica do modelo do Schwinger, que é a versão em 1 dimensão espacial da eletrodinâmica quântica (QED 1+1 daqui para frente). Uma das coisas belas de teorias quânticas de partículas em 1 dimensão espacial é que as integrais de trajetória tem formas fechadas, permitindo calcular todos os observáveis em forma exata. Curiosamente, a QED 1+1 tem integrais de trajetórias idênticas a teoria de um méson escalar com um potencial tipo co-seno. Mais ainda, quando o valor do acoplamento do férmion com o fóton é não-perturbativo (i.e. a interação é forte), o acoplamento do méson é perturbativo (i.e. a interação entre mésons é fraca), e vice-versa, ou seja, se e_\mu é o valor da carga elétrica medida na escala de energia \mu e \lambda_\mu é o valor do acoplamento do campo escalar medido na mesma escala de energia, esses dois se relacionam na forma e_\mu \propto 1/\lambda_\mu. Notando esse fato, Sidney Coleman observou que tinha-se na verdade uma teoria em 1 dimensão que se comporta analogamente a QCD (a teoria das forças nucleares fortes), e não a QED, pois para energias altas em que o acoplamento e_\mu é fraco, a teoria pode ser vista como a teoria de um férmion acoplado com um bóson de gauge, mas a energias baixas, e_\mu se torna grande, a interação férmion-férmion intermediada pelo bóson de gauge confina essa partícula a existir apenas na forma de bósons de spin 0 (o campo escalar). Isso é idêntico ao que acontece na QCD em que o par de quarks up e down confina quando cada quark tem energia E < 240 MeV para formar o os três píons, \pi^0\, , \pi^+ \, ,\pi^- — a física desses últimos é descrita por campos escalares ao invés de férmions de spin 1/2 e glúons.

Relacionado a essa questão, eu fiquei curioso em saber se existia um sistema da matéria condensada que fosse descrito pelo modelo de Schwinger, algum sistema eletromagnético efetivamente de 1 dimensão espacial. Bom, parece que estes senhores encontraram um tal sistema em 1996: Phys. Rev. B 53, 8521 – 8532 (1996), que foi experimentalmente realizado recentemente, com um relatório publicado na Nature Physics ontem.

Leia mais…

LHC: 2.36 TeV

segunda-feira, 30 nov 2009; \49\America/New_York\America/New_York\k 49 Deixe um comentário

Monitor na sala de controle do feixe do LHC mostra 1.17 TeV por feixe de prótons. Hoje o acelerador alcançou a marca de 1.18 TeV por feixe.

Aconteceu hoje: o LHC superou a marca de 1.96 TeV do Fermilab operando a uma energia combinada de 2.36 TeV dos dois feixes de prótons no anel principal! Eba! 🙂 Nos primeiros quatro meses de 2010, a equipe do feixe do LHC pretende acelerar os prótons a uma energia combinada de 7 TeV (energia do centro de massa). O objetivo é chegar a 14 TeV no centro de massa, ou seja 7 TeV em cada próton (no referencial do laboratório). Cada quark e glúon do próton terá uma energia de aproximadamente 1 TeV, fazendo o LHC um acelerador de partículas que colide quarks e glúons juntos a energias de aproximadamente 2 TeV. Essa energia é convertida no produto de decaimento das colisões quarks e glúons, e permite janela suficiente para produzir o bóson de Higgs, que deve ter da ordem de 100 GeV/c2 de massa — uma partícula elementar de massa próxima aos núcleos naturais mais pesados, como o rádio.

Notícia completa: CERN.

Crédito das fotos: CERN.

Comissão de feixe do LHC comemora o controle do feixe estável a alta energia.

Como começou a expansão do universo?

quarta-feira, 25 nov 2009; \48\America/New_York\America/New_York\k 48 3 comentários

Lendo artigos de um grupo de cosmólogos teóricos bem ativos na atualidade, eu cruzei com a observação interessante levantada por Paolo Creminelli, Leonardo Senatore, Markus Luty e Alberto Nicolis, de que na teoria da gravitação atual, a taxa da expansão do universo sempre diminui. A taxa de expansão é o que se chama o parâmetro de Hubble, H. As galáxias relativamente próximas a nós estão se afastando com uma velocidade que é proporcional ao valor atual de H vezes a distância: v = Hatuald. Quanto maior H, mais rápido as galáxias a uma dada distância d se afastam.

Para teorias de campos que respeitam o princípio de relatividade e que possuem apenas soluções estáveis, a variação do parâmetro de Hubble no tempo é sempre negativa:

\Delta H/\Delta t < 0

que está de acordo com a idéia que a gravitação é atrativa. Portanto, mesmo em um universo com expansão acelerada, o que significa que a taxa da variação da distância média entre galáxias aumenta com o tempo, a taxa de expansão do universo diminui com o tempo, e portanto a gravitação de fato desacelera a expansão. Isso é importante porque garante, entre outras coisas, que a gravidade pode atrair matéria para uma região do espaço e formar aglomerados, como as galáxias. Essa condição também assegura que exista um mínimo para a energia do conteúdo do universo, o que se traduz no importante fato de que existe um estado de vácuo estável em cada instante, e que partículas não podem ser criadas do nada sem custo de energia. Em poucas palavras, garante certos critérios de estabilidade física da teoria.

No universo primordial H tinha um certo valor HI maior que o atual, mas se imaginarmos ingenuamente que a expansão do universo deveria ter começado com um processo físico que gradualmente levou o valor de H de zero para HI, precisamos que a variação no tempo de H possa ser positiva, pelo menos no momento da origem do universo. Isso não quer dizer que essa visão ingênua esteja certa, mas seria de fato interessante estudar a possibilidade de um processo físico que leve H de zero para um valor não nulo. Mas como é possível garantir simultaneamente que H cresça no tempo e que a estabilidade física da teoria seja satisfeita?

Creminelli e os demais sugeriram o seguinte: e se nós permitimos que essa violação da estabilidade ocorra de forma controlada para escalas de tamanho sempre maiores que o raio visível do universo? Em outras palavras, seria possível obter simultaneamente uma variação positiva no tempo para H e uma teoria em que sempre em escalas de tamanho suficientemente pequenas você tem efetivamente estabilidade?

O truque reside em começar com uma teoria para a inflação que seja salutar e estudar as perturbações do campo inflacionário (o inflaton) produzidas pelas flutuações quânticas e mostrar que essas perturbações podem contribuir para H de forma a provocar \Delta H / \Delta t > 0. Porém essas perturbações todas podem ser controladas para terem tempo de vida sempre maior que a idade do universo, de modo que nenhum observador é capaz de ver os efeitos físicos da instabilidade, a não ser através de H. Que isso é de fato possível não é trivial, e eu não sei explicar sem mostrar a matemática. Nós podemos começar com uma teoria absolutamente genérica de que existe um certo campo escalar \phi que domina a densidade de energia do universo, e então mostrar que as flutuações quânticas desse campo contribuem para H de modo que a variação no tempo de H seja positiva. Para que o universo sempre possua estabilidade física dentro de todas as regiões causais, deduz-se que a escala de energia da energia escura não pode ser muito maior que aproximadamente 100 GeV. Isso não está completamente descartado uma vez que esta energia é do setor escuro da Natureza, aquele que interage muito fracamente com os prótons, elétrons, fótons, etc., a não ser gravitacionalmente. Se você lembrar de um post anterior, eu já discuti como é possível que exista interações novas da matéria escura exatamente nessa escala de energia.

Uma série de artigos técnicos sobre esse assunto são estes:
arXiv:hep-th/0606090, arXiv:0911.2701, arXiv:0811.0827.

Versão um pouco mais técnica. Visto que

\dot{H} = -4\pi G (\epsilon + p )

para equações de estado p = w \epsilon com w > -1 sempre temos \dot{H} < 0. Para obter \dot{H} > 0 é necessário violar a condição de energia nula (NEC) \epsilon + p > 0. Isso pode ser feito apenas no setor das inomogeneidades da energia e pressão, i.e. calculando-se \delta p e \delta \epsilon, sendo que \bar{\epsilon} e \bar{p}, onde a barra significa a solução homogênea e isotrópica, é sadia. Isso cria um w efetivo menor que -1, violando a NEC. Mas como \delta p e \delta \epsilon são funções do espaço, as componentes de Fourier \delta p_q e \delta \epsilon_q podem ter instabilidade apenas para números de onda q suficientemente grandes, i.e. sempre satisfazendo q/aH \ll 1. Isto é equivalente a tomar que o período característico dos modos instáveis em um instante de tempo é maior que a idade do universo naquele instante. Para evitar a instabilidade gravitacional, a freqüência de Jeans associada ao modo instável também precisa ser menor que H.

Realejo do dia…

terça-feira, 24 nov 2009; \48\America/New_York\America/New_York\k 48 Deixe um comentário

Deus Salve a Rainha — 18 anos sem Freddy Mercury.

Primeira colisão de prótons do LHC ocorreu hoje

segunda-feira, 23 nov 2009; \48\America/New_York\America/New_York\k 48 Deixe um comentário

Um dos primeiros eventos do LHC, reconstruído no detetor ALICE.

As 11h da manhã (hora de Brasília) de hoje, a primeira colisão de prótons foi detectada no LHC! Os prótons circularam a uma energia de 900 GeV (no referencial do centro de massa). O primeiro evento foi registrado a essa hora no ATLAS, depois outra colisão ocorreu no CMS e finalmente outras duas no LHCb e ALICE.

Se tudo correr bem, a comissão que está trabalhando no feixe de prótons do LHC pretende acelerar prótons a 2.4 TeV no centro de massa (CM) até o final de dezembro. Quando este dia chegar, o LHC será oficialmente o acelerador de partículas mais energético do mundo, sobrepujando o Tevatron no Fermilab que opera atualmente a 1.9 TeV no CM.

A presente fase do LHC tem dois objetivos: 1) testar o feixe de prótons no anel circular principal, como o tempo de vida dentro do anel, e 2) servir de dados iniciais para os experimentos calibrarem seus detetores. O objetivo do experimento na sua próxima fase é produzir colisões entre prótons a 14 TeV no CM, suficiente para descobrir — ou descartar a existência — o bóson de Higgs, a única partícula elementar do Modelo Padrão que ainda não foi detectada. O CMS e o ATLAS se encarregarão desta busca, assim como a análise de possíveis novas partículas não incluídas no Modelo Padrão. O LHCb estudará as reações de violação da simetria matéria-antimatéria e paridade do Modelo Padrão, o mecanismo de Cabibbo, Kobayashi e Maskawa, em energias mais altas e com maior precisão no setor menos estudado dessa violação, os dos quarks pesados bottom e top, e ALICE iniciará seu programa científico quando o LHC substituir o feixe de prótons por feixes de núcleos pesados para estudar o plasma de quarks e glúons.

Quando estiver em operação dentro de seu programa científico de descoberta, o LHC trará informações sobre uma escala de tamanho da Natureza ainda completamente inexplorada, uma grande revolução na física de fato. Grande parte dos físicos teóricos de partículas esperam que novos fenônemos surjam na escala estudada pelo LHC por causa do problema da hierarquia da massa do bóson de Higgs.

Mais sobre essa notícia no site oficial do CERN.

150 Anos de Evolução

sábado, 21 nov 2009; \47\America/New_York\America/New_York\k 47 Deixe um comentário

Em 24 de novembro de 2009, completar-se-á 150 anos da publicação de A Origem das Espécies, o trabalho seminal de Charles Darwin que descobriu a seleção natural. É um dia para celebrar uma das maiores conquistas da humanidade, que nos serve de base fundamental para compreender a estrutura dos seres vivos, a relação entre as diferentes espécies, e como novas espécies surgem. Em São Paulo capital, o Instituto de Biociências da USP realizará um evento de 23 a 27 de novembro. O jornal inglês The Guardian preparou um suplemento especial, e a National Science Foundation abriu um website. Em janeiro de 2010, ainda a tempo da comemoração, apresenta-se em cartaz internacional o filme de ficção Creation baseado na história de concepção do livro (ainda sem data certa para lançamento no Brasil). Para quem quiser conhecer a história real em detalhes, eu recomendo a leitura do fantástico livro As Aventuras e Descobertas de Darwin a Bordo do Beagle de Jorge Zahar Editor. Este livro foi escrito pelo tataraneto de Darwin, o fisiologista britânico Richard Darwin Keynes, pesquisador da Universidade de Cambridge. Usando como base o caderno de anotações pessoais de Darwin, o livro reconta em precisão, de forma acessível e também emocionante, a história — e de fato, grande aventura! — de Darwin como o naturalista da expedição do HMS Beagle e como ele, muito gradualmente, foi construindo sua concepção da teoria da evolução.

A semana nos arXivs…

quinta-feira, 19 nov 2009; \47\America/New_York\America/New_York\k 47 2 comentários


Academia vs. Business

Academia vs. Business

Buzzwords

Buzzwords

O realejo do dia…

terça-feira, 17 nov 2009; \47\America/New_York\America/New_York\k 47 Deixe um comentário

Informação, entropia, geometria e teorias de campo médio.

domingo, 15 nov 2009; \46\America/New_York\America/New_York\k 46 1 comentário

(eu perdi um sinal em algum lugar por aí, se você achar por favor indique no comentário)

Este post é uma espécie de continuação do post sobre Lógica Bayesiana, ainda que não exatamente. Mas estamos no mesmo espírito. Lá eu discuti a respeito de como raciocinar sobre informação incompleta. Entretanto, quando há informação incompleta uma coisa é certa: com o tempo podemos ganhar informação. E se há nova informação relevante para saber sobre algo, a probabilidade que atribuo – no sentido do post anterir, o registro quantitativo da minha crença racional sobre esse algo – deve certamente mudar.

A grande pergunta então parece ser: como eu devo mudar minha atribuição de probabilidades – minha crença racional – quando adquiro nova informação? Bem, isso sugere uma forma de quantificar informação: se informação causa mudança na minha atribuição de probabilidades, então se eu puder medir quão longe estão minhas atribuições prévia (prior, antes da nova informação) e posterior (posterior, depois da nova informação), então poderei medir quão importante é essa nova informação. Vamos fazer como antes então e propor uma medida de informação e vinculos que nos permitam restringi-la a uma medida única(1).

Leia mais…

Pompéo: triciclo elétrico brasileiro?

sábado, 14 nov 2009; \46\America/New_York\America/New_York\k 46 33 comentários

Parece que um grupo de engenheiros brasileiros deu início a um interessante projeto de construir e mercantilizar um triciclo elétrico, que mais parece um carro compacto de dois lugares. Eis o Pompéo:

De acordo com a reportagem original do Yahoo, Pompéu só existe por enquanto como desenho, O triciclo é projeto inicial dos engenheiros Renato César Pompeu da Universidade Tecnológica Federal do Paraná (UTFPR) e Carlos Eduardo Momblanch da Motta.Uma pergunta que tenho é: já foi construído um protótipo do motor com sucesso? Um protótipo do triciclo já está em parte construído com sucesso [veja o comentário do engenheiro Carlos E. M. da Motta]. A versão comercial do motor será construída pela empresa brasileira WEG. Segundo seus criadores, Pompéu chegaria até a 90 km/h e consumiria hoje cerca de 4 centavos da sua conta de eletricidade para rodar 1 km. Uma versão de motor a álcool também foi projetada, mas o que mais me interessou foi a versão elétrica. Além de ter potencial para uso empresarial como carro de prestação de serviços que não exigem transporte de carga pesada, o automóvel pode atrair consumidores que usam diariamente um carro para viagem até o trabalho. O triciclo ocuparia pouco espaço no trânsito e poluiria menos (ou nada). Mas eu vejo esse projeto como um embrião para o desenvolvimento de outros automóveis elétricos brasileiros para competir na nova indústria do Chevy Volt e do Tesla Roadster, que você talvez já tenha ouvido falar.

O Volt da Chevrolet está programado para entrar no mercado norte-americano no ano que vem. O carro é equipado com um motor elétrico que utiliza uma bateria para percorrer até aproximadamente 65 km sem recarga. Todavia, o carro é bivalente e o motor do Volt pode usar combustão quando a bateria acaba. Um parênteses: O projeto do Volt é um exemplo de como as empresas são desprovidas de ideologia que não seja ganhar muito dinheiro, pois o presidente atual da GM Chevrolet é um desses sujeitos que não acredita em aquecimento global e que acha que a poluição causada por humanos é irrelevante ao planeta, não obstante, ele pessoalmente através de entrevistas fez a promoção do Volt na mídia estadunidense.

Volt, apresentado pela GM, começa a ser vendido em 2010 nos EUA.

O Tesla Roadster já é vendido nos EUA a partir de $100 mil dólares, em um país onde o Honda Civic custa US$15 mil. Não sei qual o preço estimado do GM Volt, mas espero que não seja muito mais caro que um carro compacto da GM, que não sai por mais de US$ 15 mil. O Pompéu está previsto para vender no Brasil só a partir de 2012, por talvez cerca de R$30 mil — que hoje talvez seja um preço um pouco salgado para um triciclo simples. Você pode receber atualizações do projeto inscrevendo-se na lista de emails do site oficial.



Tesla Roadster

Para saber mais: leia o comentário do engenheiro Carlos Eduardo Momblanch da Motta, a quem agradeço muito as informações, e o site oficial do projeto:

http://www.triciclopompeo.com.br/

e também uma notícia no Yahoo.

Lógica Bayesiana

sexta-feira, 13 nov 2009; \46\America/New_York\America/New_York\k 46 6 comentários

Todo mundo conhece a lógica clássica, aquela segundo o qual proposições são julgadas verdadeiras ou falsas através de certos procedimentos de consistência. Mesmo que não conheça as regras da lógica formal, certamente já as usou e saberia reconhece-las. Poucos nunca ouviram o tal exemplo sobre a mortalidade ou não de Sócrates.  A lógica formal nos fornece uma forma de raciocínio: seguindo suas regras básicas eu consigo formas de, de posse de afirmações que eu julgo verdadeiras,  julgar a validade de outras. Mais ainda, na lógica não há espaço para ambiguidade e meia-certeza — o valor de uma proposição é verdadeiro ou falso, fim de papo. E note: ainda que eu não consiga determinar esse valor, está estabelecido desde o princípio que ele é verdadeiro ou falso.

Certamente isso fornece ferramentas úteis mas há uma grande limitação: como eu deveria raciocinar se eu não possuo informação completa sobre algo? A lógica formal não serve para isso. Eu não posso fazer perguntas como: “dado que eu acho a proposição P1 maaais ou menos certa, qual é o valor de P2?”. Há formas de lidar com essa questão de informação parcial? Isso é o que os probabilistas da escola bayesiana se perguntaram e o que eu pretendo dizer aqui é como responder positivamente essa pergunta.

A grande pergunta inicial é: como eu quantifico informação incompleta sobre algo? Em outras palavras, como eu digo a você quão fortemente eu acredito que algo é verdade? Uma vez determinada essa resposta a próxima pergunta é: como eu devo proceder, uma vez estabelecida o valor de uma proposição, para determinar o valor de outra proposição derivada dessa? Essas são as duas perguntas que eu vou tentar explicar como são respondidas pela teoria bayesiana.

Então para começo de conversa vamos estabelecer como se mede o grau de plausibilidade de algo (A. Caticha gosta de chamar de “degree of rational belief”, eu concordo com ele). Para cada proposição vamos criar uma função que associa a cada outra proposição um número real — a princípio irrestrito:

\Phi_{p} : \mathcal{P} \to \mathcal{R}, \forall p\in\mathcal{P}.

Aqui, \mathcal{P} é a coleção de proposições e \mathcal{R} o conjunto dos reais. Ao número \Phi_{P_1}(P_2) vamos chamar plausibilidade de P_2 no ambiente lógico (gerado por) P_1. Ou seja, esse número mede o quanto eu acredito em P_2 assumindo P_1 como “axioma”. Quanto maior o número maior minha crença.

Bem, não faz muito sentido apenas fazer isso. Preciso de algumas regras básicas para essa função. Essas regras devem me garantir que quando eu faço o “limite de certeza absoluta” eu recobre os resultados da lógica formal. Essas regras são chamadas axiomas de Cox e são bem simples e intuitivas. Melhor ainda: elas determinam \Phi_{p} quase univocamente (vamos entender esse quase adiante). Os axiomas de Cox são os seguintes:

A plausibilidade da negação de uma proposição é determinada assim que eu conheço a plausibilidade da própria proposição. Ou seja(2):

\Phi_{A}(\neg B) = F(\Phi_{A}(B)).

Parece razoável: quanto mais acredito em B, menos acredito em \neg B.  Note que há aqui a afirmação implícita de que a função que liga a plausibilidade de uma proposição com a plausibilidade da sua negação é única e independe de qual proposição estamos falando, nem do “ambiente lógico”.

A operação de negação é idempotente – ou seja, se eu aplicar a negação duas vezes, devo recuperar a proposição original(\neg \neg B = B). Essa propriedade nos fornece uma equação funcional para F(\cdot):

\Phi_{A}(\neg \neg B) = \Phi_{A}(B),

F(\Phi_{A}(\neg B)) = \Phi_{A}(B),

F(F(\Phi_{A}(B))) = \Phi_{A}(B).

Ou seja, para todos os valores u pertencentes à imagem de \Phi_{\cdot}(\cdot) devemos ter que:

F(F(u)) = u.

Ou seja, a função F(⋅) é idempotente também. Vamos reservar essa propriedade de F(\cdot) e prosseguir para o segundo axioma de Cox:

A plausibilidade da conjunção de duas proposições A\wedge B dada uma terceira proposição C (ou seja, \Phi_{C}(A \wedge B) ) deve depender apenas da plausibilidade de:

(1) plausibilidade de A dado C: \Phi_{C}(A);
(2) estabelecida a plausibilidade de A, quão plausível é B dado C : \Phi_{C\wedge A}(B).

Ou seja, estou assumindo a existência de mais uma “função universal”:

\Phi_{C}(A \wedge B) = G( \Phi_{C}(A) , \Phi_{C\wedge A}(B) ).

Também parece razoável: quando quero determinar se duas proposições são simultaneamente verdadeiras, estabeleço primeiro a validade da primeira e depois, dada a primeira, estabeleço a validade da segunda. É um pouco mais difícil tirar uma equação funcional para G(⋅ , ⋅) mas não é impossível. Considere a expressão:

\Phi_{B}(A_1 \wedge A_2 \wedge A_3).

Há duas formas diferentes de decompor essa expressão usando a função G(\cdot,\cdot): lembre-se que o conectivo \wedge é  associativo e comutativo e portanto:

\left(A_1 \wedge A_2\right) \wedge A_3 = A_1 \wedge \left(A_2 \wedge A_3\right).

Uma inferência consistente exige que essas duas formas dêem o mesmo resultado(3). Portanto:

G( \Phi_{B}(A_1 \wedge A_2) , \Phi_{B\wedge A_1 \wedge A_2}(A_3) ) = G(\Phi_{B}(A_1) , \Phi_{B\wedge A_1 }( A_2 \wedge A_3) ).

Aplicando novamente a definição de G(\cdot,\cdot):

G( G(\Phi_{B}(A_1),\Phi_{B \wedge A_1 }( A_2)) , \Phi_{B\wedge A_1 \wedge A_2}(A_3) ) = G(\Phi_{B}(A_1) , G(\Phi_{B\wedge A_1 }( A_2),\Phi_{B\wedge A_1 \wedge A_2 }( A_3)) ).

Se isso deve valer para quaisquer proposições então novamente tenho um equação funcional válida para quaiser u, v e w na imagem de \Phi_{\cdot}(\cdot)(4):

G(u,G(v,w)) = G(G(u,v),w).

Ou seja: a função G(⋅ , ⋅) também é associativa.

Um leitor apressado deve se perguntar nesse momento: e daí que você tem duas equações funcionais para essas funções arbitrárias F(⋅) e G(⋅ , ⋅) que você postulou do chapéu? O ponto é que essas duas equações funcionais generalíssimas definem univocamente estrutura de inferência! Sério mesmo. Não to brincando. E você conhece essa estrutura.

O coração da questão deriva de dois teoremas devidos a Cox. Para conseguir o primeiro teorema vamos usar o seguinte resultado (não vou provar aqui porque a prova é extensa e é encontrada na referência [2]).

Teorema da função associativa: dada qualquer função associativa G(u,v), existe uma função monotônica g(⋅) tal que:

g(G(u,v)) = g(u) g(v)

Isso é muito conveniente pois se escrevermos de novo a definição de G(\cdot,\cdot), temos:

\Phi_{C}(A \wedge B) = G( \Phi_{C}(A) , \Phi_{C\wedge A}(B) ),

e usarmos o teorema da função associativa, então obtemos:

g\left(\Phi_{C}(A \wedge B)\right) = g\left(\Phi_{C}(A)\right) g\left( \Phi_{C\wedge A}(B) )\right)

E agora posso simplesmente regraduar minha definição de plausibilidade. Uma vez que g() é monotônica, e portanto vai preservar a ordem com que eu classifico coisas como mais ou menos plausíveis, eu posso redefinir plausibilidade como:

\phi(A|B) = g(\Phi_{B}(A))

Mudei ligeiramente a notação para que o leitor possa apreciar melhor o que acontece com a antiga expressão que define G(⋅ , ⋅) com essa nova definição de plausibilidade:

\phi(A \wedge B | C) = \phi(B|C \wedge A) \phi(A|C)

Mas veja se essa não é a boa e velha regra do produto da teoria de probabilidades!!! Usando a comutatividade de \wedge eu ainda posso notar que:

\phi( B | C \wedge A) = \dfrac{\phi (A|C \wedge B) \phi (B|C)}{\phi (A|C)},

e essa não é nada mais que a regra de Bayes da teoria de probabilidades!

Mas calma, a nova função plausibilidade \phi(\cdot| \cdot) ainda não é uma probabilidade: não basta seguir essas duas regras, há uma série de condições na teoria axiomática de probabilidades para chamar algo com esse nome e a nossa função ainda não satisfaz todas. Tudo bem: ainda nos falta estudar as propriedades de F(\cdot)! Quem sabe isso ajude.

Novamente precisamos criar uma situação em que a demanda por consistência delimite as propriedades da função plausibilidade. Por exemplo temos a seguinte situação(5):

\phi(A \wedge B | C) = \phi(B|C \wedge A) \phi(A|C) =F\left(\phi(\neg B|C \wedge A)\right) \phi(A|C) .

Mas, pela regra do produto que deduzimos acima:

\phi(\neg B |C \wedge A) = \dfrac{\phi(A \wedge \neg B |C)}{\phi(A|C) }

e então:

\phi( A \wedge B | C) =\phi(A|C) F \left( \dfrac{\phi(A \wedge \neg B |C)}{\phi(A|C) }\right)

Mas lembre-se que a conjunção A \wedge B é simétrica, portanto toda essa expressão fica invariante se eu trocar A por B. E assim:

\phi(A|C) F \left( \dfrac{\phi(A \wedge \neg B |C)}{\phi(A|C) }\right)=\phi(B|C) F \left( \dfrac{\phi(B \wedge \neg A |C)}{\phi(B|C) }\right)

Se isso deve valer independente de quais são as proposições A, B e C, então eu posso, por exemplo, escolher uma particular proposição \neg B = A\wedge D. Note que com essa escolha temos as seguintes identidades: A\wedge \neg B = \neg B\neg A \wedge B = \neg A. Então:

\phi(A|C) F \left( \dfrac{\phi(\neg B |C)}{\phi(A|C) }\right)=\phi(B|C) F \left( \dfrac{\phi(\neg A |C)}{\phi(B|C) }\right)

\phi(A|C) F \left( \dfrac{F\left(\phi( B |C)\right)}{\phi(A|C) }\right)=\phi(B|C) F \left( \dfrac{F\left(\phi(A |C)\right)}{\phi(B|C) }\right)

O que finalmente resulta em mais uma equação funcional para F(⋅):

uF \left( \dfrac{F\left(v\right)}{u }\right)=v F \left( \dfrac{F\left(u\right)}{v }\right)

Novamente sem demonstrar, vou simplesmente afirmar que a solução mais geral dessa equação, submetida à condição de idempotência que deduzimos acima, é dada por:

F(u)^\alpha=(1-u^\alpha).

Note que para um \alpha qualquer isso restringe o dominio da função F(⋅), e portanto a imagem da função \phi(\cdot|\cdot), ao intervalo [0,1]. E veja o que acontece então com a regra que define F(⋅):

\phi(\neg A | B) ^\alpha + \phi(A|B)^\alpha = 1

Uma nova regraduação permite definir uma função Pr(A|B) =\phi(A|B)^\alpha com as seguintes propriedades:

  • Pr(A|B)\in[0,1]
  • Pr(A|B) + Pr(\neg A|B) = 1
  • Pr(A_1\wedge A_2|B) = Pr(A_2| B \wedge A_1)Pr(A_1 |B)

Esses não são exatamente os axiomas de Kolmogorov para a teoria de probabilidades mas… close enough para um post de blog. Isso tudo pode ser refinado com o devido grau de rigor matemático para satisfazer os exatos axiomas da teoria da probabilidade.

O que foi obtido com essa massagem matemática toda?

  1. É possível definir um sistema lógico de inferência baseado em informação incompleta e incerteza que atribui uma plausibilidade a cada proposição.
  2. Esse sistema lógico é único, a menos de uma regraduação monotônica da função plausibilidade. Isso faz com que uma ordenação segundo a plausibilidade seja única, uma vez que regraduações monotônicas não alteram essa ordem.
  3. A função plausibilidade satisfaz todas as regras que uma probabilidade legitima deve satisfazer (aqui não provei isso, mas apenas mostrei algumas coisas – para fazer isso rigorosamente precisa-se definir uma “sigma-álgebra de proposições”).

E qual é a utilidade prática disso? Bem… o mundo está cheio de situações de inferência baseada em informação incompleta. Particularmente, todo problema que depende de dados empíricos é, em essência, um problema dessa natureza e todo problema de inferência em ciência é assim. Uma vez que o único sistema de inferência para informação incompleta – como aí mostrado – é aquele que usa as regras  da teoria da probabilidade é razoável se supor que efetivamente usar essas regras explicitamente oferece vantagens sobre os métodos estatísticos ad hoc frequentemente usados, como os métodos de mínimos quadrados e outras formas de fitting de dados. Na verdade esse processo de inferência vai muito além disso – ele oferece ferramentas de modelagem física, de interpretação de modelos, de planejamento de experimentos e ainda mais. Mas disso eu vou tratar em um próximo post.

Notas:

(1) — Se você se interessa por nomes, o que se segue é devido a um certo número de pessoas — Edwin Jaynes, Harold Jeffreys e particularmente Richard Cox.

(2) — Estou usando os seguintes simbolos para os conectivos lógicos:

  • \neg — negação: \neg \mbox{Verdadeiro} = \mbox{Falso}
  • \wedge — o conectivo E (conjunção): \mbox{Verdadeiro} \wedge \mbox{Falso} = \mbox{Falso}
  • \vee — o conectivo OU (disjunção inclusiva): \mbox{Verdadeiro} \vee \mbox{Falso} = \mbox{Verdadeiro}

(3) — Lembre-se: queremos um sistema racional de atribuir um grau de confiança a algo.

(4) — Que pode ser obtida fazendo: u = \Phi_{B}(A_1), v = \Phi_{B \wedge A_1 }( A_2)) e w = \Phi_{B\wedge A_1 \wedge A_2 }( A_3).

(5) Note que eu tinha definido F(⋅) para a função original \Phi_{A}(B). Entretanto fizemos uma regraduação monotônica então nada me impede de abusar da linguagem e redefinir F(x) \to F(g(x)).

Referências:

[1] E. T. Jaynes, Probability Theory, the Logic of Science.
[2] A. Caticha, Lectures on Probability, Entropy, and Statistical Physics — arXiv:0808.0012v1 [physics.data-an]
[3] A. Caticha,  Quantifying Rational Belief — arXiv:0908.3212v1 [physics.data-an]

Contribuindo para o FQXi…

quinta-feira, 12 nov 2009; \46\America/New_York\America/New_York\k 46 Deixe um comentário

O FQXi, Foundational Questions Institute, tem como objetivo disseminar a pesquisa em áreas fundacionais da Física e da Cosmologia.

Em Agosto/09, eu fui convidado a integrar os blogueiros do FQXi 😈 . E minha primeira participação acabou de ser posta online (sim, a coisa demorou pra acontecer porque existe todo um processo de editoração e revisão por pares 😎 ):

Na verdade, o artigo que eu escrevi ficou “grande demais”… então, ele foi dividido em 3 partes, e esse link é pra primeira parte, que foi ao ar ontem. As outras partes vão se seguir… mas eu ainda não sei quando serão postas online. De qualquer forma, fiquem ligados, eu ponho os links aqui conforme eles forem aparecendo. 😉

Espero que vcs gostem… e, apesar de estar em Inglês, o Google Translate é seu amigo. :mrgreen:

Diversão garantida… ou sua Física de volta! 😈

LHC volta a funcionar e prótons realizam meio percusso com sucesso

quarta-feira, 11 nov 2009; \46\America/New_York\America/New_York\k 46 Deixe um comentário

Detetor CMS do LHC visualiza passagem de um feixe de prótons no anel principal.

Neste sábado, sete de novembro, um feixe de prótons foi com sucesso injetado no acelerador de partículas LHC do CERN, viajou metade da circunferência de 27 km do acelerador, passando pelos detetores do LHCb e do CMS, reportou o CERN na segunda-feira, 9 de novembro. A imagem que você vê acima é a reconstrução de eventos causados pela passagem do feixe de prótons de baixa energia pelo anel. Este primeiro passo da aceleração de prótons pelo anel principal produziu dados que serão utilizados pela colaboração CMS para verificar o funcionamento do detetor na região de baixa energia em que a física é conhecida. O objetivo do LHC é colidir dois feixes de prótons a energias de até 7 TeV cada feixe, frente a frente. O experimento permitirá físicos estudarem a estrutura da matéria nos tamanhos de 10-18m (uma fração bilhão de bilhão de bilhão de um metro), mil vezes menor que o tamanho do próton. Para uma perspectiva: a diferença de tamanho entre uma pilha dos 100 prédios mais altos do mundo (do tamanho do antigo World Trade Center de Nova York) e uma pessoa, é a mesma entre uma bactéria e um átomo; o átomo é maior que o próton na mesma proporção que mil arranha-céus empilhados são maiores que uma pessoa, e finalmente, o LHC estudará a Natureza em uma escala 10 mil vezes menor que o próton, equivalente a diferença de tamanho de 10 mil arranha-céus empilhados em comparação a uma pessoa.

A notícia original do CERN pode ser por enquanto encontrada na página principal do site do CERN.

Feliz dia do Carl Sagan…!

sábado, 7 nov 2009; \45\America/New_York\America/New_York\k 45 Deixe um comentário

Pra quem ainda estiver nos ouvindo…

Feliz Dia do Carl Sagan! 😎

😈

Café Científico

sábado, 7 nov 2009; \45\America/New_York\America/New_York\k 45 5 comentários

Imagine que regularmente em algum bar ou café da sua cidade, ocorrem encontros públicos com algum cientista que estará lá para vocês tomarem um café ou um vinho e você tirar suas dúvidas sobre transgênicos e engenharia genética, ou o acelerador de partículas LHC, ou mudança climática, poluição e economia globalizada. E há possibilidade de grupos de crianças terem esse mesmo contato na escola, ao invés do café. Algumas cidades já contam com eventos assim, são os Cafés Científicos, iniciados na Inglaterra.

Eu mesmo estou me envolvendo no segundo ano do Café Científico da minha vizinhança. Dia 20 de novembro eu vou acompanhar uma colega, Sara Walker, que estuda o problema da origem da vida, para assistir um encontro informal de perguntas e respostas entre ela e crianças da cidade de Claremont. No Brasil, seriam o equivalente à crianças de 6a a 8a série do ensino fundamental — já incorporando aqui a mudança de que a série alfabetização agora se chama 1a série, e o antigo último ano do ensino fundamental, que era 8a, virou 9a.

Onde eu moro, a iniciativa é da universidade Dartmouth College, de levar alguns de seus alunos de pós-graduação para conversar com crianças sobre ciência. Eis aqui o site original do programa:

Cafe Scientifique

(em fracês, porque na língua inglesa é muito chic se você usa uma expressão em latim ou francês!). No Brasil, há quatro cafés científicos cadastrados:

Você pode começar um Café Científico na sua cidade. É uma idéia muito simples: você convida um grupo de cientistas que estejam dispostos a ter uma conversa informal sobre algum tema e então organiza um encontro com pessoas interessadas — você nem precisa ser um dos cientistas para isso. Se você é professor(a) ou coordenador educacional em uma escola, pode fazer isso na escola, convidando professores e alunos de pós-graduação que sejam pesquisadores da universidade federal mais próxima. Nenhum dos participantes cobra pela conversa 😉

Eu também tentei iniciar no mês passado por conta própria pelo menos um par de eventos assim na minha cidade natal, Belém do Pará, para onde eu retorno frequentemente nas férias. Porém, infelizmente, as escolas que contactei não tiveram interesse, mas se há alguém de lá aqui me lendo, saiba que de minha parte vontade há, e eu conheço contatos na Universidade Federal do Pará e paraenses pesquisadores na USP e na Unicamp que aceitariam convites 🙂

Continuação analítica da função de partição…

sexta-feira, 6 nov 2009; \45\America/New_York\America/New_York\k 45 Deixe um comentário

Continuando no espírito dos posts Teorias Topológicas de Campo e suas Continuações Analíticas e Grothendieck, Sistemas Dinâmicos, Dualidade de Langlands e Higgs Bundles, mais um ingrediente pra temperar essa mistura, dessa vez vindo de Materia Condensada,

Essencialmente, nos dois primeiros artigos, Lee e Yang demonstram o chamado Teorema de Lee-Yang — essencialmente, o teorema mostra que, sob “certas condições” (é muito importante que essas condições sejam satisfeitas), os zeros da função de partição são imaginários; esses são os chamados zeros de Lee-Yang.

Por outro lado, os chamados zeros de Fisher têm origem numa construção muito semelhante a anterior, a diferença relevante entre ambas as construções sendo que, no caso de Fisher, a temperatura é continuada analiticamente [para os Complexos].

Nesse sentido, a construção de Fisher pode ser considerada a continuação analítica dos resultados de Lee-Yang.

A pergunta que se põem sozinha é: “Será que é possível fazer o mesmo em QFT e em Teorias de Gauge?” 💡

A resposta está longe de ser trivial ou conhecida, vide os dois primeiros posts linkados acima. Mas, agora, com um caso mais concreto pra se comparar… quem sabe não é possível se aprender alguma coisa…?! 😉

A semana nos arXivs…

terça-feira, 3 nov 2009; \45\America/New_York\America/New_York\k 45 Deixe um comentário


'Mike's motto'

'Mike's motto'

Tomografia do universo revela evidência de energia escura

terça-feira, 3 nov 2009; \45\America/New_York\America/New_York\k 45 5 comentários

Resultado da análise de lentes gravitacionais usando o telescópio espacial Hubble revelou evidência independente da expansão acelerada do universo.

O conjunto de evidências favoráveis ao modelo do Big Bang com expansão acelerada acaba de crescer. Um grupo de astrônomos e astrofísicos de países da Europa, Estados Unidos e China — chamada colaboração COSMOS — finalizou uma detalhada análise da distribuição de lentes gravitacionais que indica que o universo é descrito pelo modelo do Big Bang com aceleração. O grupo utilizou dados de uma câmera do telescópio espacial Hubble que fotografa galáxias próximas a Terra dentro de uma área de aproximadamente (1.6°)2. Através de um método de estimativa do desvio para o vermelho da luz das galáxias, COSMOS mediu parte da distribuição de massa do universo em diferentes distâncias para concluir que esta exige um termo de aceleracão para a expansão do universo. Cosmólogos medem a contribuição da aceleração do universo em termos de um parâmetro conhecido como a (densidade da) constante cosmológica, que é zero em universo em expansão desacelerada, e positivo para um universo acelerado, \Omega_\Lambda. O recente resultado, publicado hoje, revela que

\Omega_\Lambda > 0.32.

Esse número significa que pelo menos 32% da densidade de energia do universo está na forma da componente responsável pela expansão acelerada, genericamente chamada de energia escura.

O método usado pelo grupo COSMOS é inédito, e é importante porque revela uma medida da aceleração da expansão do universo que independe da calibração de distância inventada com as medidas de supernovas tipo Ia — esta foi a relação entre intensidade da luz emitida pela supernova em função de sua distância, que permitiu a descoberta da aceleração do universo em 1998.

Lentes gravitacionais fracas

Fig. 1: Imagem do telescópio espacial Hubble do aglomerado de galáxias Abell 2218. O campo gravitacional das galáxias do aglomerado distorce a imagem de galáxias que estejam atrás deste, que tem sua forma esticada em uma elipse, que são os arcos visíveis ao redor do aglomerado.

Toda vez que um raio de luz passa perto de uma massa M, o campo gravitacional de M atrai o raio de luz, causando uma deflexão. Esta deflexão foi vista pela primeira vez por Arthur Eddington e constituiu uma das primeiras evidências a favor da teoria da Relatividade Geral de Einstein. Um conjunto de galáxias funciona como a massa M para galáxias próximas que estejam atrás do aglomerado vistas em relação a Terra, causando um desvio visível em fotografias, como a imagem do aglomerado de Abell 2218. Nesse caso, o fenômeno é conhecido como lente gravitacional forte.

Como todo objeto no universo emite luz que, inexoravelmente, passa perto de diversas massas M até chegar a Terra, é possível dizer que toda imagem vista por nós contém algum nível de distorção gravitacional. O efeito é esquematizado na Fig. 2, e nesse caso é conhecido como lente gravitacional fraca. Nesse caso, a deflexão da luz é causada por várias massas m distantes da linha de propagação da luz, causando um pequeno desvio da posição da fonte de luz. Embora o desvio seja pequeno, e não seja possível determinar a posição original do astro, é possível observar o padrão de distorção causado pelo meio material entre a fonte e nós, Fig. 2. Esse padrão permite inferir a quantidade de massa gravitacional que existe entre as galáxias sendo observadas e nós na Terra.

Fig. 2: Desenho esquemático de lente gravitacional fraca. A distorção na distribuição foi exagerada para melhor visualização. Imagem da Wikipedia. O lado esquerdo ilustra a imagem sem lente gravitacional, o lado direito com.

Tomografia de lentes gravitacionais

A colaboração COSMOS utilizou um católogo de lentes gravitacionais fracas associado a uma medida do desvio para o vermelho das galáxias na amostra. A distorção da imagem causada pelo campo gravitacional é o que dá informação sobre o conteúdo do universo, e a variação com desvio para o vermelho permite saber como este conteúdo evolui com a distância. O método então permite acompanhar no tempo a evolução da distribuição de massa do universo, e ficou conhecido como tomografia de lentes gravitacionais fracas.

Não é possível, naturalmente, definir qual é a posição exata de cada galáxia devido a distorção da posição causada pela desconhecida distribuição do campo gravitacional, no entanto, é possível obter informação sobre a correlação da distribuição de galáxias, isto é, a probabilidade de se encontrada uma galáxia na posição x, outra ser encontra na posição y. A medida da distribuição da fonte do campo gravitacional em função da distância contém a informação de que há um grande componente na fonte do campo gravitacional que é independente da distância: é a constante cosmológica.

Assumindo que o universo é plano, os dados de COSMOS indicam que no momento mais recente do universo (i.e. para desvios para o vermelho da luz da ordem de um), a densidade de matéria é aproximadamente

\Omega_m = 0.27.

Isso significa que aproximadamente 27% da densidade de energia do universo hoje se encontra na forma de massa com baixas velocidades em comparação a da luz. Como o universo hoje é composto predominantemente por massa e talvez energia escura, sabendo que a soma de todas as densidades de energia é igual a 1 (que é verdade apenas para o universo plano), conclui-se que cerca de 73% da densidade de energia está em forma de energia escura. Permitindo que a geometria do universo não seja necessariamente plana, não é possível extrair um único valor para \Omega_\Lambda, no entanto, é possível demonstrar que os dados implicam que a quantidade

q_0 = \Omega_m / 2 - \Omega_\Lambda

é negativa, logo \Omega_\Lambda não pode ser zero, e portanto o universo é acelerado.

O que ainda não se sabe sobre a aceleração do universo

COSMOS demonstrou que lentes gravitacionais fracas podem ser utilizadas para extrair informação cosmológica útil. O próximo passo é entender a evolução temporal das distribuições de massa do universo e da energia escura. A evolução temporal (se alguma) da energia escura é o que pode nos dizer sua origem física: se ela é uma constante cosmológica, ou se é mais outro campo físico da Natureza.

Mais informações

  1. Tim Schrabback et al., arXiv:0911.0053
  2. Matthias Bartelmann, Peter Schneider, astro-ph/9912508.
  3. Wikipedia
%d blogueiros gostam disto: