Arquivo

Archive for fevereiro \28\America/New_York 2009

Bill Moyers entrevista Robert Johnson…

sábado, 28 fev 2009; \09\America/New_York\America/New_York\k 09 Deixe um comentário

Pra quem não conhece os personagens em questão: Bill Moyers e Robert A. Johnson.

Bill Moyers entrevista Isaac Asimov…

sábado, 28 fev 2009; \09\America/New_York\America/New_York\k 09 Deixe um comentário

A semana nos arXivs…

sexta-feira, 27 fev 2009; \09\America/New_York\America/New_York\k 09 Deixe um comentário

Depois de uma semaninha fraquinha… algumas coisas bem interessantes estão aparecendo pelos arXivs está semana…



Vendo efeitos quânticos com os olhos

quinta-feira, 26 fev 2009; \09\America/New_York\America/New_York\k 09 Deixe um comentário

Um grupo de físicos propôs um esquema experimental que permite visualizar com os olhos um par de fótons emaranhados quanticamente.

A mecânica quântica é uma teoria que tem até hoje uma certa dificuldade de ser aceita por algumas pessoas devido ao fato de ser bastante estranha, vamos dizer assim, comparada aos fenômenos macroscópicos. Embora uma bola pulando constantemente elasticamente contra uma parede nunca pode ser encontrada do outro lado sem destruir o obstáculo, no problema análogo em mecânica quântica onde uma partícula se choca com uma parede constantemente há uma probabilidade de você encontrar a partícula do outro lado sem desturir o obstáculo. Esse é o chamado efeito de tunelamento quântico, que é fundamental para as reações nucleares ocorrerem (p.ex. as reações nucleares em que núcleos emitem elétrons só são possíveis porque o elétron tunela através da parede representada pela atração eletrostática dos prótons).

Outro fenômeno curioso da mecânica quântica é o emaranhamento. Uma definição exata de emaranhamento ainda é assunto de disputa, mas a idéia básica é que um sistema físico S é dividido em partes, digamos A e B, e há conhecimento sobre todo o sistema S que não pode ser reduzido a soma do conhecimento sobre os estados de A e B. Em outras palavras, como parece ter sido observado pela primeira vez por von Neumann, na mecânica quântica conhecimento sobre as partes não garante conhecimento sobre o todo!

Pois bem, feixes de luz emaranhados já são conhecidos faz um tempo. Mas emaranhamento de luz se concentrou, até hoje, em utilizar poucos (e muitas vezes um único) fótons. Todavia semana passada um grupo da Universidade de Genebra e de Bristol propuseram um esquema experimental onde feixes macroscópicos de luz são emaranhados. A diferença? Você pode ver estes com os olhos!

O arranjo experimental consiste em primeiro criar um par de fótons emaranhados e passá-los por um material onde outro feixe de luz incide na mesma freqüência e devido a processo descoberto por Einstein de emissão estimulada, vários novos fótons são produzidos no mesmo estado emaranhado original. Isso produz um feixe macroscópico de luz em estado emaranhado que então pode ser visto a olho nu. Os feixes emaranhados A e B podem ser então direcionados a dois observadores, cada um com o seu filme Polaroid, e eles podem checar que a determinação da polarização entre eles está 100% correlacionada.

Eu não sei quão viável a idéia é e também não entendo os detalhes do artigo original. Também o artigo não foi revisado por pares ainda, ou aceito para publicação. Porém pelo menos um físico que entende bem do assunto, Seth Lloyd do MIT comentou positivamente a respeito do trabalho.

Esse trabalho também é interessante devido ao fato de que o mecanismo proposto preserva a natureza quântica do estado de luz de dois fótons para um conjunto grande de fótons. Resolver esse tipo de problema é um dos maiores desafios para a realização de computadores quânticos úteis. O que acontece é que já foi possível realizar computação quântica com poucos átomos, núcleos ou fótons (e.g. o caso do computador quântico de ressonância magnética da IBM que sabe fatorar o número 15), mas a dificuldade de escalar esses sistemas para sistemas grandes que possam realizar computação similar aos computadores eletrônicos é um dos desafios da física e engenharia atuais.

Para saber mais

  • Assista ao vídeo do colóquio Convite a Física “Emaranhamento, Realismo e Não-Localidade”, Paulo A. Nussenzveig. (não-técnico, espero…)
  • Um artigo técnico introdutório.

Matemática na era da Web2.0…

quarta-feira, 25 fev 2009; \09\America/New_York\America/New_York\k 09 3 comentários

A WWW daria uma lousa e tanto… se a gente conseguisse rabiscar uma equação

A WWW foi concebida no CERN e, desde então, o patamar em que chegamos atualmente (chamado de Web 2.0) é bem diferente daquilo que se imaginava na época da criação da Web. Hoje em dia já se fala em Web 3.0, que é uma espécie de codinome para Cloud Computing. Porém, o sonho original para a WWW é a chamada Semantic Web. Eis o próprio T.B. Lee falando sobre esse assunto,

De fato, a tal “Web 3.0” deve incluir toda essa parte “semântica” (veja mais em W3C Semantic Web Activity, The Semantic Web e The Semantic Web Revisited (PDF)), chamada tecnicamente de Metadata — apesar de que a incorporação de todos esses “metadados” em bancos-de-dados e aplicações (“cloud”) afins ainda vai levar algum tempo. 😉

De qualquer maneira… essa “simples” idéia — de assimilar os “metadados” de forma fundamental e intrínseca nas entranhas da Web — tem um enorme potencial quando o assunto é Publicação Científica. Um exemplo claro disso é o Scientific Publishing Task Force: Mindswap: Science and the Semantic Web, Science and the Semantic Web (PDF), Semantic web in science: how to build it, how to use it, ScienceOnline09: The Semantic Web in Science.

Então, como se pode ver com clareza, essa idéia de se associar “semântica” aos elementos já pertencentes da WWW, realmente será algo revolucionário.

A razão pra essa longa introdução é o paradigma adotado pelo MathML, que é a linguagem que permitirá a introdução de linguagem Matemática na WWW. Existem dois modos de se “descrever” uma informação em MathML, Presentation MathML e Content MathML — enquanto o pMathML foca na apresentação e aparência das equações e elementos matemáticos, o cMathML foca no significado semântico das expressões (num esquema bem parecido com Cálculo λ 😎 ).

Então, fica claro que o objetivo de MathML não é apenas o de “apresentar” uma informação, mas também de dar significado semântico a ela, o que fará com que a comunicação matemática seja muito superior do que a comunicação atual, feita em HTML!

O paradigma atual: \TeX

Hoje em dia, efetivamente, quem tem necessidade de publicar muitas equações usa \TeX, mais especificamente, usa-se \LaTeX — esse é o de facto padrão.

Essa linguagem é extremamente poderosa, versátil e flexível, podendo ser extendida de várias maneiras diferentes. E isso facilita muito sua aplicação em várias áreas diferentes: desde símbolos matemáticos, gráficos vetoriais, …, até símbolos musicais, de xadrez e tipografia em línguas gráficas, como árabe, hindu, chinês e afins!

Por essas e por outras, atualmente é muito mais comum de se encontrar programas que convertem de \TeX para MathML do que programas que nativamente facilitam a edição nativa [em MathML]. Tanto que existe um livro unicamente dedicado a esse assunto: The LaTex Web Companion. Aliás, nessa linha, eu recomendo o uso do formato DocBook, cuja saída pode ser HTML, PDF, \TeX (via o uso de XSLT), etc.

Portanto, o que acabou acontecendo é que quando alguém precisa publicar fórmulas e afins, ou se cria um documento em PDF, ou se usa de “algum desvio” para colocar a informação na Rede — em geral, esse desvio consiste em se converter o conteúdo desejado em alguma imagem, e inserí-la no HTML em questão.

A saída: habilitar os navegadores

A alternativa pra tornar tudo isso integrado (Web 3.0, MathML, etc) e unificado é prepararmos os navegadores para essa nova jornada, nova etapa, da WWW. Por exemplo, o Firefox tem toda uma infra-estrutura dedicada para MathML: MathML in Mozilla. Porém, pra isso, é preciso que os desenvolvedores de navegadores sigam os padrões já definidos para MathML. Essa é uma lista dos navegadores que suportam MathML. Além disso, pra quem usa Firefox, esse é um ‘add-on’ bem interessante, Firemath (eu não tenho uma conta com o Mozilla, então, se alguém que tiver uma conta quiser me mandar o add-on, eu agradeço 😉 ).

Portanto, o caminho ainda se encontra aberto… e as possibilidades são infinitas! 😈

Referências…

Mecânica Estatística ou “como jogamos informação fora?”

quarta-feira, 25 fev 2009; \09\America/New_York\America/New_York\k 09 6 comentários

Uma pergunta me intriga mais que qualquer outra: como jogamos fora informação? Como selecionamos que pedaço de informação é mais crítico que outro?  Não estou me referindo a técnicas de memorização nem a interpretação de texto. Estou falando de física.

Uma grande área da física denominada Física Estatística é muitas vezes descrita como o estudo de como partimos da dinâmica microscópica de um sistema físico e descobrimos como ele se comporta macroscópicamente no limite termodinâmico – ou seja, no limite de muitos e muitos graus de liberdade. Quando fazemos isso partímos de um espaço de configurações com um certo número (grande) de graus de liberdade microscópicos:

\{x_{1},x_{2},\ldots,x_{N}\}      N\rightarrow\infty,

para um diagrama de fases macroscópico com um número pequeno de variáveis:

\{\theta_{1},\ldots, \theta_{p}\}.

É fácil ver que quantidade de informação que pode ser armazenada por p-variáveis, localizadas num volume \Omega_{p} p-dimensional, é da ordem de \log_{2}(\Omega_{p}) bits e portanto aproximadamente linear em p. Isso levanta a seguinte questão: para onde foi toda a informação contida nas variáveis x_{k} ???

Se as variáveis \theta_{k} são uma descrição macroscópico (N\rightarrow\infty) suficiente, a informação contida em x_{k} é tremendamente redundante?

Isso parece ser parte da resposta. Imagine novamente o exemplo que explorei no meu último post, da moeda lançada para cima. Naquela ocasião eu descrevi o espaço de configurações microscópico da moeda como uma série de atratores, caracterizados “macroscópicamente” por uma variável binária “cara” ou “coroa”. Para o que nos interessa com relação a várias perguntas macroscópicas, basta saber a que face para cima cada configuração corresponde. A mesma redução tremenda da quantidade de informação necessária é observada: a informação contida numa quantidade aparentemente infinita de órbitas possíveis para o moeda é resumida em apenas um mero bit: “cara” ou “coroa”.

Um sistema de spins (sem desordem – modelo de Ising) é algo similar. Da quantidade enorme de informação que podemos armazenar nas 2^N possíveis configurações de uma rede de spins (lembre-se sempre que no limite termodinâmico N\rightarrow\infty), apenas dois parâmetros interessam macroscópicamente para determinar todos os estados  macroscópicos – os acoplamentos K e H (alternativamente – a temperatura e o campo magnético, entropia e magnetização, ou qualquer outro par de variáveis termodinâmicas desse sistema).

O grupo de renormalização quando aplicado ao modelo de Ising oferece alguma luz: K e H são os dois únicos acoplamentos associados a operadores relevantes no ponto crítico desse modelo. Meu conhecimento limitado sobre o assunto entretanto não me permite enxergar mais do que isso… 😦 Eu ainda tenho muito o que estudar sobre isso (inclusive referências são bem vindas).

Então as perguntas são: como determinamos p – o número de variáveis adequadas para o tratamento microscópico de um sistema microscópico qualquer – e como, sabendo p, determinamos quais variáveis são as adequadas?

Na teoria de vidros de spin um problema similar surge. É fácil no modelo de Ising chutar quais são as variáveis relevantes macroscópicamente pelo feeling que temos de sistemas magnéticos: a energia livre tem dois mínimos que podem ser selecionados com a aplicação de um campo magnético. Em sistemas desordenados é beeeeem mais complicado. A energia livre tem um número infinito de mínimos, nem todos eles estáveis e pontos críticos – pontos em que um mínimo se multiplica em dois ou mais mínimos – ocorrem em continuamente para todos os valores abaixo de uma certa temperatura. A técnica de réplicas oferece uma forma de encontrar o parâmetro de ordem: a distribuição de overlaps. Note que o parâmetro de ordem é uma função, com infinitos graus de liberdade. Ela carrega bem mais informação que os dois acoplamentos do modelo de Ising.

Claro! Um vidro de spin é muito menos redundante. Há uma estrutura muito mais complexa de estados estáveis, que precisa de um número muito maior de parâmetros macroscópicos.

Isso tudo que eu falei é uma coisa muito superficial e muito geral. Eu não sei como responder a pergunta que eu coloquei para uma dinâmica qualquer. Eu percebo que o grupo de renormalização tem algo a dizer sobre isso, eu percebo que a teoria de réplicas tem algo a dizer sobre isso, percebo que a teoria da informação tem muito a dizer sobre isso, mas não consigo enxergar nenhum princípio agregador que torne universal a técnica de encontrar o menor número de variáveis que representa adequadamente um sistema macroscópico.

As vezes eu acho que a resposta já existe e eu estou aí vacilando. A falta de uma formação mais sólida em mecânica estatística mais moderna, sistemas dinâmicos e teoria da informação me atrapalha – até 1 ano atrás eu nem imaginava estar trabalhando com essas coisas.

Talvez não. Talvez a resposta não exista ainda. Se não existir é uma boa chance de se fazer contribuições interessantes à física estatística e à teoria da informação.

Impasses e trolls: maturidade social…

quarta-feira, 25 fev 2009; \09\America/New_York\America/New_York\k 09 39 comentários

Foi trazido à atenção da Moderação da Comunidade de Física do Orkut um acontecimento um tanto curioso: O blog Bule Voador — de natureza explicitamente cética — publicou uma matéria absolutamente pseudo-científica, cuja retórica tenta esconder esse pseudo-cientificismo atrás duma aparente “censura”. Eis o post em questão: Convidados – Preconceito e Censura na Comunidade de Física do Orkut.

Por uma questão de transparência e completude lógica, eis os únicos tópicos (em ordem cronológica — atentem para as datas em cada tópico) onde o autor do post acima, assim como suas reinvindicações e seu comportamento, são tratados:

Isso posto, vamos aos comentários pertinentes. Antes de tudo, porém, eu gostaria de agradecer ao Marcelo “Druyan” Esteves, autor do blog Bule Voador, por ter gentilmente trazido esse assunto a nossa atenção e por ter cedido um espaço para uma possível réplica: Obrigado Marcelo, foi realmente gentil e atencioso da sua parte ter tomado essa atitude — é realmente impossível manter-se atualizado a respeito de blogs interessantes e estimulantes numa blogosfera que pipoca milhares de novos blogs diariamente: essa é a razão pela qual nenhum de nós, membros da Moderação da Comunidade de Física do Orkut, não tomamos ciência desse fato anteriormente. Porém, duma próxima vez, eu te aconselho a usar o mecanismo de trackbacks (às vezes, também chamado de pingback) que todos os softwares de blog possuem: dessa forma (i.e., se vc tivesse feito um trackback para algum post apropriado aqui no AP, por exemplo, o post Quem somos nós?), nós teríamos sido informado desse fato dum modo mais direto e automatizado.

Agora sim, vamos ver o que está acontecendo com a tal “censura” e “preconceito” na Comunidade de Física. Porém, antes de tudo, é preciso tomarmos sabermos quais são as regras da comunidade — assim, sabendo quais são as regras (i.e., qual é o conteúdo permitido na Comunidade), podemos inferir sem maiores dificuldades quais os assuntos que não são pertinentes. Eis as regras,

Portanto, com as regras em mãos (basta seguir os links acima e lê-los), precisamos apenas de mais um ingrediente para podermos começar a tirar as devidas conclusões lógicas desses acontecimentos.

Eis esse ingrediente: Uma Comunidade no Orkut não é como um país, por exemplo. Vejam, ao passo que, no Orkut, vc escolhe as comunidades que quer participar, não é possível vc escolher o país onde nasce — essa decisão, infelizmente ou não, cabe aos seus pais. Portanto, diferentemente da discussão de “democracia” ou “liberdade de expressão” que acontece no âmbito de uma organização social chamada “país”, o mesmo não se aplica para uma organização social no Orkut, i.e., para uma Comunidade do Orkut. A razão para isso não é complicada: se há um conjunto de regras que rege uma determinada comunidade, quando alguém se afilia aquela comunidade, o mínimo que se pressupõem é que esse indivíduo esteja de acordo com as tais regras, i.e., se assume que, se o indivíduo se juntou aquela comunidade, ele tem a responsabilidade social de seguir essas regras [previamente estabelecidas].

Se essa pessoa discorda dessas regras, ela tem duas opções:

  1. Começar sua própria comunidade, onde ela pode escolher e estabelecer as regras que bem escolher ou quiser; ou
  2. Antes de se afiliar a comunidade, discutir as regras num foro apropriado; no caso, essa discussão deve acontecer na Comunidade da Moderação.

A partir de agora, temos todos os ingredientes necessários pra avaliar o ocorrido. A pessoa em questão, autor do post citado no parágrafo de abertura, violou as regras da comunidade: oras, ela se afiliou a comunidade mas não respeito as regras da mesma! E, como se isso não bastasse, ela ainda teve o displante de reclamar da atitude posteriormente tomada pela Moderação.

Portanto, essa não é uma questão de “censura” muito menos de “preconceito”, mas sim uma questão de respeito e de responsabilidade:

  • Respeito : para com os outros membros da Comunidade, assim como para com a Moderação, em se comportar de acordo com as regras já estabelecidades da comunidade (ao invés de fundar sua própria comunidade com suas regras preferidas, ou de discutir a validade e pertinências das regras em questão antes de se juntar à Comunidade de Física); &
  • Responsabilidade : em arcar com as conseqüências de seus próprios atos (que violam as regras que essa pessoa, em princípio, aceitou respeitar para ser membro da comunidade em questão).

Portanto, resumindo os fatos: existem regras numa comunidade ⇒ a pessoa se afilia a tal comunidade (o que implica em concordar em respeitar tais regras, assim como em assumir as responsabilidades quando tais regras forem violadas) ⇒ essa pessoa viola as regras ⇒ a pessoa é punida por tal transgressão (mesmo que tal punição tenha levado mais de 1 ano pra acontecer — basta checar as datas das referências já citadas acima).

Como uma seqüência lógica dessas pode ser taxada de “preconceito” ou de “censura”?! Vc escolhe pertencer a uma comunidade apenas para sabotá-la?! Desde quando isso é um comportamento cívico?! 😥

De fato, não há palavras para descrever o tamanho do impasse lógico e da imoralidade que esse tipo de comportamento representam: respeito e responsabilidade são um conjunto mínimo de características necessárias praquilo que eu chamo de maturidade social, que é o necessário para uma vivência harmônica e solidária dentro duma determinada comunidade (quer seja dentro do Orkut ou fora dele).

Porém, dentro da cybercultura, esse tipo de comportamento ilógico e anti-cívico já é conhecido e devidamente classificado há tempos: chama-se Troll. Em particular, um comportamento típico freqüentemente associado a ‘trolls‘ é o de flame-baiting, assim como o de social gadfly.

Dessa forma, a análise feita aqui provê a desconstrução dos “argumentos” usados no post citado no primeiro parágrafo — mais especificamente, essa réplica representa o fisking e o anti-idiotarianism (aplicado aqui no sentido de lutar contra o fanatismo pseudo-científico) daqueles “argumentos”.

Por fim, quero lembrar a famigerada Lei de Godwin, e dizer que — uma vez que já estamos tendo que falar de “censura” e “preconceito”, assim como (logicamente correlata) de “liberdade de expressão” (vale lembrar também da Lei da Controvérsia de Benson) — estamos no caminho certo indicado pela Lei de Godwin: daqui a pouco, essa virará uma discussão sobre “ditadura”, “fascimo” e “nazismo”!

Como sempre, uma boa lista dos participantes no tipo de discussão que se quer estabelecer com uma retórica tão volátil e enviesada, é a seguinte:

Mas, nós aqui do AP, da Comunidade de Física e da Moderação da Comunidade de Física, já estamos vacinados contra esse tipo de comportamento — principalmente dado os longos anos que alguns de nós já têm de experiência em lidar com esse tipo de caso.

Portanto, espero que todas as possíveis dúvidas tenham ficado esclarecidas e retificadas.

Probabilidade?

domingo, 22 fev 2009; \08\America/New_York\America/New_York\k 08 7 comentários

O conceito de probabilidade, e das grandezas associadas com a probabilidade, é uma dessas questões na ciência que levantou polêmicas, gerou inimizades e fomentou discussões das mais acaloradas. Como outros conceitos importantes, a idéia de probabilidade esteve no ar por séculos, antes que as primeiras construçoes matematicamente mais formais fossem produzidas. Já em 1657 foi publicado o Libellus de Ratiociniis in Ludo Aleae (livro de raciocínios sobre os jogos de azar) por Christian Huygens(*). Nessa época o foco da teoria das probabilidades era exatamente esse: como eu devo apostar de forma racional para ter lucro. Pode parecer um raciocínio talvez mundano ou indigno demais para alguns, ou algo que demonstra qualidades que muitos idealistas não esperam encontrar nos seus grandes ícones da história da ciência. Mas o fato é que esse foi um tema que preocupou as mentes mais brilhantes do século XVII em diante. Pascal, os Bernoulli, de Moivre, Euler e Laplace são alguns poucos dos nomes que investigaram sobre essa ciência indigna da aposta.

E então, que raios é uma probabilidade?

Duas coisas são normalmente subentendidas quando a palavra probabilidade é usada no nosso discurso cotidiano – e isso se reflete também no discurso científico. Quando eu digo que é muito provável que você me encontre na lanchonete do IF-USP nas segundas feiras as 14 horas quero dizer que na maior parte das segundas-feiras em que você me procurar nesse local e horário eu estarei lá . Estou fazendo uma afirmação sobre a freqüência de um certo evento num certo universo de situações repetitivas. Estou sendo frequentista.

Quando eu digo que é muito provável que sua namorada goste do anel que você comprou para pedí-la em casamento não estou fazendo o mesmo tipo de afirmação. Não estou dizendo a você que se procurar dar o presente para ela repetidas vezes, vai ter sucesso na maioria delas. Estou dizendo que, dado o conhecimento que eu tenho da sua namorada e do gosto dela por anéis, tenho um elevado grau de confiança no sucesso do anel como presente. Estou quantificando minha crença sobre algo de forma racional. Estou sendo bayesiano.

Thomas Bayes foi um clérigo inglês do século XVIII, que descobriu um teorema na teoria de probabilidades cuja interpretação divide até hoje as pessoas que usam probabilidades em seu cotidiano. O teorema de Bayes diz simplesmente que:

P(A|B) = \frac{P(B | A)\, P(A)}{P(B)}

Onde P(A|B) quer dizer a probabilidade do conjunto de eventos A tomando-se o conjunto de elementos B como dados. Um frequentista vê o teorema de Bayes como um truísmo derivado apenas de propriedades óbvias de conjuntos. Um bayesiano vê como uma ferramenta de raciocínio.

Suponha que desejássemos um método de estabelecer o quão confiamos em uma proposição, dado que confiamos em uma outra com um certo grau. Ou seja, queremos estabelecer um número C(P1|P2) que nos diz o quão confiável é a afirmação P1, dado que eu confio na afirmação P2. Há uma série de coisas que nós gostariamos que esse grau de confiabilidade respeitasse. É possível mostrar (**) que um conjunto bem razoável de exigências resulta em uma definição unívoca para as regras matemáticas que nossos números C(P1|P2) devem satisfazer (teorema de Cox). O que impressiona é que essas regras são transposições exatas dos axiomas de Kolmogorov para a teoria de probabilidade para o campo da lógica de sentenças. Trocando em miúdos, esse sistema lógico que atribui um grau de confiança para cada proposição é formalmente idêntico ao sistema lógico que associa probabilidades a eventos.

Isso é bem estranho para um físico. Nós estamos acostumados a chamar de probabilidades propriedades físicas do nosso sistema físico em questão. São coisas intrinsecas aos nossos sistemas físicos que dependem apenas da sua dinâmica interna. Qual é a probabilidade de um certo decaimento nuclear ocorrer nos próximos 30 segundos é algo que não deve depender de quanto eu acho confiável que isso aconteça! Qual é a probabilidade daquela partícula visitar tal região do espaço de fase deveria depender apenas da sua dinâmica e não da minha capacidade de aferir confiabilidades!

Acalme-se. Não estamos falando da mesma coisa. É claro que existe uma propriedade física associada à sua partícula que quantifica quão frequentemente ela visita uma certa região do espaço de fases. É a probabilidade frequentista!!! Ou melhor, vamos dar um nome mais adequado a ela: é a freqüência!!! Você não precisa abdicar da objetividade do seu universo para ser bayesiano. O que você precisa fazer é reconhecer que existem duas coisas: as freqüências e as probabilidades, e que as duas podem ser usadas para muitas coisas.

E o que eu ganho com isso? O que eu ganho usando probabilidades como um sistema formal de lógica? Eu ganho uma ferramenta de raciocínio no teorema de Bayes. Na visão levantada pelo teorema de Cox, o teorema de Bayes é a forma correta de atualizar sua confiança ou crença em algo quando obtém novas informações. Isso abre possibilidades. O que isso tem a ver com o aprendizado de sistemas que processam informação (como o cérebro por exemplo) ?  Nosso raciocínio segue a regra de Bayes? Sistemas computacionais que aprendem usando a regra de Bayes são eficientes? (SIM!) O que isso tudo tem a ver com teoria de informação? Onde em física estamos falando de freqüências e onde estamos falando de probabilidades? Isso serve para alguma coisa?

E o que eu perco pensando só em termos de freqüências? Há situações em que as vezes pensamos estar falando de freqüências, quando estamos de fato julgando possibilidades segundo informações prévias – portanto usando uma forma mais evidencial de probabilidade. Quando eu digo, por exemplo, que espero obter com \frac{1}{2} de probabilidade uma certa face de uma moeda quando a lanço para cima, estou falando de freqüências? Se eu estivesse, eu deveria em primeiro lugar perguntar: de onde vem a variabilidade de resultados do lançamento de uma moeda? É claro para mim que a variabilidade está nas condições iniciais. Também é claro que o sistema tem uma série de atratores no seu espaço de configurações – alguns correspondentes à face cara para cima, outros correspondentes à face coroa para cima. É claro ainda que, dada uma boa distribuição de condições iniciais, eu posso sortear igualmente atratores de qualquer um dos dois tipos. Então parece que eu estou falando mesmo de freqüências uma vez que eu estabeleço como eu pretendo jogar  a moeda. Eu espero que de fato metade das órbitas que eu sorteio no processo de lançamento resultem em cara, e metade em coroa e portanto espero que no limite de muitos lançamentos eu acabe terminando com 50% de caras e 50% de coroas. Bastante objetivo e racional.

Mas veja a quantidade de coisas que eu tive que assumir para concluir isso: um lançador “ergódico” e honesto de moedas, uma estrutura do espaço de fases da moeda. Tudo isso para mim soa como informação que eu estou assumindo ao tentar atribuir um grau de confiabilidade para o resultado cara ou coroa. Qualquer pessoa bem treinada pode “quebrar a ergodicidade” da moeda e sortear muito mais caras que coroas. Eu mesmo já consegui, mesmo tendo uma habilidade manual não tão grande.

Uma visão alternativa é: uma vez que a moeda é um objeto simétrico, e eu não tenho informação suficiente para supor uma assimetria do processo de lançamento da moeda, não é razoável dizer que eu não posso ter uma maior confiança injustificada em qualquer dos resultados? Se por acaso eu descobrisse que a moeda está sendo lançada de maneira assimétrica, eu poderia tentar estimar então o quão enviesados serão os resultados através da regra de Bayes

Enfim… eu não pretendia com esse post argumentar de maneira categórica em favor da visão bayesiana, mas levantar curiosidade sobre algumas relações interessantes:

  1. Probabilidades podem ser vistas não como freqüências físicas, mas também como níveis de confiança a respeito de proposições.
  2. Probabilidades podem ser vistas ainda como forma de codificar informação: por exemplo informação sobre a simetria da moeda.
  3. E se probabilidades podem ser vistas dessa forma, é importante ter em mente, quando usamos a palavra, se estamos de fato nos referindo à probabilidade bayesiana ou às freqüências físicas.
  4. Freqüências são difíceis de se definir na prática: eu não posso fazer infinitos repetidos experimentos e portanto terei incerteza quanto às freqüências. Mas incertezas são justamente representadas como probabilidades! Então freqüências e probabilidades são coisas diferentes ou então eu tenho uma definição circular.
  5. Se eu estou falando de informação, o que a entropia de Shannon tem a ver com isso?

Enfim. Isso é tudo um aperitivo para estimular curiosidade para…

… ler mais …

e buscar palavras-chave.

  • Inferência:
  • Probabilidade:
  • Jaynes, Laplace, Cox, Bayesian Inference
  • laws of physics as inference tools
Notas:
  • (*) Este livro do Huygens é dito o mais antigo livro sobre probabilidades pelo livro de cálculo do Tom Apostol. Não fui atrás de nenhuma referências sobre estória da matemática para verificar isso por não pretender fazer nenhuma revisão histórica sobre o assunto mas apenas apresentar minha percepção dessas coisas. Uma fonte sobre a história da probabilidade está aqui.
  • (**) Jaynes, E. T. Probability Theory: The Logic of Science, Cambridge University Press (2003).  Esse livro deveria ser leitura obrigatória para qualquer pessoa que ousasse emitir a palavra probabilidade pelos lábios. Não é meramente um livro-texto sobre teoria de probabilidade. É um livro sobre como raciocinar de forma adequada.  Versão parcial pode ser acessada aqui.

Algumas coisas que a física pode dizer sobre o Mercado Financeiro

sábado, 21 fev 2009; \08\America/New_York\America/New_York\k 08 Deixe um comentário

Em um post deste blog, o Rafael Calsaverini começou a explicar alguns resultados interessantes economia e finanças e como estas podem com a física.

Vou ser um pouco mais generalista neste post já que quero mostrar o que os físicos tem feito para finanças (que criou um novo campo chamado Econofísica), e como esses resultados levaram a mudanças em princípios que eram considerados já bem estabelecidos pelos economistas. Esses fatos experimentais (ou seja, foram dados medidos em mercados reais) são conhecidos na literatura como stylized facts .

Uma crença geral, e que motivaram a evolução das financas nos ultimos trinta anos, é que as séries de retorno de ativo financeiro é normal (ou gaussiana), ou seja, os ativos seguiriam um random walk simples. Esta simples hipotese se prova muito mais profunda quando analisada com cuidado. Cito duas características:

– Retornos passados não afetariam resultados futuros. Ou, melhor dizendo, o mercado é eficiente em informação. Isso significaria que TODA informação conhecida sobre aquele ativo já está incluida em seu preço atual. Isso implica que estudar a série de preços de algum ativo não traria nenhuma vantagem.

– Não existencia de crashs e bubbles (crash seriam quedas muito grandes e rapidas, como a crise de 2008 ou bubbles que é um crescimento explosivo do preço, como aconteceu com a nasdaq em 1998 com as empresas de internet) internas ao modelo. Isso porque uma queda de 15% em um dia seria um retorno de 10 desvios padrão, o que indicaria um evento de probabilidade menor que 0.0000000001%. Uma crise seria um fator externo ao modelo, e portanto não preditivel.

Todo o formalismo construído com base na hipótese da gaussianidade é chamado na literatura de hipótese do mercado eficiente.

Mas observando o funcionamento do mercado, nós sabemos que existem métodos de se fazerem previsões a partir da série de dados (isso vem feito a decadas por traders) e que mesmo fora de crises temos movimentos muito rápidos para serem considerados possíveis em um modelo gaussiano. Outra coisa que é facilmente visível nos dados do mercado, mas que não estava de acordo com o modelo gaussiano é a chamada volatility clustering, que é um efeito onde dias de retornos grandes (ou seja, dias onde o valor do mercado varia muito) tem grande probabilidade de serem seguidos outros dias onde o mercado varia muito.

Esses fatos nos levam a crer que a hipótese do mercado eficiente merecia uma revisão, fato que começou a ser levado a sério com o inicio da década de noventa. A gravação de séries de alta frequencia (ou seja, observar como o mercado se comportava em períodos muito curtos (primeiramente na ordem de minutos, atualmente na ordem de microsegundos) permitiu que nosso conhecimento dos comportamentos dos ativos melhorassem muito, e portanto, que as diferenças entre as distribuições fossem notadas. As séries de retorno, por exemplo, são de bordas mais significativas que a distribuição normal (o que significa que dias de variações extremas se tornem possíveis. Um retorno de 15% agora teria apenas 0.1% de chance de ocorrer). E em especial, o fim da hipótese do mercado eficiente implica que é possível observar as séries de preços e retirar informações delas.

Esses fatos ( que podem ser vistos como resultados experimentais, já que estão baseados fortemente nos dados), nos motivam a buscar modelos que tragam alguns destes comportamentos. Um exemplo disso é o “jogo da minoria” que está sendo explicado na seqüencia de posts do Rafael. E como ele está explicando, essa tentativa de trazer as finanças um comportamento microscópico permite aplicações de modelos já muito bem testados na física, e com isso técnicas de modelagem que conhecemos bem: teorias de campos, mecânica estatística, integrais de trajetória, transições de fase, por exemplo. E aparentemente tem tido resultados interessantes.

Toda essa mudança de paradigma sobre o mercado introduziu uma grande oportunidade de pesquisa: novas técnicas (vindas da matematica, física e engenharia) que eram bem conhecidas em suas areas passaram a serem testadas e utilizadas no mercado (por exemplo o post do Rafael citado no inicio, que fala de modelos de agentes). Obviamente nem todos os resultados são positivos. Em 1998 o LTCM, um grande hedge fund que utilizava técnicas modernas de previsão, quebrou, gerando perdas de bilhões de dolares. Hoje é sabido que eles ignoraram uma hipótese básica de toda essa mudança de paradigma: não consideraram a possibildiade de retonros nao gaussianos.

———

Observação: No post sobre fluxos de Ricci, o Daniel comenta brevemente sobre a ligação entre processos de Wiener e Mecanica Quantica. Isso será uma bastante util no próximo post desta série, já que leva a algo que é conhecido como Quantum Finance.

Novas estruturas sociais e o cientista hacker…

quinta-feira, 19 fev 2009; \08\America/New_York\America/New_York\k 08 Deixe um comentário

Com a crescente fusão entre ciência e tecnologia (principalmente TI), surgem novas formas de produção e distribuição do conhecimento.

Origens da divulgação científica

Em ciências (exatas, humanas ou biológicas), desde os primórdios até hoje, a forma preferida de divulgação do conhecimento é oral, por meio de palestras, congressos e conversas formais ou informais. Isso acontece porque explicar a lógica por detrás de uma idéia, de um raciocínio ou de uma metodologia, costuma requerer mais do que a comunicação escrita pode oferecer. Ao vivo, é possível interagir com o interlocutor. Perguntas e respostas são fundamentais para o entendimento.

Com o desenvolvimento histórico, porém, os modos de organização sociais mudaram, outros continentes foram descobertos, a humanidade se expandiu. A história das ciências também mudou: a cada nova escolha feita pelas sociedades, era necessária uma nova adaptação do método científico e de sua divulgação. Na Babilônia e no Egito, há registros de números Pitagóricos, incluindo o famoso teorema de Pitágoras, que datam de 1900-1600 AC, alguns ainda em escrita cuneiforme. Compare isso com as nossas mais modernas formas de escrita: TeX, XHTML, MathML.

Enquanto o mundo era pequeno (Europa/Eurásia) e com o aparecimento de “centros de excelência” para as diversas áreas do saber, a divulgação do conhecimento humano acontecia sem grandes problemas. Porém, com a entrada do “Novo Mundo”, as distâncias começaram a mudar o modo de divulgação científica, passando de oral para escrita. Só assim era possível comunicar as descobertas para os diversos cantos do mundo. Publicava-se uma enciclopédia, uma revista, e essa era levada de barco para o resto do globo. Foi basicamente por essa razão – transposição das distâncias –, num contexto de desenvolvimento da tecnologia da impressão por Gutenberg, que as revistas científicas tomaram a forma que, em alguns casos, adotam até hoje. Contudo, a revolução tecnológica desse último século, incluindo a revolução digital, começou a chacoalhar as fundações desse modelo.

Internet: agilidade na popularização do conhecimento

Flexibilidade e dinamismo na divulgação do conhecimento são peças fundamentais em ciências. Dentre outras razões, estão o simples fato de se atrair um maior interesse no trabalho dos pesquisadores (jovens cientistas, alunos) e o fato de que o resultado da pesquisa de um determinado grupo poder catapultar a pesquisa de outros grupos. Quanto mais pessoas tiverem acesso aos resultados de determinada pesquisa e quanto mais rápido esses resultados forem divulgados, maior será a chance de avançar aquela área do saber. Em alguns casos, essa dinâmica é necessária para manter vivo um campo do conhecimento.

A invenção da Internet e a popularização das tecnologias de computadores, modems, bandas-largas e redes foram um passo fundamental na direção de se agilizar a produção e divulgação do conhecimento. Hoje em dia, é rotina um pesquisador de um lado do globo comunicar seus resultados para seus colaboradores em outros cantos do planeta. Quando se adiciona a isso o fato de que o conhecimento da humanidade pode seguir um novo paradigma de “velocidade, flexibilidade e dinâmica”, esse avanço tecnológico passa a ser incomensurável.

Esse novo ”modus operandi” é fundamental para que se possa maximizar os caminhos da ciência: tanto na direção do cientista para o leitor quanto na do leitor para o cientista. Mas, para que isso se realize, é imprescindível que a divulgação seja o mais democrática possível, habilitanto qualquer pessoa em qualquer lugar do mundo a ter acesso a informação. Nossa sociedade industrial transformou-se em uma sociedade que valoriza a informação. Essa é uma das razões que justifica a existência de modelos de distribuição como o usado pelo arXiv (distribuição gratuita) em lugar de modelos canônicos (revistas especializadas e seus custos).

Ciência da Computação e a revolução digital

Ciência e tecnologia são conceitos diferentes. De acordo com suas definições de dicionário:

  • ciência: conhecimento; conhecimento de princípios e causas; confirmação da verdade dos fatos;
  • tecnologia: aplicação prática da ciência para o comércio e/ou indústria [sinônimos: engenharia, ciência aplicada].

Dada essa distinção, surge a questão de como ciência e tecnologia se relacionam. Em outras palavras, “qual é a ”distância” entre um fato científico e seu correspondente tecnológico?” Para quem está familiarizado com essa questão, é fácil ver que isso é complicado. É preciso entrar nos pormenores de cada área do saber e avaliar o quão próximo do dia-a-dia cada uma delas está. “O que é que se pode fazer de prático com Gravitação Quântica?” Contraste isso com: “O que é que se pode fazer de prático com uma vacina contra a AIDS?” ou ainda “O que é que se pode fazer de prático com a nanotecnologia?” A Gravitação Quântica está bem longe de trazer resultados práticos para o nosso dia-a-dia. Em compensação, pesquisas em HIV e em nanotecnologia estão presentes e afetam a nossa vida diariamente.

Entretanto, é preciso ter cuidado com esse tipo de afirmação: avanços tecnológicos aparecem onde menos se espera. As dificuldades técnicas em se construir equipamentos para pesquisa pura, como aceleradores de partículas (por exemplo, CERN e SLAC) levaram a avanços enormes para os componentes de computadores. O volume de dados que trafega pelas redes de computadores desses experimentos chega a atingir 1 Terabyte (1024 Gigabytes) por segundo, e uma colisão típica nesses aceleradores leva alguns segundos. Um experimento para se medir alguma propriedade de uma teoria de Gravitação Quântica pode levar a avanços dessa natureza.

Para ilustrar esse argumento, vale a pena lembrar duas frases do físico inglês Michael Faraday. Enquanto Faraday explicava uma nova descoberta para o Ministro das Finanças e para o Primeiro Ministro britânicos, perguntaram-lhe ”‘Mas afinal, que uso tem isso?’”, no que Faraday respondeu, ”‘Excelência, é provável que em breve o senhor esteja cobrando impostos sobre isso’”. Em uma outra conversa, o Primeiro Ministro britânico lhe perguntou a respeito de uma nova descoberta ”‘Que valor tem isso?’”; Faraday respondeu, ”‘Que valor tem um recém-nascido?’” e prosseguiu explicando que sem os cuidados de uma boa infância, um recém-nascido não cresce e não se torna um adulto criativo e trabalhador.

Na área de Ciência da Computação, a distância entre ciência e tecnologia fica ainda mais difícil de medir. Por exemplo, Teoria dos Grafos é uma das áreas de pesquisa da matemática pura. Porém, em Ciência da Computação, o conhecimento de Teoria dos Grafos é fundamental para a construção de compiladores (programas que traduzem código escrito em uma linguagem para linguagem de máquina), ou então para o desenvolvimento das linguagens usadas na criação de páginas WWW para a Internet, como o HTML, XHTML, XML, CSS e seus interpretadores (navegadores, como Mozilla Firefox e Opera). Uma teoria abstrata como Teoria dos Grafos acabou gerando uma aplicação imediata. Sem ela, nenhum de nós estaria surfando na Internet hoje.

A Ciência da Computação introduziu um novo paradigma a respeito dessa “distância” entre teórico e prático. E esse novo paradigma trouxe consigo um novo conceito para a nossa sociedade pós-industrial: ”O conceito de Sociedade da Informação”. Uma visão corrente afirma que foi a Tecnologia da Informação que causou essa mudança. Entretanto, é preciso ter em mente que esta teve origem na Ciência da Computação. Uma nova gama de ciências apareceram por causa desse ”insight”, como Teoria da Informação e Inteligência Artificial. O momento histórico, portanto, é mais do que propício para discutirmos uma possível liberação dos meios convencionais de divulgação científica.

Propriedade intelectual

Cooperação e colaboração entre cientistas e acesso às pesquisas e seus resultados são pontos para que se caminhe em direção ao futuro. Portanto, tanto a ciência quanto seus pesquisadores são historicamente livres. No começo dos tempos científicos, a pesquisa e seus resultados tinham uma aplicação prática muito mais tímida do que hoje em dia. Atualmente, é possível ganhar um Prêmio Nobel pela descoberta da estrutura de dupla-hélice do DNA (via cristalografia de raios-X), ou pela descoberta da liberdade assintótica dos quarks, coisa que os egípcios e babilônios jamais sonharam. As aplicações da nanotecnologia vão desde tecidos inteligentes até computadores quânticos e ”spintrônica”. No campo de biotecnologia, desenvolvem-se fármacos para combater um vírus específico. Em suma, aprendemos a dar forma, cor, sabor e até cara para nossos achados científicos de tal forma que, teorias antes consideradas completamente abstratas e sem aplicação prática, são hoje os pilares de uma revolução no nosso modo de vida.

Com esses avanços, um método para a proteção do conhecimento foi desenvolvido. Trata-se da ”Propriedade Intelectual”. Esse desenvolvimento ocorreu ao mesmo tempo em que a nossa ciência ficava cada vez mais próxima da tecnologia. Isso acontece por uma razão bem simples: economicamente, é mais fácil atribuir valor à tecnologia do que à ciência. Afinal de contas, o que é mais fácil quantificar: a Teoria Quântica de Campos e seus aceleradores de partículas ou os computadores e suas tecnologias de rede e bandas-largas? O que é mais fácil de medir: 20 anos de estudo ou um novo antibiótico?

Em vista disso, a medida de ”distância” entre ciência e tecnologia passou a ser cada vez mais fundamental: com o aumento da proteção sobre o conhecimento, o custo sobre o desenvolvimento científico pode tornar-se proibitivo. O desenvolvimento científico deixaria de ser livre. Já imaginaram o que seria do mundo moderno se Maxwell tivesse “cobrado” por sua teoria, o Eletromagnetismo? Sua teoria resume-se a 5 equações. Quatro delas descrevem os fênomenos elétricos e magnéticos propriamente ditos e uma delas descreve a conservação de carga. Essas equações, chamadas Equações de Maxwell, são a base de tudo que é elétrico, eletrônico e magnético hoje em dia (lâmpadas, geladeiras, microondas, computadores). Isso ilustra a dificuldade de atribuir-se um valor econômico a descobertas científicas.

Porém, é necessário dar valor à tecnologia, afinal de contas os produtos e resultados das pesquisas científicas têm que gerar alguma coisa. E é por isso que o paradigma atual, de revolução digital e sociedade da informação, é tão crítico. Como foi mostrado acima em Ciência da Computação, essa distância entre ciência e tecnologia é algo mal definido. Um mestre em Teoria dos Grafos pode inventar um novo compilador, isto é, um teórico pode produzir tecnologia. A Ciência da Computação é a primeira a permitir esse nível de interação entre teoria e prática, entre ciência e tecnologia. Esse é o primeiro palco onde a mais abstrata das matemáticas acaba tendo aplicações práticas de uma utilidade inigualável.

Bazar do conhecimento: por uma sociedade livre e universal

É essa mistura entre ciência e tecnologia, entre teoria e prática, que foi responsável pela revolução digital, pelo nosso novo paradigma cultural (pós-industrial) de sociedade da informação. Portanto, nesse novo momento histórico nós, enquanto coletividade/sociedade, teremos que fazer uma escolha que mudará nossas vidas de forma crítica: ”como é que vamos lidar com a impossibilidade de se medir a distância entre ciência e tecnologia?”. Essa pergunta é fundamental para os futuros modelos econômicos.

Dentre os estudiosos dessa nova economia e sociedade, destacam-se Eric Raymond (The Cathedral and the Bazaar) e Richard Stallman (Free Software, Free Society). O ponto principal dessas referências é que tudo que nelas é descrito como cultura hacker sempre fez parte da cultura da ciência e dos cientistas. Segundo o dicionário dos programadores, a definição de ”hacker” é “um programador para quem a computação em si é sua própria recompensa” e “aquele que gosta do desafio intelectual de superar barreiras criativamente ou encontrar alternativas para limitações”). Ora, cientistas têm sido assim desde sempre. Cientistas são ”hackers”: hackers da matemática, da física, da química, da biologia, da ciência da computação.

Portanto, e chegamos agora ao ponto crucial: estamos vivendo o momento do ”interlace de culturas”, de permeação da cultura ”hacker” na cultura científica. Creio que esse interlace se originou na Ciência da Computação, a primeira ciência a permitir uma interação intensa entre teoria e prática. Assim, nesse momento cultural, vivemos a impossibilidade de discernir ciência de tecnologia e cultura hacker de cultura científica. Dessa forma, a escolha crítica que teremos que fazer reside no fato de que a cultura hacker/científica é fundamental e diferente do paradigma econômico em que vivemos hoje, principalmente no que diz respeito à produção de valor.

O caminho na direção de uma sociedade mais livre e universalmente inclusiva terá que lidar com essas questões, terá que formular respostas para essas questões, terá que encontrar novos paradigmas sociais e econômicos que acomodem essas questões. Um dos problemas a serem atacados é o da universalidade da ciência, principalmente no que diz respeito à sua divulgação. A meu ver, a solução mais universalmente inclusiva e livre para essa questão deve seguir os moldes do arXiv. Trata-se de uma solução que permita o acesso irrestrito ao conhecimento, às pesquisas e seus resultados. E, dado o modelo econômico atual, isso só pode ser feito através de uma forma eletrônica e gratuita de divulgação científica. Seria fantástico se o modelo do arXiv fosse adotado para todas as outras áreas do saber.

Epílogo: Uma breve história do arXiv

No começo, o arXiv era chamado “LANL preprint archive” (LANL é o Laboratório Nacional de Los Alamos – lugar onde a física das bombas atômicas da Segunda Guerra Mundial foi finalmente entendida e “dominada”). Ele é um arquivo para ”preprints” eletrônicos de artigos científicos nos campos de Física, Matemática, Ciência da Computação e Biologia Quantitativa. No passado, o servidor do arXiv ficava no LANL mas, atualmente, o arXiv é servido e operado pela Universidade de Cornell, além de ser espelhado pelo mundo afora. Sua idéia original é devida ao físico Paul Ginsparg.

O arXiv surgiu em 1991 como um arquivo de ”preprints” em física (hep-th, sigla que denota “física teórica de altas energias”) e, mais tarde, foi expandido para incluir, além de outras áreas de física, matemática, ciência da computação e, mais recentemente, biologia quantitativa. Em Março de 2004, o arXiv continha cerca de 267.000 preprints e recebia cerca de 3.000-4.000 novos preprints por mês!

O primeiro nome do arXiv foi xxx.lanl.gov, porém esse nome foi mudado quando se descobriu que programas de “censorware” (ou seja, programas de filtragem de conteúdo) estavam bloqueando seu acesso a partir de diversos sites, acreditando que as três letras X implicassem num site pornográfico. A idéia do XXX era a de que o arXiv era melhor que o WWW em todos os aspectos (já que a letra x vem depois da letra w no alfabeto).

A existência do arXiv foi um dos fatores mais importantes que levou à presente revolução em publicações científicas, conhecida como Open Access Movement (veja também Budapest Open Access Initiative e Berlin Declaration), com a possibilidade de levar ao desaparecimento das revistas científicas tradicionais (e, mais importante ainda, seus modelos de publicação).

Um método popular para se acessar a porção de matemática do arXiv é via o portal da Universidade da Califórnia em Davis chamado de Front. O portal oferece um método de busca poderoso e uma interface mais amigável para o usuário. Por essa razão, o arquivo de matemática é conhecido como ”[the] Front”.

Cientistas e matemáticos profissionais (como Grigori Perelman em 2002 e Richard Arenstorf em 2004) ”carregam” regularmente seus achados e demonstrações matemáticas no arXiv para o acesso e revisão mundial (e gratuito).

Referências

Enquete…

Diversão garantida…

😈

Como calcular juros próximo a velocidade da luz?

quinta-feira, 19 fev 2009; \08\America/New_York\America/New_York\k 08 1 comentário

Por intermédio do meu orientador, Robert Caldwell, eu descobri essa peça inusitada de trabalho escrito pelo economista Paul Krugman em 1978, Prêmio Nobel de economia de 2008:

Teoria de mercado interestelar, Paul Krugman.

Resumo
Este artigo estende a teoria de mercado interplanetária para a teoria de mercado interestelar. Está primariamente considerando a seguinte questão: como os juros sobre bens em trânsito devem ser calculados quando os bens em questão viajam próximos a velocidade da luz? Isto é um problema porque o tempo de trânsito é menor para um observador viajando com os bens em comparação a um observador estacionário. Uma solução é derivada da teoria econômica, e dois inúteis, porém verídicos, teoremas são derivados.

(:

Categorias:Ars Physica, Economia Tags:

Fluxo de Ricci, Flutuações Quânticas e Geometria…

quarta-feira, 18 fev 2009; \08\America/New_York\America/New_York\k 08 10 comentários

Já faz algum tempo que eu quero escrever sobre esse assunto: flutuações quânticas, fluxo de Ricci, geometria, fluxo do grupo de renormalização e afins. Agora parece ser o momento certo… 😉

De saída, digo que todas as estruturas matemáticas ou físicas possuem as propriedades necessárias pros resultados citados valerem, FAPP. Assim, isso economiza uma série de “observações” que deveriam ser feitas… mas, facilita um tanto a visão geral e o objetivo das construções feitas.

Introdução

Vamos começar definindo um básico de notação: \Sigma e \mathscr{M} são variedades Riemannianas e \phi:\; \Sigma\longrightarrow\mathscr{M} são mapas/funções parametrizadas por um conjunto de constantes de acoplamentos \mathcal{C}; os espaços \mbox{Map}(\Sigma,\mathscr{M}) = \{ \phi \; : \; \Sigma\longrightarrow\mathscr{M}\} têm um significado matemático “razoável”, onde não assumimos nenhuma propriedade de regularidade (forte) sobre os mapas \phi; e, por definição, \mbox{dim}(\Sigma) é a dimensão da QFT dada. Vale a pena, ainda por cima, pensarmos em termos dum espaço [formal] \mbox{Act}[\mbox{Map}(\Sigma,\mathscr{M})\times \mathcal{C}], onde cada ponto representa um funcional em \mbox{Map}(\Sigma,\mathscr{M})\times\mathcal{C}, chamado de Ação, S[\phi;\alpha], onde (\phi,\alpha) \in \mbox{Map}(\Sigma,\mathscr{M})\times\mathcal{C} e S[\phi;\alpha] \in\mathbb{R}. Na verdade, uma QFT é associada naturalmente a uma órbita da Ação clássica S[\phi;\alpha], gerada em \mbox{Act}[\mbox{Map}(\Sigma,\mathscr{M})\times \mathcal{C}] por um semi-grupo cuja existência dá um significado físico apropriado ao processo de quantização.

Vamos agora nos lembar que uma QFT (Euclidiana) é totalmente determinada por suas Funções de Green, i.e., pelas correlações induzidas por uma família de densidade de probabilidades (i.e., medidas) em \mbox{Map}(\Sigma,\mathscr{M}) também parametrizadas por \mathcal{C}, entre os valores \phi(x_1,\dotsc, x_k) \in \mathscr{M}^k, onde (x_1,\dotsc, x_k)\in\Sigma:

Z[\phi(x_k);\alpha] \equiv \displaystyle\int_{\mbox{Map}(\Sigma,\mathscr{M})} \phi(x_1,\dotsc,x_k)\, e^{-S[\phi;\alpha]}\, D_{\alpha}[\phi] \; ;

onde D_{\alpha}[\phi] is a functional measure in \mbox{Map}(\Sigma,\mathscr{M}).

Dando uma interpretação geométrica ao cenário acima, mesmo no caso 0-dimensional nós já temos resultados não-triviais, onde \Sigma = p e \phi:\, p\longrightarrow \mathscr{M} tal que p\mapsto \phi(p) e \mbox{Map}(\Sigma,\mathscr{M}) = \{\phi:\, p\longrightarrow \mathscr{M} \} \simeq \mathscr{M}. Nesse caso, o funcional Ação se torna uma função escalar (para o caso em questão, nos reais) e usando-se o método de “steepest descent” (ou “stationary phase”) a Função de Partição desse problema (que se reduz a uma integral) se localiza (i.e., tem suas maiores contribuições) nos pontos críticos da Ação — notem que esses pontos críticos variam de acordo com os acoplamentos \alpha sendo considerados; variando-se esses acoplamentos obtém-se toda sorte de fenômeno no espaço de parâmetros \mathcal{C}, como Stokes Phenomena e Lee-Yang Zeros (vejam também Statistical Theory of Equations of State and Phase Transitions. I. Theory of Condensation e Statistical Theory of Equations of State and Phase Transitions. II. Lattice Gas and Ising Model) que acabam gerando fenômenos de catástrofe no espaço de parâmetros \mathcal{C} o que leva à quebra espontânea de simetria e transição de fases. (Mas, quero deixar pra comentar sobre isso mais tarde, pois as ligações com o fluxo de Ricci e do Grupo de Renormalizacão vão ser bem bonitas. 😉 )

Agora um “truque” que eu praticamente não vejo sendo usado: ao invés de se usar \phi\in\mathbb{R}, é bom sempre ter em mente que é possível se usar outros tipos de campos, como \phi\in\mathbb{R}^{n\times n} ou \phi\in\mathfrak{su}(N) — ou seja, seguindo a linha de raciocínio que estamos traçando aqui, basta escolhermos \mathscr{M} de modo apropriado, i.e., ou sendo o espaço de matrizes [Hermitianas] n\times n ou sendo uma variedade do grupo de Lie \mbox{SU}(N). Dessa forma, é praticamente uma extensão trivial se obter os resultados análogos para campos matriciais ou com valores em álgebras de Lie. (Esse caminho nos leva a considerações do tipo Intersection theory on the moduli space of curves and the matrix Airy function, e suas extensões em Airy Functions for Compact Lie Groups. Isso mostra que as Funções de Partição podem ser vistas, genericamente, como Funções de Airy generalizadas e, aí, se pode aplicar todo um maquinário de “intersection theory on moduli spaces” para se encontrar todas as possíveis soluções duma determinada QFT… aliás, é assim que se aplica QFT para se classificar variedades. 😉 ) Ou seja, se fizermos \mathscr{M} = \mathcal{H}^{n\times n}, o espaço de matrizes hermitianas n\times n, é possível estudarmos toda uma série de problemas em geometria enumerativa, estabelecendo uma conexão profunda entre QFTs 0-dimensionais e a topologia do ‘moduli space’ de superfícies de Riemann! E, como vcs já podem ter percebido, as diferentes soluções que aparecem nesses problemas de geometria enumerativa e de Teoria da Intersecção estão intimamente ligadas às fases (i.e., quebra espontânea de simetria) que uma determinada QFT tem. Mas, essas ligações são complicadas de serem estabelecidas e não me parece haver literatura a respeito disso (até a publicação da minha tese, 😈 ).

Falando em termos de 1-dim QFTs, temos explicitamente a Mecânica Quântica, que não passa de \Sigma = \mathbb{R} para uma linha (tempo) ou \Sigma = S^{1} para MQ num círculo (tempo Euclidiano ou temperatura). Nesse caso, a Função de Partição descreve um processo de Wiener em \mathscr{M} (também conhecido como Movimento Browniano). Dessa forma, como estamos falando de espaços Euclidianos, percebemos que a MQ não passa duma rotação de Wick dum processo de Wiener — pra quem gosta dessa visão (que é menos simples do que parece, claro 😉 ), eu recomendo a leitura do livro Quantum Fluctuations do Nelson.

Geometricamente falando, pode se dizer que no caso de QFT 1-dim (Euclidiana), a Função de Partição “sente” como as flutuações [quânticas] afetam os caminhos aleatórios t\mapsto \phi(t)\in\mathscr{M}, conforme variamos a escala de “comprimentos” \Delta t em \Sigma — dessa forma, estamos lidando com a quantização do fluxo geodésico em \mathscr{M} e podemos fazer a identificação “Geometria Riemanniana de \mathscr{M}\Longleftrightarrow “MQ de partículas teste em \mathscr{M}“! 😎 (Aposto como agora fica mais fácil de se entender a importância da Métrica de Jacobi, usada em arXiv:0809.2778, para transformar um fluxo Hamiltoniano num fluxo geodésico. 😈 )

O Fluxo do Grupo de Renormalização

Os exemplos acima lidam com situações onde as flutuações quânticas podem ser usadas pra medir diferentes aspectos da geometria de (\Sigma,\mathscr{M}), porém, sem afetá-la diretamente. Portanto, a partir de agora, podemos começar a nos perguntar ‘se’ e ‘quanto’ as flutuações quânticas de \phi:\, \Sigma\rightarrow\mathscr{M} podem deformar a geometria do par (\Sigma,\mathscr{M}).

Para atacar tal pergunta, é necessário “controlarmos” tanto os campos, \phi:\, \Sigma\rightarrow\mathscr{M}, quanto as constantes de acoplamento, \alpha\in\mathcal{C}, na medida em que variamos as escalas em \Sigma (que é a única escala significativa numa teoria [quântica] relativística. :wink:)

Ou seja, é preciso reconhecermos duma vez por todas — e logo de saída! 😛 — que um dos ingredientes básicos de qualquer QFT é uma escala de energias. Há vários modos diferentes de se ver isso; e.g., em termos de Wilson Loops, isso está relacionado ao tamanho da curva C que dá sentido à path-ordered exponential (i.e., está relacionado à localidade da holonomia sendo usada); na formulação da QFT em redes (ou seja, em Mecânica Estatística 😉 ), isso tem a ver com as variáveis de bloco escolhidas pra teoria (i.e., com o tamanho dos blocos); falando em termos de OPEs, significa escolher a álgebra de operadores de vértice (VOA) que codifica o comportamento da teoria numa dada escala de energia (i.e., ela codifica as propriedades importantes dum particular complemento ultra-violeta); e, finalmente, alguém pode gritar, lá do fundão: “Grupo de Renormalização”. 🙂 Ou seja, determinar as holonomias da teoria, ou as variáveis de bloco ou o [particular] fluxo do grupo de renormalização (que se deseja tratar no caso em mãos), é tudo a mesma coisa. 😉

Ou seja, é fundamental procurarmos por um conjunto de transformações (fluxo do grupo de renormalização) tais que,

\mbox{RG}_{\ell}\, : \; \mbox{Map}(\Sigma, \mathscr{M})\times\mathcal{C} \longrightarrow \mbox{Map}(\Sigma, \mathscr{M})\times\mathcal{C}

\therefore\qquad\qquad\qquad\;\, (\phi,\alpha) \longmapsto \mbox{RG}_{\ell}(\phi,\alpha) = \bigl(\phi_{\ell};\alpha(\ell)\bigr) \; .

Assim, quando variamos a escala \ell em que medimos a superfície de Riemann \Sigma, podemos domar a energia das flutuações dos campos, ajustando as constantes de acoplamento de acordo. (Só pra constar, vou usar \ell = \Lambda^{-1}, onde \Lambda é a escala de momentos no espectro das flutuações dos campos. Então, quando eu quiser ser mais específico sobre as escalas de energias, eu vou usar \Lambda, caso contrário, usarei \ell.)

Portanto, se temos duas escalas, \Lambda, \, \Lambda', e queremos descobrir o que acontece quando \Lambda\rightarrow\Lambda' (i.e., quando fluímos a teoria duma escala para outra), basta realizarmos a seguinte operação:

S'[\phi';\alpha'] = \mbox{RG}_{\Lambda\rightarrow\Lambda'} S[\phi;\alpha] \; .

Essa é a essência das Teorias Efetivas (ver também Grupo de Renormalização).

Porém, pra que essa construção seja possível, é preciso que o mapa \mbox{RG} satisfaça a propriedade de semi-grupo:

\mbox{RG}_{\Lambda\rightarrow\Lambda''} = \mbox{RG}_{\Lambda\rightarrow\Lambda'} \circ \mbox{RG}_{\Lambda'\rightarrow\Lambda''} \; ; \; \forall\; \Lambda > \Lambda' > \Lambda'' \; ;

ou seja, é possível se fluir um sistema (no sentido do grupo de renormalização) apenas na direção de altas energias (resp. pequenas distâncias) para baixas energias (resp. grandes distâncias).

Falando em termos geométricos, uma QFT é caracterizada por uma ação S[\phi;\alpha] somente se a medida funcional a ela associada — e^{-S[\phi;\alpha]}\, D_{\alpha}[\phi] — se transformar “naturalmente” sob \mbox{RG}:

\displaystyle\int_{\mbox{RG}_{\ell}\{\mbox{Map}(\Sigma,\mathscr{M})\}} \exp\{-S[\phi;\alpha]\}\, D_{\alpha}[\phi] = \displaystyle\int_{\mbox{Map}(\Sigma,\mathscr{M})} \exp\{-\mbox{RG}_{\ell}^{*}(S[\phi;\alpha])\}\, \mbox{RG}_{\ell}^{*}\bigl(D_{\alpha}[\phi]\bigr) \; ;

de forma que essa igualdade seja válida no limite \ell\rightarrow 0 (resp. \Lambda\rightarrow\infty).

É importante, porém, sempre se lembrar que \mbox{RG}_{\ell}, apesar do nome, é apenas um semifluxo: com o passar do tempo (i.e., para t\rightarrow +\infty), nós descrevemos um espectro de flutuações de campos para distâncias cada vez maiores, “averaging and integrating out” graus-de-liberdade irrelevantes. Portanto, a validade da fórmula acima no limite t\rightarrow -\infty (resp. \ell\rightarrow0 e \Lambda\rightarrow\infty) é algo altamente não-trivial, uma vez que é muito difícil (quiçá impossível) reverter esse processo (i.e., ir na direção de altas energias e pequenas distâncias). É por essa razão que QFTs são conceitualmente difíceis de serem construídas. 😉

De qualquer maneira, quando é possível se fazer tal construção, a equação acima diz que existe um espaço limite, \lim_{\Lambda\rightarrow\infty} \mbox{RG}_{\Lambda}\{\mbox{Map}(\Sigma, \mathscr{M})\} (i.e., o limite de altas energias dos campos, também chamado de “complemento ultra-violeta” 😉 ), de objetos geométricos que descrevem a QFT em mãos — tipicamente, esses objetos não pertencem ao espaço original, \mbox{Map}(\Sigma, \mathscr{M}) (i.e., os campos iniciais não são os mesmos que os finais, depois que se aplicou um determinado fluxo do grupo de renormalização — os campos renormalizados não são os mesmos que os campos não-renormalizados 😛 ), uma vez que o fluxo de \mbox{RG}_{\Lambda} pode ser altamente singular.

Para discutir esse tipo de questão, vamos tomar a Função de Partição como sendo,

Z[\phi_{\Lambda}; \alpha(\Lambda)] \equiv \displaystyle\int_{\mbox{Map}(\Sigma, \mathscr{M})} \exp\bigl\{-\mbox{RG}_{\Lambda}^{*}(S[\phi;\alpha])\bigr\}\, \mbox{RG}_{\Lambda}^{*}\bigl(D_{\alpha}[\phi]\bigr) \; ;

e reescrever a relação anterior em sua forma diferencial,

\displaystyle\frac{d}{d\Lambda} Z[\phi_{\Lambda}; \alpha(\Lambda)] = \biggl\{\displaystyle\frac{\partial}{\partial\Lambda} - \beta(\alpha(\Lambda))\, \displaystyle\frac{\partial}{\partial \alpha}\biggr\}\, Z[\phi_{\Lambda}; \alpha(\Lambda)] = 0 \; ;

onde \beta(\alpha(\Lambda)) \equiv -\partial\alpha(\Lambda)/\partial\Lambda, é a chamada “função β” da teoria. 😉

Como vcs vêm, a função β pode ser considerada como um campo vetorial (linhas de fluxo) no espaço de parâmetros, \mathcal{C}. A grosso modo, o que isso significa é que se nós re-escalarmos as energias em \Sigma por um fator de e^{\Lambda} e ao mesmo tempo fluirmos no espaço de parâmetros na direção de -\beta por uma quantidade de \Lambda, a teoria obtida tem a mesma forma que a inicial. (Nesse sentido, é sempre bom acompanhar uma discussão como essa com um pouco de Análise Dimensional — quiçá até com um pouco de Teorema π de Buckingham 😉 —, principalmente como feito no artigo Dimensional Analysis in field theory, devidamente comentado em Renormalization as Dimensional Analysis.)

O Fluxo de Ricci e Modelos σ Não-Lineares

[N.B.: A grande vantagem em se estudar Modelos σ não-lineares é que eles servem de “caso teste”, de “modelo de brinquedo”, para teorias de gauge, no sentido de que se considerarmos apenas seus temos cinéticos, já temos uma dinâmica extremamente rica; i.e., não é preciso, necessariamente, haver termos de pontecial pra haver uma dinâmica não trivial — no caso dos modelos σ não-lineares, essa dinâmica é dada pela métrica (não-trivial).]

Um modelo σ não-linear é uma QFT 2-dimensional onde \Sigma é uma superfície Riemanniana 2-dimensional com uma métrica \gamma = \gamma_{\mu\, \nu}\, dx^{\mu}\otimes dx^{\nu}, e o espaço alvo, \mathscr{M}, é uma variedade Riemanniana com a métrica g = g_{i\, j}\, d\phi^{i}\otimes d\phi^{j}. Particularmente, vamos assumir que \Sigma = T^2 = \mathbb{R}^2/\mathbb{Z}^2, i.e., o toro plano, com a métrica \gamma_{\mu\, \nu} = \delta_{\mu\, \nu}. Assumindo que os campos sejam diferenciáveis (pelo menos no sentido de distribuições) e que a L^{2}(\Sigma)-norma de d\phi é finita, é possível se definir a Ação clássica dos campos/mapas \phi\,:\; \Sigma\longrightarrow\mathscr{M} da seguinte forma:

S(\phi; a^{-1}\, g) \equiv a^{-1}\, |d\phi|^{2}_{L^{2}(\Sigma)} = a^{-1}\, \displaystyle\int_{\Sigma} \gamma^{\mu\, \nu}\, \partial_{\mu}\phi^{i}\, \partial_{\nu}\phi^{j}\, g_{i\, j}\, d\mu_{\gamma} \; ;

onde d\mu_{\gamma} é o elemento de volume Riemanniano em (\Sigma,\gamma), e a > 0 é um parâmetro com dimensões de comprimento ao quadrado — notem que a métrica a^{-1}\, g(\phi) faz o papel das constantes de acoplamento para os campos da teoria; o que sugere, nesse caso, que o espaço de parâmetros é o cone ∞-dimensional das métricas Riemannianas sobre \mathscr{M}, chamado de \mbox{Met}(\mathscr{M}). Entretanto, como a Ação acima é invariante pelo grupo de difeomorfismos \mbox{Diff}(\mathscr{M}), na verdade temos que \mathcal{C} = \mbox{Met}(\mathscr{M})/(\mbox{Diff}(\mathscr{M})\times\mathbb{R}^{+}), onde \mathbb{R}^{+} denota o grupo de re-escalamentos definido por a\mapsto \lambda\, a\; ;\; \lambda\in\mathbb{R}^{+}. Portanto, \mathcal{C} é o espaço de estruturas Riemannianas em \mathscr{M} módulo re-escalas (globais) de comprimento. Mais ainda, é importante notar que o único parâmetro adimensional da teoria é a razão entre a escala de comprimentos do espaço alvo (i.e., seu raio de curvatura ao quadrado, r^{2}_{\mbox{curvatura}}) e a. Dessa forma, o limite de acoplamentos fracos em teoria de perturbação acontece quando o tamanho da superfície (\Sigma,\gamma) é muito menor que a escala física de comprimentos em (\mathscr{M},g) (também chamado de “limite puntual”). Para entender esse último ponto um pouco mais profundamente, lembre-se que a Ação acima, além de invariante pelo grupo de difeomorfismos, também é invariante por transformações conformes de (\Sigma,\gamma). Seus pontos críticos são funções harmônicas; em particular, os mínimos são funções constantes. Isso implica que, quando a curvatura do espaço alvo (\mathscr{M},g) for pequena em relação à (\Sigma,\gamma) (i.e., no “limite puntual”), a medida \exp\{-S[\phi;a^{-1}\, g]\}\, D_{g}[\phi] fica concentrada/localizada ao redor das funções constantes e, então, podemos controlar as flutuações quasi-Gaussianas — com um pouco de abuso de linguagem, tipicamente se chama esse caso de “teoria de perturbação para a pequeno”, e dizer que a teoria é “renormalizável perturbativamente em termos do parâmetro de escala a.” 😉

[N.B.: Há vários outros termos que poderiam ser adicionados à Ação acima ainda preservando a invariância por difeomorfismos (porém, tipicamente quebrando a invariância conforme). Os mais comuns são: táquion, dilaton e topológico. Mas, nós não vamos considerá-los aqui, para o bem da clareza de exposição. 😎 ]

Devemos notar que tipicamente o espaço \mbox{Map}(\Sigma,\mathscr{M}) é não-linear (i.e., não é um espaço vetorial), e é difícil de se implementar o procedimento do grupo de renormalização num cenário desses. Porém, no limite de de acoplamentos fracos (i.e., no “limite puntual” acima), somente campos que flutuam ao redor de valores constantes são relevantes. Dessa forma, a idéia é a de descrever o Modelo σ não-linear em mãos se extraindo o comportamento das flutuações quânticas dos campos \phi ao redor dum ‘background’ \psi (i.e., “campo médio”), definido pela distribuição do centro-de-massa dum grande número (tendendo ao infinito) de cópias independentes de \phi.

Nesse ponto, pra não matar ninguém de tedius-maximus-totalis, 😉 , vou dar um pulinho… e ir direto pra parte que interessa, pro filezinho: o fluxo do grupo de renormalização para um modelo σ não-linear. 😎 Nas referências abaixo vcs podem encontrar os detalhes mais sórdidos. 😉

Então, essencialmente, o fluxo do grupo de renormalização para modelos σ não-lineares, em 1-loop e 2-loops, é, respectivamente, o seguinte:

  • 1-loop: \displaystyle\frac{\partial}{\partial t} g(t) = -2\, \mbox{Ric}\bigl(g(t)\bigr) + \mathcal{O}(a^{2});
  • 2-loops: \displaystyle\frac{\partial}{\partial t} g_{i\, k}(t) = -2\, R_{i\, k}(t) - a\, (R_{i\,l\,m\,n}\, R^{l\,m\,n}_{k}) + \mathcal{O}(a^{2});

onde t = -a\, \log(\Lambda/\Lambda') (de tal forma que \Lambda seja o “cutoff” de momento tal que os \phi com momento menor que \Lambda estejam confinados por campos onde \Lambda' representa o termo de massa necessário para a regularização [desse último]), \mbox{Ric} é o tensor de Ricci e R_{a\,b\,c\,d} é o tensor de curvatura de Riemann.

No “limite puntual” (i.e., acoplamento fraco, a\rightarrow 0), ambas as expressões se tornam o Fluxo de Ricci (de R. Hamilton):

\displaystyle\frac{\partial}{\partial t} g_{a\,b}(t) = -2\, R_{a\,b}(t)\; ,\; g_{a\,b}(0) = g_{a\,b} \; .

Geometricamente, esta é a equação de evolução fracamente-parabólica obtida através da deformação duma métrica Riemanniana, g_{a\,b}, sobre a variedade suave \mathscr{M} na direção do tensor de Ricci R_{a\,b} [dessa variedade \mathscr{M}]. É importante notarmos que esse fluxo, essa evolução, só é fracamente-parabólica no regime infra-vermelho do fluxo do grupo de renormalização (correspondendo ao limite t\rightarrow\infty), enquanto que o limite \Lambda/\Lambda' \rightarrow\infty corresponde ao regime parabólico inverso, t\rightarrow -\infty.

Em particular, o modelo σ não-linear é renormalizável (i.e., existe como uma teoria no contínuo) se, e somete se, começando da métrica nua g, nós podemos fazer o fluxo de Ricci para trás no “tempo” até t = -\infty sem encontrar singularidades — i.e., podemos tomar o limite inverso (tempos negativos) do fluxo de Ricci sem encontrar singularidades. Também é importante notar que se a métrica obtida a partir do fluxo de Ricci desenvolver uma região de alta curvatura, então a correspondência entre “fluxo de renormalização” e “fluxo de Ricci” deixa de existir — nesse caso é preciso se considerar, pelo menos, o termo a\, (R_{i\,l\,m\,n}\, R^{l\,m\,n}_{k}), e o comportamento a grandes distâncias (t\rightarrow +\infty) pode depender fortemente de termos topológicos (adicionados à Ação original). Por outro lado, o desenvolvimento de singularidades quando t diminui implica que não podemos remover o ‘curoff’ ultra-violeta \Lambda (i.e., não há um “complemento UV” para a teoria). A Ação não define uma teoria de campos locais, e o melhor que se pode esperar é uma descrição efetiva válida em alguma escala t_0.

[N.B.: A pergunta que fica, agora, é a seguinte, O que representam essas tais ‘singularidades do fluxo de Ricci’? A resposta pra essa pergunta nos leva ao próximo (e último) assunto a ser tratado nesse post… mas, deixo uma diquinha: “transição de fases” e “quebra espontânea de simetria”. 😈 ]

A Geometria do Fluxo de Ricci e Comentários sobre suas Singularidades

O fluxo de Ricci foi o ponto-de-partida e o exemplo motivador em importantes desenvolvimentos em Análise Geométrica, tendo seu ápice na prova da Conjectura da Geometrização de Thurston e da Conjectura de Poincaré! 😯 Então, isso torna ainda mais impressionante o fato de que fluxos de Ricci aparecem tão naturalmente na análise do grupo de renormalização de modelos σ não-lineares.

O fato geométrico que trabalha nos batidores para tornar toda essa mágica possível é que a função $beta; do fluxo do grupo de renormalização poder ser interpretada como sendo um campo vetorial no espaço de parâmetros, \mathcal{C} da QFT dada. (Alguém aí sussurrou ‘quebra de simetria’? :mrgreen: ) Mais ainda, a função β é dada pela equação que define o fluxo de Ricci,

\beta(t) = \displaystyle\frac{\partial}{\partial t} g(t)= -2\,\mbox{Ric}(t) \; .

(A prova disso fica para o leitor interessado… mas também pode ser encontrada nas referências abaixo. 😉 )

O entendimento de como as soluções do fluxo de Ricci se comportam quando elas se aproximam um regime singular (i.e., quando elas vão chegando perto duma singularidade) é um passo chave para o uso do fluxo de Ricci (e.g., na prova da conjectura da geometrização). Mais ainda, de acordo com o que vimos na análise do fluxo do grupo de renormalização para modelos σ não-lineares, fica claro que nesse cenário também a formação de singularidades tem um papel fundamental — nesse caso, as soluções relevantes do fluxo de Ricci são as chamadas “ancient solutions”, aquelas que existem durante um intervalo máximo [de tempo], e correspondem a teorias renormalizáveis.

Uma classificação natural das singularidades pode ser feita com base na duração da existência de sua solução para o fluxo de Ricci e como essa solução escala assintoticamente. É possível também se usar técnicas de Convergência de Gromov-Hausdorff, em particular “point picking“.

Fica claro que o estudo da formação de singularidades é um dos tópicos principais na teoria de fluxos de Ricci, dado que ele provê o entendimento da estrutura das soluções em regimes de alta curvatura — em particular, a análise do “limite de colapso” do fluxo de Ricci é extremamente interessante: o colapso toma a forma duma simetria (“collapsing symmetry”) sob a qual o limite do fluxo de Ricci é eqüivariante (ver também Sistemas Dinâmicos Eqüivariantes, Eqüivariância e Cohomologia Eqüivariante). Esse é o fenômeno análogo à geração duma QFT a partir da quebra espontânea duma simetria. (Sem entrar em detalhes, sob a ação dessa “simetria de colapso”, as soluções limite do fluxo de Ricci passam a ter a estrutura dum Grupóide Riemanniano. 😛 Essa é uma noção familiar na teoria de foliações e no estudo de álgebras C* duma foliação — o que torna tudo ainda mais claro quando lembramos que cada solução duma dada QFT vive em sua própria folha e tem sua própria [representação] da álgebra C* em questão.) Portanto, há grande potencial e relevância em se usar esse tipo de técnica para se estudar o regime UV do grupo de renormalização em QFT.

Referências…

Enquete…

Júbilo…

Diversão garantida… 😈

Edição de fevereiro.

terça-feira, 17 fev 2009; \08\America/New_York\America/New_York\k 08 36 comentários

O título é um pedido de desculpas por ter estado tão ausente nessas ultimas semanas, mas nem sempre dá para aparecer por aqui. Então, esse vai ser um post com diversos assuntos, motivado por conversas com colegas ao longo do último mês, a maioria no orkut. Então, nessa edição temos:

  1. História da física (parte 2) – Anomalias
  2. A história do Jim Simons, Renaissance Tech e Stony Brook
  3. Partícula num aro (parte 2) – Mecânica quântica
  4. Rapid communications: pós-graduações no EUA e conferência sobre supercordas

Há algum tempo, um colega me perguntou sobre a relação de laços de Wilson e anomalias. Eu não conhecia a relação e, na verdade, ela nem chega a ser muito profunda. Em vista da oportunidade, deixa eu contar o que são anomalias de uma forma semi-técnica, aborando um pouco da história envolvida.

Tudo começou com um cálculo que foi tentado por Tomonaga onde ele calculou perturbativamente em 1 loop o propagador do fóton \langle J_{em}^{\mu} J_{em}^{\nu} \rangle. Há dois fatos experimentais inequívocos sobre o fóton (que na verdade é um só): ele não tem massa e é trasnversal, ie, há apenas dois estados de polarização. O problema dessa conta é que as quantidades definidas na ação de Maxwell, quando interpretadas quanticamente não são as quantidades medidas. São parâmetros livres, que na verdade são divergentes. As quantidades medidas dependem das interações. Quando elas são levadas em consideração, essas divergências deixam de existir e a ação quântica efetiva passa a ser função de quantidades finitas. Essa é a idéia do que se chama renormalização: em teorias renormalizáveis a ação quântica efetiva tem a mesma expressão funcional quando renormalizada ou não, mas os limites são tomados em pontos diferentes.

Bem, deixando os detalhes técnicos de lado, Tomonaga encontrou uma massa para o fóton e um estado não transveral, correções indesejadas que não podiam ser renormalizadas (Tomonaga, naquela época, usava o curioso termo “amalgamado”). Não demorou muito para as pessoas entenderem o papel das simetrias no cálculo das correções quântica. Bem, o importante para história é que essas inconsistências levou Tomonaga e seus colaboradore, Fukuda e Miyamoto a examinarem o próximo diagrama mais simples: um triângulo, ie \langle J_{\pi}J_{em} ^{\mu}J_{em}^{\nu} \rangle em 1 loop. Novamente, o resultado parecia não preservar invariância de gauge e, algo novo, o acoplamento com um pseudovetor U_{\mu} era diferente de com um pseudoescalar \partial_{\mu}U, o que é inconsistente com a equação de Dirac (na camada de massa \partial_{\mu}(\overline{\psi}\gamma_5\gamma^{\mu}\psi)=-2m\overline{\psi}\gamma_5\psi). Novamente eles perceberam que o problema estava na relação das simetrias com as integrais divergentes que apareciam durante a conta.

Esse trabalho, depois de algum tempo, chegou aos ouvido de Steinberger, em Princeton, através de Yukawa. Eles então decidiram aplicar o então recente método de Pauli-Villars para refazer as contas. E, como os leitores envovidos nessa área devem saber, o resultado foi invariante de Lorentz e invariante de gauge. Contudo, a diferença no acoplamento entre pseudoescalar e do pseudovetor continuava diferente. Em linguagem moderna: há uma anomalia quiral! Eles não sabiam muito o que fazer com esse resultado na época e a melhor sugestão no fim do artigo era esperar pela detecção experimental da reação \pi^0\rightarrow 2\gamma. Acho que poucas pessoas adotariam essa postura hoje em dia :D, mas o importante é que esse decaimento do pi-zero, na época chamado de Neutretto, de fato existe.

O problema, claro, não é simples e demorou até 1951 para Schwinger publicar uma nova forma de ataque ao problema. Num artigo que considero muito bonito “On Gauge Invariance and Vaccum Polarization”, Schwinger notou pela primeira vez com clareza que era necessário que os métodos de resolução das funções de Green fossem a todo instante invariantes de Gauge para que o resultado também fosse. Ele mostrou que a auto-energia do fóton, de fato, cancela na camada de massa e tudo parecia feliz. Mas ele também encontrou que o acoplamento para o pseudovetor e o pseudoescalar eram iguais. Um resultado que parece contrariar a existência de uma anomalia quiral. Schwinger justamente introduzia linhas de Wilson para fazer um “point-spliting” da corrente divergente. Vou deixar comentários extras para o final.

Mas outros muitos anos se passaram, e apesar dos problemas, as pessoas continuaram a usar teorias quânticas de campos para descrever a fenomenologia das interações fracas, que era o assunto quente da época. Em 1963, Rosenfeld, estudando a propriedade dos neutrinos na teoria V-A esbarrou no mesmo problema do diagrama triagular e fazendo a conta de forma a manter a invariância de gauge, ele calculou pela primeira vez a expressão da anomalia quiral, mas não deu prosseguimento à análise do resultado. Nessa época, teorias quânticas de campos não estavam muito em alta. Existiam outras teorias com pretensão de substituí-la, como a teoria de Regge e o programa da matriz-S. Existiam também teorias que pretendiam descrever teoria quântica de campos de uma forma não-perturbativa, como a teoria de álgebras de correntes.

Foi meio natural que as pessoas que trabalhavam com álgebras de correntes tentassem verificar seus resultados perturbativamente com TQC, e várias dessas pessoas deram contribuições determinantes para a criação das teorias modernas de gauge. Em particular, Gell-Mann e Levy, na década de 60, escreveram um artigo analisando as “PCAC” (putz… nem interessa! :roll:, na prática quero dizer \partial_{\mu}j_5^{\mu}=f_{\pi}m_{\pi}^2\pi(x) ) num modelo sigma linear. Na teoria quântica de campos que eles montaram, essa relação era realizada classicamente. É modelinho muito interessante com simetria SO(4) e quebrada espontaneamente. Esse trabalho se tornou uma leitura obrigatória em vários dos centros importantes de teoria quântica de campos na época. Em Stony Brook, B. Lee começou a estudar a renormalização dessa teoria e escreveu um pequeno livro influente sobre o assunto. Um aluno de doutorado de Utretch, G. ‘t Hooft, conheceu Lee na escola de verão de Carsège e resolveu aplicar os métodos para teorias de gauge. Deu no que deu. 😈

Depois disso, não demorou muito para Adler e, indendentemente, Bell e Jackiw entenderem a origem das anomalias como simetrias da ação clássica que não existem na ação efetiva quântica e escrevê-la como é conhecida hoje em dia. Vale notar no artigo do Bell e Jackiw, durante a batalha para entender quando a anomalia aparecia ou não nas contas, o seguinte comentário que vai no coração da questão:

Since the integral is linearly divergent a shift of variable picks up a surface term.

🙂 Que seja. Essa história, claro, não termina por aqui e tem muito mais coisa interessante. Mas fica para outro dia.

Antes de terminar, deixa eu só fazer um comentário sobre a conta do Schwinger. Eu acho que quem entendeu o que estava acontecendo foi o Adler. Schwinger, na sua ânsia justificada de preservar a invariância de gauge, considerava apenas derivadas covariantes na equação de conservação da corrente. Isso gera um termo extra igual a menos a anomalia. Ele também regularizava a corrente usando laços de Wilson, o que, naturalmente, preserva a invariância de gauge e introduz um termo igual a mais a anomalia. E assim, ambos se cancelam. Acontece.


Semana passada, o Jim Simons veio aqui na universidade conversar com os alunos durante o colóquio. Claro que colóquio com o Jim Simons não fica limitado aos alunos, mas lota o auditório. Foi razoavelmente interessante, ele contou sobre sua trajetória. Posso reproduzir um pouco do que ouvi e do que minha memória não fez questão de perder. Eu sei que tem leitores e editores aqui diretamente interessados em análise do mercado financeiro e, se infelizmente não posso dar muitos dados técnicos, pelo menos poderei contar uma história de sucesso.

O colóquio, que foi atípico, teve o título oficial de “Matemática, Bom Senso e Boa Sorte”. Para quem não sabe, O Jim Simons foi diretor do Instituto de Matemática de Stony Brook na década de 60, quando ele ainda não era o 178-ésimo homem mais rico do mundo. Ele hoje é dono da Renaissence Technologies, um fundo de investimento muito bem sucedido. Simons, que é o mesmo das “formas (teoria) de Chern-Simons”, nunca se afastou da universidade e investe muito dinheiro aqui. Ele, há alguns anos, quando o DOE resolveu cortar fundos dos laboratórios nacionais, manteve o BNL funcionando com dinheiro do seu bolso. Recentemente, ele doou quase 100 milhões para a construção do Simons Center for Geometry and Physics:

Simons Center for Geometry and Physics

Durante o colóquio ele anunciou mais uma doação de 20 milhões para o departamento de física. Isso só para citar as grandes doações. O Simons também mantém diversos programas aqui dentro, como um centro de formação em física de aceleradores, um programa para jovens do ensino médio em física de laser, entre outras coisas. O Brasil tem várias pessoas acima dele na lista da Forbes: o Antônio Ermírio de Moraes, Joseph Safra, o Eike Batista e o Jorge Paulo Lemann. O Safra recentemente fez algo semelhante com o IINN que já foi citado várias vezes aqui no blog. O Lemann também mantém programas de colaboração entre o Brasil e a universidade de Harvard, que se não é ideal, pelo menos é bom (ele doou um dinheiro para construção, em SP, de um escritório para organizar essas colaborações). Os demais, eu não sei estão associados à algum projeto desse porte. Mas se não estão, deveriam.

A parte matemática do título é então antiga. Naquela época, Simons era um recém doutor em matemática com um emprego em Princeton cuja carga horária deveria ser dividida metade para matemática e a outra metade para decifrar códigos da Guerra Fria. Só que um dia ele resolveu dar uma declaração para um jornalista dizendo que ele estava usando todas as metades da matemática agora e que só depois iria usar a metade para decifração de códigos de guerra. Bem, não é preciso muita imaginação para saber o que aconteceu com ele no mesmo dia. Despedido de Princeton, ele foi contratado para ser diretor (e efetivamente montar) o recém criado Insituto de Matemática de Stony Brook, um emprego que, para ser sincero, ninguém queria. Ele topou e começou um grupo que deu grandes frutos. Hoje, o programa de pós-graduação de Stony Brook normalmente aparece entre os top 5 do país. Durante sua estada aqui como diretor ele também manteve colaboração com o Yang no Instituto de Física. Os dois foram dos principais responsáveis por criar a ponte entre a física e a matemática das teorias de gauge (conexões de fibrados).

Agora vem a parte boa sorte. Naquela época, Simons investiu dinheiro com um amigo que trabalhava com câmbio e, por sorte, ganhou uma bolada de alguns milhões. E milhões de dólares naquela época era muito mais do que hoje. Milionário de uma hora para outra, ele resolveu mudar de direção na vida. Se esse colega dele podia ganhar dinheiro, ele também poderia. Matemático que era, ele e um outro professor daqui de Stony Brook começaram a tentar criar modelos para investir em câmbio. A realidade é que não deu muito certo, mas Simons conta que naquela época era tão fácil ganhar dinheiro, que ele rapidamente multiplicou seu dinheiro por um fator de 10 (e ele conta que isso nem chegou a impressionar muita gente).

Bom senso é a última parte. A década de 80 veio e ganhar dinheiro ficou um pouco mais difícil. Nesse ponto, ele decidiu novamente investir somente na construção de modelos. Com a ajuda de outro matemático (que me esqueci o nome, acho que ele não está mais na Renaissance Tech, parece que ele não conseguia trabalhar muito bem em equipe), ele abandonou completamente o tipo de investimento que fazia antes para só fazer investimentos baseados nos resultados desses modelos de mercado. Dessa vez deu certo. Hoje em dia, a Renaissance Tech conta com uma equipe composta basicamente de Ph.D.s e se orgulha de ter, mantidas as devidas proporções, um ambiente de trabalho acadêmico num fundo de investimento. Nem todos matemáticos, claro. Parece que hoje em dia há muito cientista da computação, já que além de criar modelos eles tem que lidar com a análise de 3 TB de dados por dia e tomar as decisões antes dos concorrentes. Se há alguma diferença do meio acadêmico real é que o resultado das suas idéias está alí, na sua frente, tudo reduzido a quanto dinheiro você ganhou ou perdeu.

No que volta à matemática. Simons recentemente voltou a trabalhar com matemática. Ele certamente é o aluno mais rico do mundo nessa área :P. E está trabalhando ativamente com o Dennis Sullivan, aqui mesmo em Stony Brook. Interessante, não?


Há algum tempo atrás, eu e Leandro escrevemos sobre a mecânica clássica de uma partícula num aro e como se pode aprender bastante sobre física com esse modelo simples. O post teve uma repercussão ótima e me motiva a fazer uma segunda parte. Vamos agora estudar a mecânica quântica de uma partícula no aro e vamos ver que podemos aprender também uma miríade de coisas através de analogias. Esse post vai ser um pouco mais alto nível, mas com certeza tem seu público.

Vou começar com uma lagrangeana bem geral:

L=\frac{M}{2}\dot{\phi}^2+A\dot{\phi}

Note que o segundo termo, sendo uma derivada total não influencia a equação de movimento que é simplesmente M\ddot{\phi}=0, onde M é o momento de inércia e \phi é uma variável angular.

Duas coisas devem ser notadas, para um determinado tempo inicial e final, há infinitas soluções para as equações de movimento, classificadas por um número inteiro (o número de voltas que ela dá no círculo). Isso é uma consequência da topologia não-trivial, ou mais especificamente, do grupo fundamental não-trivial, do círculo. Esse é o tópico que quero falar.

Além disso note que apesar de não mudar as equações de movimento, o momento canônico e a hamiltiana se alteram:

p =m\dot{\phi}+A;\qquad H=\frac{1}{2M}(p-A)^2

e é por isso que a mecânica quântica desse exemplo é tão bacana. Quantizar o sistema corresponde a tornar \phi,p operadores num espaço de Hilbert tal que [\phi, p]=i. O estado da partícula será então descrito por uma função de onda que obedece à equação de Schrödinger H\psi=E\psi. Para p ser uma quantidade mensurável, é necessário que ele seja auto-adjunto. Certamente, se escolhermos uma representação em que p=-i\partial_{\phi} ele será hermitiano. Porém, para ser auto-adjunto ele temos que definir condições de contorno do tipo \psi(\phi+2\pi)=e^{i\xi}\psi(\phi) onde diferentes escolhas de \xi correspondem à situações físicas distintas que pode, em princípio, serem diferenciadas por experiências de espalhamento. Vale a pena fazer a conta da matriz-S para verificar isso por si próprio, é supreendente a importância das condições de contorno.

Vamos começar com o caso \xi=0. A solução do espectro nesse caso é simples:

\psi_m=e^{im\phi};\qquad E_m=\frac{1}{2M}(m-A)^2;\qquad m\in\mathbb{Z}

Se você conhece o efeito Aharanov-Bohm, vai notar que A nada mais é que um fluxo magnético de valor \theta=2\pi A. Inclusive, fazendo conexão como tópico anterior, acho que as primeiras pessoas a notarem a hoje óbvia descrição desse efeito através da holonomias de conexões em fibrados foi justamente Yang e Simons. Mas voltando, note que a ação correspondente a A será:

S_{top}=\int_{t_1}^{t_2}A\dot{\phi}=\theta\frac{\Delta\phi}{2\pi}

que só depende das posições iniciais e finais. Essa ação também conta quantas vezes a partícula deu a volta no círculo. Como é comum escrever \theta para o fluxo magnético, esse tipo de termo ficou conhecido como termo \theta, sobre o qual já falei várias vezes aqui.

Note ainda que \theta múltiplo de 2\pi não afeta o espectro e que para \theta múltiplo ímpar de \pi, o espectro é simétrico por paridade.

Uma pessoa mais ousada arriscaria dizer: “Esse termo A eu tiro com uma transformação de gauge (classicamente: trasnformação canônica) da solução”. Você pode até tentar, só que aí suas condições de contorno vão corresponder a \xi=-\theta que, como eu argumentei, é fisicamente distinta.

Um outro método de quantização é o de integral de trajetórias. Nesse caso, a ação do termo topológico fatora e a função partição euclidiana fica escrita como:

Z=\sum_{Q=-\infty}^{\infty}e^{i\theta Q}\int_{\phi(0)-\phi(T)=2\pi Q}\mathcal{D}\phi\,e^{-\int_0^T d\tau M\dot{\phi}^2/2}

para baixas temperaturas (ie, longos tempos euclidianos), só o estado de menor energia importa. Se considerarmos M\rightarrow 0, o estado de menor energia fica duplamente degenerado e esse estado passa a ser igual a uma partícula de spin 1/2. Não estou dizendo que essa é a origem do spin, não há nenhuma simetria SU(2) nesse problema, mas um modelo parecido com esse pode e é utilizado como uma teoria efetiva para (quasi-)partículas de spin 1/2 e, além disso, partículas de spin 1/2 são fermions e a origem das duas possíveis estatísticas em 3 dimensões – férmions e bósons – tem tudo a ver com esse tipo de análise topológica.

Termos \theta se multiplicam na física e eu acho que esse pequeno exemplo deu para ilustrar várias de suas características:

  • Realiza representações irredutíveis unitárias do grupo fundamental do espaço-alvo. Bem, não discuti isso, mas é por isso que o termo se chama topológico;
  • Responsável pela interferência quântica entre setores toplógicos. Note que quando escrevi a função partição após rotação de Wick (supondo que ela seja possível), a única superposição quântica residual é devido ao termo topológico;
  • Não afeta as equações de movimento;
  • Muda as condições de quantização do espectro quântico;
  • É um termo periódico, não quantizado contudo;
  • \theta=0,\pi possuem simetrias adicionais;
  • \theta=\pi implica em degenerescência do espectro;
  • Equivalente a uma mudança nas condições de contorno.

Claro que esse não é o único termo topológico possível. Para fazer conexão agora com o primeiro tópico que eu escrevi, no estudo de anomalias é bem relevante a ação de Wess-Zumino-Witten (é o termo de anomalia integrado), que também é um termo topológico. Há muitos outros, mas eles ficam para outra chance. (Se eu for cumprir todas essas continuações, não trabalho mais :P)


Ping-pong rápido:

  1. Eu, quando estava aplicando para os EUA, juntei nessa comunidade do orkut:

    GRE – Física (orkut)

    muita informação sobre o processo de vir estudar aqui com o intuito de ajudar as pessoas que querem mas não encontram ajuda, como foi meu caso. A realidade é que poucos alunos de física no Brasil tentam vir para os EUA. Acho que muitos não tentam não é porque não querem, mas porque não tem informações suficientes. Infelizmente, muita informação que estava na comunidade foi perdida ou está desatualizada. Mais do que isso, os mesmos motivos que estão fazendo a gente se mudar do orkut para o BC e para o AP, estão me motivando, junto com um colega brasileiro que também é doutorando aqui em Stony Brook, a criar um fonte mais acessível para essas informações. Manterei vocês atualizados. No entanto, eu sei que alguns colegas e leitores daqui estudam no exterior e, então, eu “convoco” vocês a divulgar mais as informações, de forma organizada, como é o processo de aplicação para ajudar as pessoas mais novas e incentivá-las a ir atrás de uma boa formação profissional.

  2. Está acontecendo no KITP/UCSB uma conferência sobre supercordas com vários cursos bacanas de coisas realmente modernas e atualizadas nessa área.

    Para quem quiser ver as palestras: Fundamental Aspects of Superstring Theory

    É uma conferência longa com várias palestras didáticas. Além disso, ela está comemorando o octagésimo aniversário do Stanley Mandelstam que teve um papel proeminente para o desenvolvimento dos primórdios dessa teoria.

Até a próxima.

A semana nos arXivs…

domingo, 15 fev 2009; \07\America/New_York\America/New_York\k 07 Deixe um comentário

Surpresas

quinta-feira, 12 fev 2009; \07\America/New_York\America/New_York\k 07 10 comentários

Uns dias atrás em um post do blog Cosmic Variance o Sean Carroll estava se perguntando sobre  grandes surpresa na ciência.  Entre perguntas sobre qual foi a coisa mais surpreendente que já descobrimos e qual seria a próxima coisa mais surpreendente que poderíamos descobrir no futuro, diversas grandes surpresas foram levantadas pelos comentadores.

Quando falamos sobre coisas chocantes a respeito do universo tendemos a falar de micro-coisas e de mecânica quântica. Coisas estranhas acontecem nessa escala de tamanho, fenômenos incompatíveis com nossa experiência cotidiana da natureza e até difíceis de descrever para pessoas não-iniciadas em física moderna e contemporânea.

Apenas uma das pessoas qeu comentou se lembrou de uma coisa que foi históricamente muito mais chocante e que levou séculos e séculos de gradual aumento da nossa compreensão das coisas para se conhecer: a ordem de grandeza do tamanho e da idade do nosso universo, a distância até as estrelas próximas, a estrutura heterogênea na escala das galáxias, a estrutura homogênea na escala cosmológica, … tudo isso levou 500 anos ou mais de pesquisa para ser estabelecido. E mais e mais fatos sobre a estrutura de larga escala do universo têm sido descobertos, em intervalos de tempo cada vez mais curtos. Que nós possamos conhecer tanto sobre essa estrutura do universo nas diversas escalas grandes de tamanho (com relação ao nosso tamanho) que compreendem a primeiro a Terra, depois  o sistema solar, as galáxias,  as estruturas cosmológicas,  …  acho que essa é a maior supresa que a ciência já revelou. Maior que a estranheza do mundo microscópico.

Não que eu esteja diminuindo a surpresa que o mundo microscópico revelou. Mas eu acho que essas descobertas sobre o nosso macrocosmo são as que mais chocariam as pessoas mais brilhantes dos séculos passados se fossem reveladas prematuramente. Dizer para Galileu que as estrelas mais próximas estão a 10^{14} quilômetros de distância e que conseguimos saber detalhes da estrutura de objetos que estão a 10^{20} ou 10^{21} quilômetros de distância e que temos evidências confiáveis de que o universo tem algo em torno de 10^{10}  anos de idade seria muito mais chocante do que tentar falar da estrutura atômica da matéria ou da inexistencia de trajetórias definidas para partículas microscópicas. E acho que o principal motivo para isso é que ele poderia entender isso. Talvez eu esteja errado e essas duas coisas, conhecimento das escalas do universo e a natureza microscópica da matéria sejam uma tão surpreendente quanto a outra. Certamente a segunda causou muito mais impacto de curto prazo na história do mundo, se isso é sinônimo de surpresa.

E as surpresas futuras? Algumas coisas foram sugeridas nos comentários, a maioria delas relacionadas à física de altas energias, algumas brincadeiras, poucas coisas que de fato me supreenderiam. Com o perdão da grande parte dos meus colegas arsphysicistas que trabalham nessa área, eu acho que  a física de altas energias e o mundo microscópio já são coisas tão estranhas  que a existência de alguma coisa ainda mais estranha ainda em escalas maiores de energia não me surpreenderia tanto.

O que realmente me surpreende? O quão rápido está evoluindo a neurosciência.

Um livro que 20 anos atrás dissesse que em 100 anos dominariamos a interface do cérebro com máquinas artificiais e que seriamos capazes de controlar, apenas com o pensamento, máquinas e computadores e até nos comunicarmos à distância usando redes sem fio ligadas aos nossos cérebros seria um livro de ficção científica. E seria daquelas ficções de mais remota realização. Hoje seria um livro de futurologia, daqueles até que bastante plausíveis.

Toda semana a Nature publica um ou dois artigos com feitos experimentais que seriam quase inacreditáveis alguns anos atrás. Pequenos circuitos neurais controlando pequenos robôs, neuronios crescendo estruturas em volta de eletrodos, pequenos sensores capazes de detectar o sinal elétrico emitido por um único neurônio in vivo  no cérebro de um ratinho, um macaco capaz de controlar máquinas complexas com sinais elétricos de seu cérebro a milhares de quilometros de distância através da internet. Daria calafrios nos mais imaginativos escritores de ficção-científica de 20 ou 30 anos atrás saber que essas coisas estavam tão perto de se realizar.

Claro que eu só estou falando de feitos tecnológicos e pouco de neurociência. A questão é que esses feitos vieram com a grande aumento compreensão rápido do funcionamento do cérebro. E ainda estamos nos princípios dessa compreensão. Por isso eu acho que as próximas grandes surpresas estarão associadas ao quanto podemos saber sobre como funcionam nossos próprios cérebros.

Richard Dawkins entrevista Steven Weinberg…

quarta-feira, 11 fev 2009; \07\America/New_York\America/New_York\k 07 1 comentário

Em 8 capítulos, Dawkins entrevista Weinberg… fantástico! 😈

E, como bônus, uma entrevista do Dawkins com o Lawrence Krauss:

Diversão garantidíssima… 🙂

Ars Physica começando a entrar na Wikipédia em português

segunda-feira, 9 fev 2009; \07\America/New_York\America/New_York\k 07 2 comentários

“Imagine um mundo onde qualquer ser humano posssa ter livre acesso a soma de todo conhecimento produzido.”

Será um post curtinho, pois acho que isso deve ser melhor discutido nas próprias páginas da Wikipédia. Primeiramente, gostaria de divulgar a página de um projeto cujo objetivo é organizar a edição de artigos de física da Wikipédia em português. Você pode verificar a lista de outros projetos parecidos aqui, Projetos em curso da Wikipédia, alguns deles relacionados a outras áreas da Ciência.

Recentemente criei um tópico na lista do Brasil Ciência pedindo uma comparação entre algumas outras enciclopédias que surgiram depois da Wikipédia, também de caráter coaborativo, mas com uma filosofia muito diferente, vejam Wikipedia vs. Citizendum vs. Scholarpedia vs. alguma outra. Os comentários do Rafael e Daniel foram interessantes. Há também um tópico nessa lista de discussões que o Daniel criou para organizarmos nossas contribuições na Wikipédia, vejam »» Wikipédia ««.O Rafael disse ter começado com o artigo sobre Supersimetria.

Alguns aqui do Ars Physica já contribuíatam para a Wikipédia em português: o Caio no artigo sobre paradoxo dos gêmeos, o Rafael Calsaverini falando sobre cópula – não se espantem, é outra cópula! -, o Rafael Lopes em mais de um artigo, o Adriano melhorou um artigo sobre consevação de energia que editei – alguém mais? Mas o que eu gostaria é de sistematizarmos melhor nossa contribuição e estabelecermos prioridades sobre quais artigos vamos ajudar a melhor primeiro. Na página do projeto, há uma interessante tabela que acho que podemos começar a editar, vejam Matriz qualidade/importância.

Podemos ir discutindo na página de discussão do projeto ou, quem não está tão familiarizado com o esse formato wiki (sugiro familiarizar-se), no campo de comentários aqui desse post de blog ou no tópico da lista de emails sobre a Wikipédia.

Por fim, gostaria de destacar que um capítulo da Fundação Wikimedia está chegando no Brasil, vejam Wikimedia Brasil. Tentando me envolver e ajudar com o projeto, estou começando a entender um pouco mais a organização da Wikipédia e seus projeto (mesmo assim, ainda sou um bebê!). Por isso acabei descobrindo esse projeto de física, por ter ajudado com uma lista de artigos relacionados a Cultura Livre (que quero ajudar a melhorar!). Também vale a pena ler a carta de princípios que está sendo elaborada pelo pessoal ativo para criar um capítulo da Wikimedia no Brasil, vejam Carta de Princípios.

Sugiro aos meus amigos do Ars Physica, que toparem ajudar, a colocar seus logins da Wikipédia em português na lista de participantes da página do projeto. Agora é colocar as mãos na massa!

Manifesto da Sociedade Brasileira Física

quinta-feira, 5 fev 2009; \06\America/New_York\America/New_York\k 06 3 comentários

Hoje de tarde a Sociedade Brasileira de Física (SBF) enviou para os seus sócios o seguinte manifesto.

“Prezado Sócio

Como é sabido, o Congresso propôs um corte de 52% no orçamento de 2009 que o Executivo formulou para a área de C&T. Propôs também um corte de quase R$1 bilhão no orçamento da apes. Juntamente com a SBPC, a SBF tem manifestado apoio ao Executivo em seu esforço de recompor o orçamento para eliminar ou minimizar os cortes em C&T e Educação. Um artigo sobre o assunto, assinado pelos presidentes da SBPC e da SBF, foi publicado na Folha de SP em 25/01/2009 e seu impacto foi bastante para que um editorial da Folha fosse publicado dois dias depois.
Temos notícia de que o Executivo tem tido sucesso nas negociações com o Congresso, mas é necessário que nos movimentemos em concerto até que o orçamemnto final seja aprovado em março vindouro.
Convocamos todos os sócios a se pronunciarem por todos os meios que lhe forem disponíveis: artigos em jornais, contatos com congressistas e com formadores de opinião. Mensagens por email a congressistas podem ser muito efetivas, especialmente a:

José Sarney <sarney@senado.gov.br>, Presidente do Senado
Delcídio Amaral <delcidio.amaral@senado.gov.br>, Relator da Comissão Mista de Orçamento

Michel Temer <dep.micheltemer@camara.gov.br> Presidente da Câmara dos Deputados
Mendes Ribeiro Filho <dep.mendesribeirofilho@camara.gov.br> Presidente da Comissão Mista de Orçamento

Um texto sugerido para tal mensagem, caso lhe falte tempo para fazer o seu, é:

Senhor Senador(Deputado)

Como membro da comunidade científica e tecnológica do país, venho manifestar minha preocupação com cortes que o Orçamento da União para 2009 possa sofrer nos campos da Educação, Ciência e Tencologia. Para enfrentar a crise econômica internacional, muitos países líderes decidiram investir solidamente nesses campos, e ao Brasil não resta outra opção. Solicitamos ainda atenção do Exmo Senador(Deputado) para o fato de que interrupções, mesmo breves, em programas de pós-graduaçao e ciência podem comprometer esforços que vêm sendo realizado há longo tempo, o que torna o dano muito desproporcional à poupança.

Agradecemos a coloboração de todos.

Alaor Chaves – Presidente da SBF”

Eu já fiz a minha parte, acabei de mandar um email para estes senadores e deputados, um email não vai mudar nada, mas muitos podem fazer muita coisa.

Manifesto contra corte de recursos para Ciência e Tecnologia

segunda-feira, 2 fev 2009; \06\America/New_York\America/New_York\k 06 7 comentários

Acabo de ler num post do Antônio Guimarães, pós-doc do IAG USP, que criaram um manifesto contra o corte de verbas para a Ciência no brasil, divulgado recentemente aqui no Ars Physica.

Reproduzo aqui o texto do manifesto. Para assiná-lo, acesse http://www.edm.org.br/edm/manifesto.aspx

A possibilidade de corte de recursos do Ministério de Ciência e Tecnologia, se consumado,
irá interromper o ciclo virtuoso de progresso científico, iniciado há mais de duas décadas.

Um sólido desenvolvimento científico e tecnológico é, nos dias de hoje, o caminho mais consistente para a riqueza e a soberania das nações. Os países que apresentaram maior desenvolvimento social e econômico no período que se seguiu à Segunda Grande Guerra foram aqueles que, independentemente do seu modelo político, implementaram uma política consistente e de longo prazo para o aprimoramento de suas pesquisas. O Brasil nas últimas três décadas vem exercendo uma política consistente na área de Ciência, cujo resultado é hoje medido pelos índices expressivos de sua produtividade científica. Mais importante, o aumento da qualificação do parque brasileiro de pesquisa e a inovação tecnológica dela decorrente vêm gerando riquezas ao país. Temas estratégicos para o desenvolvimento nacional, tais como o aumento da produtividade agrícola, a descoberta de novos campos de petróleo e gás, o desenvolvimento de fontes alternativas de energia, o aprimoramento da tecnologia aeronáutica, as estratégias inteligentes de conservação ambiental, as pesquisas em genética e os novos procedimentos de tratamento de moléstias de nosso povo (incluindo a utilização de células-tronco, a produção de novos medicamentos e a instrumentação médica) possuem, todos eles, a “impressão digital” dos pesquisadores brasileiros.

Nesse cenário, vemos com grande preocupação a possibilidade de corte de recursos do Ministério de Ciência e Tecnologia, que, se consumado, irá interromper o ciclo virtuoso de progresso científico, iniciado há mais de duas décadas. Um retrocesso nesse momento resultará em conseqüências negativas em médio e longo prazo. Oportunidades de pesquisa serão perdidas, pesquisadores jovens e experientes migrarão para países que lhes ofereçam melhores oportunidades, e um grande número de estudantes perderá a oportunidade de ingressar em atividades de pesquisa. O atual governo dos Estados Unidos da América do Norte isentou de cortes a área de Ciência e Tecnologia, mesmo estando no centro da grave crise econômica. Com isso, os EUA elegem o desenvolvimento da Ciência e da Tecnologia como um instrumento poderoso para vencer as vicissitudes da atual conjuntura e promover o bem estar social.

Temos convicção de que o Congresso Nacional, fórum maior das decisões dos destinos da Nação, será sensível a esta questão e assegurará as condições para o contínuo progresso científico e tecnológico de nosso País, recompondo as previsões orçamentárias para o ano de 2009, que foram elaboradas com sobriedade e alinhadas com as metas do Plano de Ação de Ciência, Tecnologia e Inovação para o Desenvolvimento Nacional. Somente com investimentos em ciência e tecnologia sairemos fortalecidos dessa crise.

Prof. Dr. Colombo Celso Gaeta Tassinari
Coordenador do Instituto Nacional de Ciência e Tecnologia de Técnicas Analíticas para Exploração de Petróleo e Gás

Prof. Dr. Euripedes Constantino Miguel
Coordenador do Instituto Nacional de Ciência e Tecnologia de Psiquiatria do Desenvolvimento para crianças e adolescentes

Prof. Dr. Glaucius Oliva
Coordenador do Instituto Nacional de Ciência e Tecnologia de Biotecnologia Estrutural e Química Medicinal em Doenças Infecciosas

Prof. Dr. João Evangelista Steiner
Coordenador do Instituto Nacional de Ciência e Tecnologia de Astrofísica

Prof. Dr. Jorge Elias Kalil Filho
Coordenador do Instituto Nacional de Ciência e Tecnologia de Investigação em Imunologia

Prof. Dr. José Antonio Frizzone
Coordenador do Instituto Nacional de Ciência e Tecnologia de Pesquisa e Inovação em Engenharia da Irrigação

Prof. Dr. José Carlos Maldonado
Coordenador do Instituto Nacional de Ciência e Tecnologia em Sistemas Embarcados Críticos

Prof. Dr. José Roberto Postali Parra
Coordenador do Instituto Nacional de Ciência e Tecnologia em Semioquímicos na Agricultura

Prof. Dr. Marcos Silveira Buckeridge
Coordenador do Instituto Nacional de Ciência e Tecnologia do Bioetanol

Profa. Dra. Mayana Zatz
Coordenadora do Instituto Nacional de Ciência e Tecnologia de Células-Tronco em Doenças Genéticas Humanas

Profa. Dra. Nadya Araújo Guimarães
Coordenadora do Instituto Nacional de Ciência e Tecnologia para Estudos da Metrópole

Profa. Dra. Ohara Augusto
Coordenadora do Instituto Nacional de Ciência Tecnologia de Processos Redox em Biomedicina-Redoxoma

Prof. Dr. Paulo Hilário Nascimento Saldiva
Coordenador do Instituto Nacional de Ciência e Tecnologia de Análise Integrada do Risco Ambiental

Prof. Dr. Roberto Mendonça Faria
Coordenador do Instituto Nacional de Ciência e Tecnologia de Eletrônica Orgânica

Prof. Dr. Roberto Passetto Falcão
Coordenador do Instituto Nacional de Ciência e Tecnologia em Células-Tronco e Terapia Celular

Prof. Dr. Sérgio França Adorno de Abreu
Coordenador do Instituto Nacional de Ciência e Tecnologia Violência, Democracia e Segurança Cidadã

Prof. Dr. Vanderlei Salvador Bagnato
Coordenador do Instituto Nacional de Ciência e Tecnologia em Óptica e Fotônica

%d blogueiros gostam disto: