Archive

Archive for novembro \30\UTC 2008

Os princípios de Fermat, de Hamilton e de Feynman

domingo, 30 nov 2008; \48\UTC\UTC\k 48 21 comentários

Quando dizem que o lema dos físicos da interpretação de Copenhague da mecânica quântica é “cale a boca e calcule” eu fico ofendido 😦 Para mim, o propósito da física teórica é encontrar um conjunto mínimo de princípios fundamentais a partir dos quais os resultados dos experimentos se tornem evidentes. A física teórica é uma busca por uma explicação dos fenômenos naturais, e não um simples ajuste de equações com parâmetros aos dados.

Veja por exemplo o princípio de Fermat: a luz se propaga pela trajetória de menor tempo possível. Esta simples hipótese unificou todas as leis da óptica geométrica: com ela, e apenas com ela, é possível demonstrar que a luz se propaga em linha reta em meios homogêneos, que o ângulo de reflexão é igual ao de incidência e que vale a fórmula de Snell-Descartes1.

Minimização da ação

Vista como uma função3 S de uma curva x, a trajetória que respeita as leis de Newton é aquela na qual S é o menor valor possível. Na figura, a trajetória da partícula seria aquela no fundo da parábola.

O princípio de Fermat acabou por ser muito poderoso na Física. Na mecânica clássica, por exemplo, suponha que nos perguntamos qual a trajetória que uma partícula descreve no mundo real para ir de um ponto a até um ponto b. William Rowan Hamilton descobriu no século 19 que, sobre todas as possíveis trajetórias que ligam dois pontos, o movimento que se realiza na Natureza é aquele que faz a soma das diferenças entre a energia cinética e a energia potencial ser a menor possível ao longo da trajetória. Isto é, se p é um ponto de uma curva x(t) que liga os pontos a e b, e V(p) é a energia potencial no ponto p, e definimos a quantidade

S[x(t)] = \displaystyle\sum_p \left(\frac{1}{2}m v^2 - V\right)

onde a soma é sobre todos os pontos da curva x, a trajetória x que a partícula realizará será aquela em que S assume o menor valor possível! As leis de Newton estão encapsuladas no princípio da Natureza manter S sempre em um ponto de mínimo!

A quantidade S é chamada de a ação clássica. A matemática Emmy Nöther descobriu que se podemos realizar uma transformação nas curvas do espaço que leva a curva x(t) na curva x'(t’) de tal forma que S[x] = S[x’] — ou seja, a ação clássica é invariante por essa transformação –, então existirá uma quantidade que se conserva associada a essa transformação. Por exemplo, se x'(t)=x(t)+a, onde a é uma constante qualquer, o que significa que estamos deslocando a origem do sistema de coordenadas, e S[x’]=S[x] então o teorema de Nöether diz que a quantidade p = mv se conserva. Por isso entendemos que a homogeneidade do espaço é a explicação de porque o momento se conserva nas leis de Newton. Uma das mais belas conseqüências do teorema de Nöther é que se deslocamos o tempo t’=t+a e a ação permanece invariante, então a quantidade

E = \frac{1}{2}mv^2 + V (1)

é uma constante do movimento. Vemos então que a invariância das leis da Física — uma linguagem bonita para a idéia de que S[x] é a lei física em questão — no tempo é a razão pela qual existe a quantidade chamada energia (que se conserva)1. O teorema de Nöther fornece uma fórmula fechada para calcular a expressão da quantidade que se conserva dada a transformação de simetria da ação clássica.

Para ir do ponto a ao ponto b, a particula fareja diferentes possibilidades.

Para ir do ponto a ao ponto b, a partícula fareja diferentes possibilidades.

E a física teórica vai avançando a medida que começamos a fazer mais perguntas. A próxima que podemos fazer é: como uma partícula sabe qual a trajetória que minimiza S? Será que não existe um mecanismo físico por trás da minimização da ação clássica, e portanto, da validade das leis de Newton? Seria ótimo se existisse algo assim: ao ir do ponto a ao ponto b, a partícula pode “farejar” diferentes trajetórias, porém os desvios da trajetória que respeitam as leis de Newton interferem entre si destrutivamente, enquanto aqueles trechos de trajetória ao longo da curva que respeita as leis de Newton intereferem construtivamente, igual como acontece quando ondas interagem. O fenômeno de interferência de ondas é convenientemente descrito por números complexos, então vamos associar para cada trajetória uma “onda”,

\phi(x) = \exp(i S[x]/\hbar) (2)

Em física tornou-se convenção chamar \phi(x) da amplitude de probabilidade da trajetória x, e definir que a probabilidade associada é o módulo ao quadrado do número complexo (2), P = \vert\phi\vert^2. A constante \hbar é introduzida para que o argumento da exponencial seja um número sem unidades, portanto essa constante só depende do nosso sistema de unidades, e será ajustada experimentalmente.

Pensando nestes termos, a amplitude de probabilidade de uma partícula sair do ponto a e chegar ao ponto b farejando todas as trajetórias possíveis, será a soma

K(b,a) \sim \displaystyle\sum_{x(t)} \exp(i S[x(t)]/\hbar) (3)

e eu usei o símbolo ~ ao invés da igualdade porque estamos fazendo aqui algo esquemático apenas. Desse modo, poderíamos tentar reformular a mecânica da seguinte forma:

Para se movimentar de um ponto a a um ponto b, as partículas caminham sobre todas as trajetórias possíveis, com cada trajetória associada a uma amplitude de probabilidade dada por (2).

Essa não é a mecânica clássica, mas a mecânica quântica. Ela foi formulada — ou descoberta se preferir — assim por Richard Feynman, e a equação esquemática (3) é o que se chama a soma sobre as histórias da partícula, ou a integral de trajetória. Para dar sentido matemático a (3), é necessário dividi-la por uma constante A que normaliza as probabilidades.

É então possível demonstrar, utilizando uma técnica matemática conhecida como aproximação do ponto de sela, que se S/\hbar for um número muito maior que o número 1 (digamos, 1011), então a maioria das curvas que estão na soma se cancelam com uma precisão da ordem do número \hbar, e o único termo que contribui é aquela trajetória em que S é um mínimo. E voilà temos a física de Newton! 🙂

Inicialmente, Feynman introduziu a eq.(3) inspirado por esta linha de raciocínio. Na época, a mecânica quântica era formulada inteiramente em termos da função de energia, e Feynman estava curioso para saber como a ação clássica entrava no formalismo da mecânica quântica. Um dos primeiros casos analisados por Feynman utilizando a fórmula (3) foi o notório problema da dupla fenda2.

Hoje sabe-se que a fórmula de Feynman é um caso particular da mecânica quântica, aquele em que a energia depende apenas quadraticamente nos momenta, e sistemas importantes fogem desse caso particular, como os férmions. No caso geral é necessário considerar que o momento é independente da função de trajetória (até então estávamos assumindo que a velocidade no ponto p é tangente a curva naquele ponto) e somar sobre não apenas as curvas x mas também sobre os momenta p, e nesse caso a soma não é, necessariamente, sobre a função da ação clássica.

A integral de trajetória tornou-se uma ferramenta fundamental da física teórica. Várias das descobertas das propriedades das teorias que descrevem as forças fundamentais (o Modelo Padrão) foram cálculos com integrais de trajetória (renormalização por exemplo). Essa vantagem das integrais de trajetórias na teoria quântica de campos ficam evidentes a outro método bastante usado na quantização de campos, a quantização canônica, que estabelece uma condição de quantização em tempos iguais, sendo assim claramente não covariante por transformações de Lorentz. Enquanto que no método de integrais de trajetória, a covariância de Lorentz é manifesta. Por esse e outros motivos, as integrais de trajetórias foram e continuam sendo um dos melhores métodos de quantização, e que ainda deverá ser bastante utilizando ainda nos futuros trabalhos de Física teórica, principalmente em Teoria Quântica de Campos e Física de Partículas.

Post escrito em colaboração com Leandro Seixas.

Notas

  1. Para os detalhes, consulte o R. P. Feynman et al. Lições de Física de Feynman, Vol. 2, Editora Bookman
  2. R. P. Feynman e A. Hibbs, Quantum Mechanics and Path Integrals, McGraw-Hill. Este livro está esgotado faz décadas. Eu tive a sorte tremenda de encontrar, por acaso, uma cópia em estado novinho em folha na Livraria da Física, quando eles receberam uma única cópia do livro que estava perdida no galpão da McGraw-Hill de São Paulo!
  3. Diz-se que S é um tipo especial de função chamado funcional porque o argumento de S não é um número real porém uma função, a curva x(t): x:\mathbb{R}\rightarrow\mathbb{R}^3 e S:\mathcal{F} \rightarrow \mathbb{R}, onde \mathcal{F} é o conjunto de todas as curvas regulares x(t).

A constante de peru assado de Panofsky

quarta-feira, 26 nov 2008; \48\UTC\UTC\k 48 12 comentários

Pensei em compartilhar essa anedota do físico experimental Wolfgang Panofsky (1919-2007), ex-diretor do SLAC, contada por Nicholas Panofsky, seu neto:

Panofsky não estava satisfeito com a instrução para cozimento de perus de 30 minutos por libra (1 libra = 454 g), que não parecia razoável porque o tempo de cozimento não deveria ser linear com a massa. Então Panofsky derivou uma equação baseada na relação entre a área de superfície e massa do peru. Ele determinou que o tempo de cozimento de um peru com recheio em um forno a 163 °C é dado por

t = M^{2/3}/1.5

para massa M em libras do peru com o recheio, e t em horas. O número 1.5 foi determinado experimentalmente. 😛

Feliz Aniversário, Norbert Wiener…

quarta-feira, 26 nov 2008; \48\UTC\UTC\k 48 3 comentários

No dia 26 de novembro de 1894, nascia Norbert Wiener. Ele é uma dessas figuras que não recebe a atenção que merece, tendo feito trabalhos nas áreas de processos estocásticos, processamento de sinais, teoremas tauberianos, teorema de Paley-Wiener, teorema de Wiener-Khinchin, e Espaços de Wiener.

Em particular, esse último resultado é um dos que, pra mim, é dos mais importantes, principalmente quando combinado com os trabalhos dele em processos estocásticos: a aplicabilidade e o espectro de resultados que aparecem em Mecânica Quântica e Teoria Quântica de Campos por causa desses resultados é bastante impressionante — em particular, as formulações matematicamente rigorosas que eu conheço da Equação de Schrödinger são feitas com base nesses trabalhos (compare-a com a equação do calor e pense em termos de continuação analítica); e, no que diz respeito à formulação via Integrais de Trajetória [de Feynman], é possível se utilizar o resultado de que não há medidas de Lebesgue em espaços de dimensão infinita, que implica questões importantíssimas em Teoria Quântica de Campos (isso pra não falar nos teoremas estruturais para medidas de Gauss). Pra entender melhor como amarrar tudo isso, vale a pena dar uma olhada no livro Functional Integration and Partial Differential Equations.

Mas, o campo pelo qual o Wiener é mais conhecido é a cibernética, que ele fundou.

Fecho esse post com alguns artigos interessantes sobre o Wiener:

Diversão garantida! 😈

P.S.: E, pra quem estiver procurando por alguma diversão extra… Google Power Searching Tips for Students and Universities. 😉

Categorias:Mathematics, Physics, Science Tags:

Computação Científica e de Alta Performance…

terça-feira, 25 nov 2008; \48\UTC\UTC\k 48 8 comentários

O termo Computação de Alta Performance (HPC na sigla em Inglês) é usado para designar um determinado tipo particular de hardware, usado para atacar problemas que demandam o máximo da máquina, como “Teorias Quânticas de Campos na Rede“, “Enovelamento de Proteínas“, “Paleoclimatologia“, etc.

Um dos primeiros “galhos” dessa árvore da HPC foi a chamada “computação voluntária“, onde um usuário comum pode doar os ciclos inativos do seu computador para cálculos científicos, e.g.:

Tecnicamente falando, o nome dessa técnica é Computação em Gride — e, atualmente, no melhor espírito da Web2.0, fala-se também em termos de Computação na Nuvem.

O resumão dessa história começa há tempos atrás, enquanto as CPUs ainda eram oficialmente divididas em 2 tipos:

E, dentre esses 2 tipos, há mais algumas subdivisões:

Isso determina, essencialmente, o tipo de CPU que vc tem… aí é hora de falar em paralelização… 😉

Ou seja, a coisa fica bem complicada bem rápido… e, como se pode esperar, navegar nessas águas não é fácil… (Apesar de que o Sam Fulcomer ganhou o prêmio de ‘Ultimate HPC Geek’ desse ano!)

Historicamente falando, os problemas mais complicados sempre eram atacados com hardware que, essencialmente, era construído para o problema em questão (vários dos Cray foram construídos para o cálculo de Campos Quânticos na Rede, ditto para os BlueGene da IBM, etc)… porém, com a descoberta dos Clusters Beowulf, essa arte de se construir “supercomputadores” acabou sendo posta de lado, em favor da massificação desse tipo de clusters — aliás, numa palestra na Brown, ParalleX: A New Execution Model for Sustainable HPC Design, o Thomas Sterling (um dos inventores dos Beowulf) disse claramente que se arrependia de tê-lo feito, uma vez que aquilo que era pra ser apenas uma alternativa barata, passou a virar o foco central e, essencialmente, acabou com o desenvolvimento e pesquisa na área de supercomputação!

Um dos últimos CPUs a serem desnvolvidos ainda nesse aspecto, foi o MULTIFLOW, do qual participaram ativamente Gerry Guralnik e Jim O’Dell — o Jim, aliás, foi um dos primeiros desenvolvedores do Macsyma, no Project MAC do MIT, o precurssor dos CAS modernos.

Por isso, foi muito bom ter visto as notícia abaixo:

O primeiro deles fala do Jaguar, o primeiro computador a quebrar a barreira dos PetaFLOPS! Enquanto que o segundo artigo fala do NVIDIA Tesla, que é um supercomputador pessoal, com até 960 cores!

É inacreditável, mas depois que os clusters tomaram conta do mercado de HPC (como bem disse o Thomas, acima), a única atividade que ainda demandava uma quantidade de processamento tamanha que necessitava de processadores vetoriais era a dos gráficos dos jogos de vídeo-game! E, como era de se esperar, o crescimento e avanço desse setor impulsionou o desenvolvimento de HPC que já estava estagnado em clusters há anos. Então, do mesmo modo que a indústria pornográfica impulsionou a demanda por banda-larga e possibilitou que a Internet chegasse até cada um de nós, em nossas casas; a indústria de vídeo-games propulsionou o desenvolvimento de HPC dum modo completamente inesperado. 🙂

A lição a ser aprendida é que não adianta, alguns problemas só podem ser atacados com investimento em pesquisa básica e fundamental… não dá pra querer baratear tudo, sucateando tecnologia de ponta no processo. 😉

É isso aí: diversão garantida para o feriado! 😈

[]’s.

Sobre ombros de gigantes

segunda-feira, 24 nov 2008; \48\UTC\UTC\k 48 10 comentários

O Osvaldo postou no blog uma tradução das Quatro lições de ouro para cientistas do Steven Weinberg. Como mortal, tenho muito interesse em ouvir as opiniões sobre como proceder em ciência de professores e grandes mestres 🙂 .

Eu já tive o prazer de conversar com vários dos meus heróis, e sempre foi muito inspirador. O primeiro que conheci foi o Marcelo Gleiser, de quem li o primeiro livro de divulgação de ciência na vida e que me levou a decidir por estudar Física. Mais recentemente conheci ano passado Nima Arkani-Hamed, que teve conversas inesquecíveis com os alunos de pós-graduação e pos-docs durante a PiTP 2007 sobre diversos assuntos da física teórica. Naquela época eu nem sabia o que era uma anomalia em teoria quântica de campos, de modo que só aproveitei um pouco mais dos comentários de fenomenologia do LHC, e as dicas do Nima sobre o que era importante estudar para estar preparado para os novos resultados do LHC. Sobre esse último assunto, as duas dicas mais importantes, talvez, tenham sido estas: 1) não se especialize em um modelo específico, mas saiba um pouco sobre as assinaturas experimentais de cada um que está no mercado, 2) saiba ler (e mantenha-se atualizado com) artigos experimentais — quem viu no arxiv a tendência dos artigos sobre o PAMELA e ATIC saberá apreciar a eficácia dessa segunda sugestão.

wilczek

Hoje tive a honra de conhecer Frank Wilczek, físico teórico prêmio Nobel da Física de 2004. Uma pessoa super educada, simpática e entusiasmada. A conversa versou sobre vários assuntos, mas um deles é especial para o Ars Physica. Nós já havíamos debatido no orkut sobre a possibilidade de teorias em que a topologia do espaço-tempo é dinâmica, indo além portanto da Relatividade Geral. A discussão resumiu-se ao Fernando Kokubun comentando que seria interessante se algo existisse nesse sentido (alguém consegue achar esse tópico?). Wilczek comentou que uma das idéias que ele acha interessante é exatamente essa, e ele próprio trabalhou no assunto (não li o paper e não sei se é exatamente o que estávamos pensando…). Ele também mencionou um artigo de MacDowell e Mansouri (citado no artigo dele) indo nessa direção. Wilczek comentou que gosta dessa abordagem em detrimento da termodinâmica do espaço-tempo (eu escrevi sobre essa segunda em três posts: 1,2 e 3) — como você deve imaginar, Wilczek também trabalhou nesse segundo tópico: ele foi o primeiro a demostrar a origem física do efeito Hawking como um efeito de tunelamento quântico.

Edição 25/11 Wilczek também tem um pequeno texto para estudantes, é um capítulo curto do seu livro Fantastic Realities: está como a 5a lição de ouro para cientistas 🙂 (texto em inglês, disponível online através do site da editora).

Categorias:Ars Physica

Miguel Nicolelis participa de simpósio de pós-doutorado, na próxima sexta, 28/11, na USP

segunda-feira, 24 nov 2008; \48\UTC\UTC\k 48 5 comentários

Recentemente, o neurocientista brasileiro Miguel Nicolelis foi entrevistado no Roda Viva, da TV Cultura. Um trechinho do programa explicando um pouco o trabalho dele

Nessa próxima sexta, 28/11, às 14 horas, Miguel Nicolelis fala na FAU – USP, no  1o. Simpósio de Pós-Doutorado da USP – siPDusp. Mais sobre o Simpósio

http://www.prp.usp.br/siPDusp.htm

Observação: o simpósio será transmitido ao vivo pelo site http://iptv.usp.br.

28/11/2008

Local: Auditório Ariosto Mila – FAU – USP – Cidade Universitária

USP – São Paulo

8:30-9:30

Recepção aos Pós-doutorandos – Cadastro

Colocação dos posters

9:30-10:00

Abertura do Simpósio

Magnífica Reitora Profa. Suely Vilela e

Pró-Reitora de Pesquisa Profa. Mayana Zatz

10:00-10:30

Coffee-break

10:30-12:30

Mesa Redonda: O Pós-Doutorado: Formação Acadêmica e Mercado de Trabalho

Participação:

– Prof. Dr. Marco Antonio Zago

Presidente do CNPq

– Prof. Dr. Carlos Henrique de Brito Cruz

Diretor Científico da FAPESP

– Prof. Dr. José Fernando Perez

Diretor Presidente da Recepta Biopharma S.A

12:30-14:00

ALMOÇO / APRESENTAÇÃO DE POSTER

14:00-15:30

Conferencista convidado: Miguel Ângelo Nicolelis

Pesquisador da Duke University (USA); Coordenador do Instituto Internacional de Neurociências de Natal (RN)

15:30-16:00

Coffee-break

16:00-17:30

Conferencista convidado: Carlos Clemente Cerri

Professor do Centro de Energia Nuclear na Agricultura (CENA-USP)

Retirada dos Posters

Atualização: 27/11/2008 às 21h42 – adicionada observação sobre transmissão online.

A semana nos arXivs…

domingo, 23 nov 2008; \47\UTC\UTC\k 47 1 comentário
%d blogueiros gostam disto: