Arquivo

Archive for novembro \30\America/New_York 2008

Os princípios de Fermat, de Hamilton e de Feynman

domingo, 30 nov 2008; \48\America/New_York\America/New_York\k 48 22 comentários

Quando dizem que o lema dos físicos da interpretação de Copenhague da mecânica quântica é “cale a boca e calcule” eu fico ofendido 😦 Para mim, o propósito da física teórica é encontrar um conjunto mínimo de princípios fundamentais a partir dos quais os resultados dos experimentos se tornem evidentes. A física teórica é uma busca por uma explicação dos fenômenos naturais, e não um simples ajuste de equações com parâmetros aos dados.

Veja por exemplo o princípio de Fermat: a luz se propaga pela trajetória de menor tempo possível. Esta simples hipótese unificou todas as leis da óptica geométrica: com ela, e apenas com ela, é possível demonstrar que a luz se propaga em linha reta em meios homogêneos, que o ângulo de reflexão é igual ao de incidência e que vale a fórmula de Snell-Descartes1.

Minimização da ação

Vista como uma função3 S de uma curva x, a trajetória que respeita as leis de Newton é aquela na qual S é o menor valor possível. Na figura, a trajetória da partícula seria aquela no fundo da parábola.

O princípio de Fermat acabou por ser muito poderoso na Física. Na mecânica clássica, por exemplo, suponha que nos perguntamos qual a trajetória que uma partícula descreve no mundo real para ir de um ponto a até um ponto b. William Rowan Hamilton descobriu no século 19 que, sobre todas as possíveis trajetórias que ligam dois pontos, o movimento que se realiza na Natureza é aquele que faz a soma das diferenças entre a energia cinética e a energia potencial ser a menor possível ao longo da trajetória. Isto é, se p é um ponto de uma curva x(t) que liga os pontos a e b, e V(p) é a energia potencial no ponto p, e definimos a quantidade

S[x(t)] = \displaystyle\sum_p \left(\frac{1}{2}m v^2 - V\right)

onde a soma é sobre todos os pontos da curva x, a trajetória x que a partícula realizará será aquela em que S assume o menor valor possível! As leis de Newton estão encapsuladas no princípio da Natureza manter S sempre em um ponto de mínimo!

A quantidade S é chamada de a ação clássica. A matemática Emmy Nöther descobriu que se podemos realizar uma transformação nas curvas do espaço que leva a curva x(t) na curva x'(t’) de tal forma que S[x] = S[x’] — ou seja, a ação clássica é invariante por essa transformação –, então existirá uma quantidade que se conserva associada a essa transformação. Por exemplo, se x'(t)=x(t)+a, onde a é uma constante qualquer, o que significa que estamos deslocando a origem do sistema de coordenadas, e S[x’]=S[x] então o teorema de Nöether diz que a quantidade p = mv se conserva. Por isso entendemos que a homogeneidade do espaço é a explicação de porque o momento se conserva nas leis de Newton. Uma das mais belas conseqüências do teorema de Nöther é que se deslocamos o tempo t’=t+a e a ação permanece invariante, então a quantidade

E = \frac{1}{2}mv^2 + V (1)

é uma constante do movimento. Vemos então que a invariância das leis da Física — uma linguagem bonita para a idéia de que S[x] é a lei física em questão — no tempo é a razão pela qual existe a quantidade chamada energia (que se conserva)1. O teorema de Nöther fornece uma fórmula fechada para calcular a expressão da quantidade que se conserva dada a transformação de simetria da ação clássica.

Para ir do ponto a ao ponto b, a particula fareja diferentes possibilidades.

Para ir do ponto a ao ponto b, a partícula fareja diferentes possibilidades.

E a física teórica vai avançando a medida que começamos a fazer mais perguntas. A próxima que podemos fazer é: como uma partícula sabe qual a trajetória que minimiza S? Será que não existe um mecanismo físico por trás da minimização da ação clássica, e portanto, da validade das leis de Newton? Seria ótimo se existisse algo assim: ao ir do ponto a ao ponto b, a partícula pode “farejar” diferentes trajetórias, porém os desvios da trajetória que respeitam as leis de Newton interferem entre si destrutivamente, enquanto aqueles trechos de trajetória ao longo da curva que respeita as leis de Newton intereferem construtivamente, igual como acontece quando ondas interagem. O fenômeno de interferência de ondas é convenientemente descrito por números complexos, então vamos associar para cada trajetória uma “onda”,

\phi(x) = \exp(i S[x]/\hbar) (2)

Em física tornou-se convenção chamar \phi(x) da amplitude de probabilidade da trajetória x, e definir que a probabilidade associada é o módulo ao quadrado do número complexo (2), P = \vert\phi\vert^2. A constante \hbar é introduzida para que o argumento da exponencial seja um número sem unidades, portanto essa constante só depende do nosso sistema de unidades, e será ajustada experimentalmente.

Pensando nestes termos, a amplitude de probabilidade de uma partícula sair do ponto a e chegar ao ponto b farejando todas as trajetórias possíveis, será a soma

K(b,a) \sim \displaystyle\sum_{x(t)} \exp(i S[x(t)]/\hbar) (3)

e eu usei o símbolo ~ ao invés da igualdade porque estamos fazendo aqui algo esquemático apenas. Desse modo, poderíamos tentar reformular a mecânica da seguinte forma:

Para se movimentar de um ponto a a um ponto b, as partículas caminham sobre todas as trajetórias possíveis, com cada trajetória associada a uma amplitude de probabilidade dada por (2).

Essa não é a mecânica clássica, mas a mecânica quântica. Ela foi formulada — ou descoberta se preferir — assim por Richard Feynman, e a equação esquemática (3) é o que se chama a soma sobre as histórias da partícula, ou a integral de trajetória. Para dar sentido matemático a (3), é necessário dividi-la por uma constante A que normaliza as probabilidades.

É então possível demonstrar, utilizando uma técnica matemática conhecida como aproximação do ponto de sela, que se S/\hbar for um número muito maior que o número 1 (digamos, 1011), então a maioria das curvas que estão na soma se cancelam com uma precisão da ordem do número \hbar, e o único termo que contribui é aquela trajetória em que S é um mínimo. E voilà temos a física de Newton! 🙂

Inicialmente, Feynman introduziu a eq.(3) inspirado por esta linha de raciocínio. Na época, a mecânica quântica era formulada inteiramente em termos da função de energia, e Feynman estava curioso para saber como a ação clássica entrava no formalismo da mecânica quântica. Um dos primeiros casos analisados por Feynman utilizando a fórmula (3) foi o notório problema da dupla fenda2.

Hoje sabe-se que a fórmula de Feynman é um caso particular da mecânica quântica, aquele em que a energia depende apenas quadraticamente nos momenta, e sistemas importantes fogem desse caso particular, como os férmions. No caso geral é necessário considerar que o momento é independente da função de trajetória (até então estávamos assumindo que a velocidade no ponto p é tangente a curva naquele ponto) e somar sobre não apenas as curvas x mas também sobre os momenta p, e nesse caso a soma não é, necessariamente, sobre a função da ação clássica.

A integral de trajetória tornou-se uma ferramenta fundamental da física teórica. Várias das descobertas das propriedades das teorias que descrevem as forças fundamentais (o Modelo Padrão) foram cálculos com integrais de trajetória (renormalização por exemplo). Essa vantagem das integrais de trajetórias na teoria quântica de campos ficam evidentes a outro método bastante usado na quantização de campos, a quantização canônica, que estabelece uma condição de quantização em tempos iguais, sendo assim claramente não covariante por transformações de Lorentz. Enquanto que no método de integrais de trajetória, a covariância de Lorentz é manifesta. Por esse e outros motivos, as integrais de trajetórias foram e continuam sendo um dos melhores métodos de quantização, e que ainda deverá ser bastante utilizando ainda nos futuros trabalhos de Física teórica, principalmente em Teoria Quântica de Campos e Física de Partículas.

Post escrito em colaboração com Leandro Seixas.

Notas

  1. Para os detalhes, consulte o R. P. Feynman et al. Lições de Física de Feynman, Vol. 2, Editora Bookman
  2. R. P. Feynman e A. Hibbs, Quantum Mechanics and Path Integrals, McGraw-Hill. Este livro está esgotado faz décadas. Eu tive a sorte tremenda de encontrar, por acaso, uma cópia em estado novinho em folha na Livraria da Física, quando eles receberam uma única cópia do livro que estava perdida no galpão da McGraw-Hill de São Paulo!
  3. Diz-se que S é um tipo especial de função chamado funcional porque o argumento de S não é um número real porém uma função, a curva x(t): x:\mathbb{R}\rightarrow\mathbb{R}^3 e S:\mathcal{F} \rightarrow \mathbb{R}, onde \mathcal{F} é o conjunto de todas as curvas regulares x(t).

A constante de peru assado de Panofsky

quarta-feira, 26 nov 2008; \48\America/New_York\America/New_York\k 48 12 comentários

Pensei em compartilhar essa anedota do físico experimental Wolfgang Panofsky (1919-2007), ex-diretor do SLAC, contada por Nicholas Panofsky, seu neto:

Panofsky não estava satisfeito com a instrução para cozimento de perus de 30 minutos por libra (1 libra = 454 g), que não parecia razoável porque o tempo de cozimento não deveria ser linear com a massa. Então Panofsky derivou uma equação baseada na relação entre a área de superfície e massa do peru. Ele determinou que o tempo de cozimento de um peru com recheio em um forno a 163 °C é dado por

t = M^{2/3}/1.5

para massa M em libras do peru com o recheio, e t em horas. O número 1.5 foi determinado experimentalmente. 😛

Feliz Aniversário, Norbert Wiener…

quarta-feira, 26 nov 2008; \48\America/New_York\America/New_York\k 48 3 comentários

No dia 26 de novembro de 1894, nascia Norbert Wiener. Ele é uma dessas figuras que não recebe a atenção que merece, tendo feito trabalhos nas áreas de processos estocásticos, processamento de sinais, teoremas tauberianos, teorema de Paley-Wiener, teorema de Wiener-Khinchin, e Espaços de Wiener.

Em particular, esse último resultado é um dos que, pra mim, é dos mais importantes, principalmente quando combinado com os trabalhos dele em processos estocásticos: a aplicabilidade e o espectro de resultados que aparecem em Mecânica Quântica e Teoria Quântica de Campos por causa desses resultados é bastante impressionante — em particular, as formulações matematicamente rigorosas que eu conheço da Equação de Schrödinger são feitas com base nesses trabalhos (compare-a com a equação do calor e pense em termos de continuação analítica); e, no que diz respeito à formulação via Integrais de Trajetória [de Feynman], é possível se utilizar o resultado de que não há medidas de Lebesgue em espaços de dimensão infinita, que implica questões importantíssimas em Teoria Quântica de Campos (isso pra não falar nos teoremas estruturais para medidas de Gauss). Pra entender melhor como amarrar tudo isso, vale a pena dar uma olhada no livro Functional Integration and Partial Differential Equations.

Mas, o campo pelo qual o Wiener é mais conhecido é a cibernética, que ele fundou.

Fecho esse post com alguns artigos interessantes sobre o Wiener:

Diversão garantida! 😈

P.S.: E, pra quem estiver procurando por alguma diversão extra… Google Power Searching Tips for Students and Universities. 😉

Categorias:Mathematics, Physics, Science Tags:

Computação Científica e de Alta Performance…

terça-feira, 25 nov 2008; \48\America/New_York\America/New_York\k 48 8 comentários

O termo Computação de Alta Performance (HPC na sigla em Inglês) é usado para designar um determinado tipo particular de hardware, usado para atacar problemas que demandam o máximo da máquina, como “Teorias Quânticas de Campos na Rede“, “Enovelamento de Proteínas“, “Paleoclimatologia“, etc.

Um dos primeiros “galhos” dessa árvore da HPC foi a chamada “computação voluntária“, onde um usuário comum pode doar os ciclos inativos do seu computador para cálculos científicos, e.g.:

Tecnicamente falando, o nome dessa técnica é Computação em Gride — e, atualmente, no melhor espírito da Web2.0, fala-se também em termos de Computação na Nuvem.

O resumão dessa história começa há tempos atrás, enquanto as CPUs ainda eram oficialmente divididas em 2 tipos:

E, dentre esses 2 tipos, há mais algumas subdivisões:

Isso determina, essencialmente, o tipo de CPU que vc tem… aí é hora de falar em paralelização… 😉

Ou seja, a coisa fica bem complicada bem rápido… e, como se pode esperar, navegar nessas águas não é fácil… (Apesar de que o Sam Fulcomer ganhou o prêmio de ‘Ultimate HPC Geek’ desse ano!)

Historicamente falando, os problemas mais complicados sempre eram atacados com hardware que, essencialmente, era construído para o problema em questão (vários dos Cray foram construídos para o cálculo de Campos Quânticos na Rede, ditto para os BlueGene da IBM, etc)… porém, com a descoberta dos Clusters Beowulf, essa arte de se construir “supercomputadores” acabou sendo posta de lado, em favor da massificação desse tipo de clusters — aliás, numa palestra na Brown, ParalleX: A New Execution Model for Sustainable HPC Design, o Thomas Sterling (um dos inventores dos Beowulf) disse claramente que se arrependia de tê-lo feito, uma vez que aquilo que era pra ser apenas uma alternativa barata, passou a virar o foco central e, essencialmente, acabou com o desenvolvimento e pesquisa na área de supercomputação!

Um dos últimos CPUs a serem desnvolvidos ainda nesse aspecto, foi o MULTIFLOW, do qual participaram ativamente Gerry Guralnik e Jim O’Dell — o Jim, aliás, foi um dos primeiros desenvolvedores do Macsyma, no Project MAC do MIT, o precurssor dos CAS modernos.

Por isso, foi muito bom ter visto as notícia abaixo:

O primeiro deles fala do Jaguar, o primeiro computador a quebrar a barreira dos PetaFLOPS! Enquanto que o segundo artigo fala do NVIDIA Tesla, que é um supercomputador pessoal, com até 960 cores!

É inacreditável, mas depois que os clusters tomaram conta do mercado de HPC (como bem disse o Thomas, acima), a única atividade que ainda demandava uma quantidade de processamento tamanha que necessitava de processadores vetoriais era a dos gráficos dos jogos de vídeo-game! E, como era de se esperar, o crescimento e avanço desse setor impulsionou o desenvolvimento de HPC que já estava estagnado em clusters há anos. Então, do mesmo modo que a indústria pornográfica impulsionou a demanda por banda-larga e possibilitou que a Internet chegasse até cada um de nós, em nossas casas; a indústria de vídeo-games propulsionou o desenvolvimento de HPC dum modo completamente inesperado. 🙂

A lição a ser aprendida é que não adianta, alguns problemas só podem ser atacados com investimento em pesquisa básica e fundamental… não dá pra querer baratear tudo, sucateando tecnologia de ponta no processo. 😉

É isso aí: diversão garantida para o feriado! 😈

[]’s.

Sobre ombros de gigantes

segunda-feira, 24 nov 2008; \48\America/New_York\America/New_York\k 48 10 comentários

O Osvaldo postou no blog uma tradução das Quatro lições de ouro para cientistas do Steven Weinberg. Como mortal, tenho muito interesse em ouvir as opiniões sobre como proceder em ciência de professores e grandes mestres 🙂 .

Eu já tive o prazer de conversar com vários dos meus heróis, e sempre foi muito inspirador. O primeiro que conheci foi o Marcelo Gleiser, de quem li o primeiro livro de divulgação de ciência na vida e que me levou a decidir por estudar Física. Mais recentemente conheci ano passado Nima Arkani-Hamed, que teve conversas inesquecíveis com os alunos de pós-graduação e pos-docs durante a PiTP 2007 sobre diversos assuntos da física teórica. Naquela época eu nem sabia o que era uma anomalia em teoria quântica de campos, de modo que só aproveitei um pouco mais dos comentários de fenomenologia do LHC, e as dicas do Nima sobre o que era importante estudar para estar preparado para os novos resultados do LHC. Sobre esse último assunto, as duas dicas mais importantes, talvez, tenham sido estas: 1) não se especialize em um modelo específico, mas saiba um pouco sobre as assinaturas experimentais de cada um que está no mercado, 2) saiba ler (e mantenha-se atualizado com) artigos experimentais — quem viu no arxiv a tendência dos artigos sobre o PAMELA e ATIC saberá apreciar a eficácia dessa segunda sugestão.

wilczek

Hoje tive a honra de conhecer Frank Wilczek, físico teórico prêmio Nobel da Física de 2004. Uma pessoa super educada, simpática e entusiasmada. A conversa versou sobre vários assuntos, mas um deles é especial para o Ars Physica. Nós já havíamos debatido no orkut sobre a possibilidade de teorias em que a topologia do espaço-tempo é dinâmica, indo além portanto da Relatividade Geral. A discussão resumiu-se ao Fernando Kokubun comentando que seria interessante se algo existisse nesse sentido (alguém consegue achar esse tópico?). Wilczek comentou que uma das idéias que ele acha interessante é exatamente essa, e ele próprio trabalhou no assunto (não li o paper e não sei se é exatamente o que estávamos pensando…). Ele também mencionou um artigo de MacDowell e Mansouri (citado no artigo dele) indo nessa direção. Wilczek comentou que gosta dessa abordagem em detrimento da termodinâmica do espaço-tempo (eu escrevi sobre essa segunda em três posts: 1,2 e 3) — como você deve imaginar, Wilczek também trabalhou nesse segundo tópico: ele foi o primeiro a demostrar a origem física do efeito Hawking como um efeito de tunelamento quântico.

Edição 25/11 Wilczek também tem um pequeno texto para estudantes, é um capítulo curto do seu livro Fantastic Realities: está como a 5a lição de ouro para cientistas 🙂 (texto em inglês, disponível online através do site da editora).

Categorias:Ars Physica

Miguel Nicolelis participa de simpósio de pós-doutorado, na próxima sexta, 28/11, na USP

segunda-feira, 24 nov 2008; \48\America/New_York\America/New_York\k 48 5 comentários

Recentemente, o neurocientista brasileiro Miguel Nicolelis foi entrevistado no Roda Viva, da TV Cultura. Um trechinho do programa explicando um pouco o trabalho dele

Nessa próxima sexta, 28/11, às 14 horas, Miguel Nicolelis fala na FAU – USP, no  1o. Simpósio de Pós-Doutorado da USP – siPDusp. Mais sobre o Simpósio

http://www.prp.usp.br/siPDusp.htm

Observação: o simpósio será transmitido ao vivo pelo site http://iptv.usp.br.

28/11/2008

Local: Auditório Ariosto Mila – FAU – USP – Cidade Universitária

USP – São Paulo

8:30-9:30

Recepção aos Pós-doutorandos – Cadastro

Colocação dos posters

9:30-10:00

Abertura do Simpósio

Magnífica Reitora Profa. Suely Vilela e

Pró-Reitora de Pesquisa Profa. Mayana Zatz

10:00-10:30

Coffee-break

10:30-12:30

Mesa Redonda: O Pós-Doutorado: Formação Acadêmica e Mercado de Trabalho

Participação:

– Prof. Dr. Marco Antonio Zago

Presidente do CNPq

– Prof. Dr. Carlos Henrique de Brito Cruz

Diretor Científico da FAPESP

– Prof. Dr. José Fernando Perez

Diretor Presidente da Recepta Biopharma S.A

12:30-14:00

ALMOÇO / APRESENTAÇÃO DE POSTER

14:00-15:30

Conferencista convidado: Miguel Ângelo Nicolelis

Pesquisador da Duke University (USA); Coordenador do Instituto Internacional de Neurociências de Natal (RN)

15:30-16:00

Coffee-break

16:00-17:30

Conferencista convidado: Carlos Clemente Cerri

Professor do Centro de Energia Nuclear na Agricultura (CENA-USP)

Retirada dos Posters

Atualização: 27/11/2008 às 21h42 – adicionada observação sobre transmissão online.

A semana nos arXivs…

domingo, 23 nov 2008; \47\America/New_York\America/New_York\k 47 1 comentário

Imagens da Física

quarta-feira, 19 nov 2008; \47\America/New_York\America/New_York\k 47 12 comentários

Victor Weisskopf em 1956. Fisico teórico do MIT, pioneiro da descoberta da renormalização. Do acervo digital do Google da revista LIFE

Victor Weisskopf em 1956. Físico teórico do MIT, pioneiro da descoberta da renormalização. Do acervo digital do Google da revista LIFE

Na pesquisa de imagem do Google agora há um repositório digital do acervo de fotos da revista LIFE. Há belas imagens relacionadas a física. Fica ai a dica para a pesquisa 🙂 Para ver as imagens, basta ir na busca de imagens do Google e digitar

source:life

no final da pesquisa (exemplo).

Outro acervo de imagens de grande valor é o CDS do CERN. Para aqueles que ainda não o conhecem:

http://cds.cern.ch/

São quase 13 mil fotos relacionadas ao laboratório e a física de altas energias. Inclusive aquela notória imagem de câmara de bolhas que virou arte 🙂 Há também vídeos e áudio.

Alguém conhece ai outros acervos similares?

Imagem de trajetórias na BEBC, do acervo digital do CERN.

Imagem de trajetórias na BEBC, do acervo digital do CERN.

A física das não-partículas

quarta-feira, 19 nov 2008; \47\America/New_York\America/New_York\k 47 1 comentário

Post de divulgação científica! 🙂 (com leves incursões técnicas). Qualquer dúvida é bem vinda, deixem como comentário.

É uma antiga idéia na física de partículas que a energias suficientemente altas, todas as partículas podem ser tratadas com massa zero, porque a energia E está associada ao momento p (velocidade) da seguinte forma:

E^2 = p^2 + m^2 (em unidades com a velocidade da luz c = 1)

onde m é a massa da partícula. Se E for muito maior que m, dado que m é uma constante que não depende da velocidade, podemos tomar E \approx p.

Teorias de partículas sem massa possuem uma simetria conhecida como simetria de escala. Uma transformação de escala faz todas as coordenadas de espaço e do tempo x serem multiplicadas por um fator \lambda (número real arbitrário),

x \rightarrow \lambda x (1)

Essas teorias automaticamente fornecem uma realização de uma simetria ainda maior, chamada a simetria conforme, que contém a Relatividade Especial como um “pedaço” — as transformações de Lorentz são um subconjunto, no sentido matemático do termo, das transformações conformes que estou falando aqui.

A simetria de escala começou a ganhar importância na física de partículas com o trabalho sobre renormalização nos anos 70. Uma das descobertas mais importantes foi que a forma da simetria válida para teorias clássicas é inválida na mecânica quântica, porém pode ser “recuperada”.

A história é assim: suponha que se escreve uma teoria mais geral que a Relatividade Especial na qual a transformação (1) é uma simetria do espaço-tempo. Então, os campos físicos — para um caso concreto, pense no campo elétrico e magnético — devem ter uma transformação como (1):

\phi(x) \rightarrow \lambda^d \phi(\lambda x) (2)

que mantém as equações da teoria invariante para um certo valor de d. Ao fazer a substituição da Eq. (2), as equações dos campos (p.ex. as eq. de Maxwell) tomam a mesma forma. Pois bem, o valor de d na Eq. (2) que mantém a teoria clássica invariante não mantém a teoria quântica invariante! A simetria é recuperada no sentido de que se deve substituir d por \gamma dado por

\gamma \approx d + \frac{g^2}{16 \pi} (3)

onde g é a carga elétrica (o análogo disso nessa teoria conforme), para que a teoria quântica permaneça invariante. É interessante  que a quantidade d na teoria clássica corresponde a potência de unidades de (energia/\hbar c) de \phi: se a unidade de \phi for (\text{GeV}/\hbar c)^2, então d = 2 (a carga elétrica tem dimensão zero em unidades de \hbar c). O fenômeno descrito pela Eq. (3), que é puramente quântico, é uma espécie de “transmutação” da dimensão física, chamada de dimensão anômala.

O meu objetivo nesse post é falar sobre uma idéia que surgiu no ano passado de explorar a possibilidade do universo ter uma simetria conforme escondida. A idéia é do Howard Georgi, que cunhou o termo “unparticle” (não-partícula) para as interações invariantes de escala.

Se a teoria quântica é invariante pela transformação da Eq. (1), então a simetria correspondente para a energia é

E \rightarrow E/\lambda

logo, se há uma partícula de massa m na teoria, visto que E = mc^2 no referencial de repouso dessa partícula, também tem que existir a partícula de massa m/\lambda. Porém, como \lambda é qualquer número real que se queira, isso significa que há qualquer massa na teoria, ou todos os valores possíveis de massa, ou se preferir: não há partículas, e sim um espectro contínuo de todas as possíveis energias, mesmo no referencial de repouso, agora não mais limitadas pela igualdade E = mc2. Por causa disso, ano passado Georgi cunhou o termo “unparticle” (não-partícula) para descrever a física dessas teorias. Ele propôs estudar a possibildade do universo ter um setor de não-partícula escondido: os campos conformes não foram vistos experimentalmente porque sua interação com as partículas ordinárias é muito fraca. A primeira conseqüência chocante dessa idéia foi uma observação de Georgi sobre o espectro de energia que pode ser visto em laboratório dessas teorias: enquanto para teoria de partículas esse espectro dependerá de 1/E^n onde n é o número de partículas em uma certa reação, para não-partícula o espectro é 1/E^\gamma onde \gamma é a dimensão anômala. Como a dimensão anômala não é um número inteiro, a física de não-partícula é parecida com a de partículas com um número fracionário de partículas! Ao contrário do que se pensaria ingenuamente, os cálculos de teorias conformes não são simplesmente o cálculo das teorias com partículas de massa m fazendo m = 0 no final da conta!

Mais precisamente, o espaço de fase 1/ (2 \pi )^{3} \sqrt{2 E} do momento de uma partícula no estado final de uma reação \alpha \rightarrow \beta que entra na seção de choque ou tempo de vida, é substituído por uma potência arbitrária \biggl( 1/ (2\pi )^{3} \sqrt{2 E}\biggr)^a . O valor de a depende da dimensão anômala do campo conforme.

A física da não-partícula também possui interferências (no sentido da mecânica quântica) com partículas elementares de forma distinta daquela entre partículas. Isso pode ser usado como uma assinatura característica da existência da simetria conforme.

Na reação e^+ e^- \rightarrow \mu^+ \mu^- no Modelo Padrão, a amplitude de espalhamento é predominantemente complexa quando o momento externo q^2 = M^2_Z (no pólo do Z), mas partículas estáveis interferem com aplitudes reais 1/(q^2 - m^2). No entanto, unparticles, mesmo altamente estáveis, tem um propagador com valor imaginário sempre não-nulo e logo interferem com processos eletrofracos mesmo no pólo do Z.

Essa idéia teve diversos desdobramentos. Um dos mais interessantes foi o de que um campo de não-partícula é equivalente a uma teoria com N partículas cada uma de massa m_n = n \Delta (\Delta é alguma escala de massa), no limite em que o número de partículas vai a infinito e \Delta vai a zero. Desse modo foi possível construir esse ano uma teoria de não-partícula começando com uma teoria com gravitação em 5 dimensões usando a correspondência AdS/CFT. Mas esse assunto de AdS/CFT é um post por si só, que eu deixo para algum dos outros blogueiros. 🙂

Até o momento a física de não-partículas não se propõe a resolver nenhum dos problemas teóricos da atualidade, como a natureza da matéria escura ou o problema da hierarquia, servindo apenas de “curiosidade teórica” nas palavras do próprio Georgi 🙂 Todavia, é uma pesquisa interessante por suas características exóticas.

Pensando o quê…?!

terça-feira, 18 nov 2008; \47\America/New_York\America/New_York\k 47 3 comentários

A edição de novembro/dezembro (2008) da Seed Magazine está fantástica! :mrgreen: Eu sei que alguns acham que meu estilo de fala ou de escrita é meio hiperbólico, talvez uma herança italiana, de falar com as mãos, alto, festivamente (deixando tudo isso bem claro através do uso de diversos pontos-de-exclamação, “!”)… mas, no caso em questão, essa é realmente uma observação concreta de fato: A Seed está completando seu primeiro ano de existência com o moto Ciência é Cultura, ❗ , e não poderia ter escolhido fazê-lo de modo melhor:

Eu recomendo a todos que quiserem e puderem, que comprem a revista: vale a pena (até o papel em que a revista foi impressa é especial — realmente, está uma edição excelente)! E, quem não puder, espere um pouco, porque o conteúdo da revista deve ficar disponível na rede em breve. 😉

Em particular, na seção Emergent Science City 2008, apareceu o IINN. A reportagem é de Maywa Montenegro e traduzo-a abaixo.

Natal, Brasil

Natal é a capital do estado nordestino do Rio Grande do Norte, um dos mais pobres do Brasil. O estado contribui com menos de 1% para o PIB do país, e a taxa de analfabetismo é quase o dobro do resto da média nacional.

Mas essa cidade acabou de se tornar o local dum novo e robusto experimento que vai testar a possibilidade de se usar a Ciência para alavancar transformações econômicas e sociais para a região. O Instituto Internacional de Neurociência de Natal (IINN), construído numa fazenda montanhosa a 20 quilômetros da cidade, incorpora um prédio de pesquisa com 25 laboratórios, uma clínica de saúde gratuita e uma escola para crianças entre 11 e 15 anos. O chamado “campus do cérebro” é visto como o primeiro duma série de institutos (análogo aos Max Planck) espalhados pelo Brasil, o começo duma Renascença para a pesquisa científica do país.

O neurocientista brasileiro Miguel Nicolelis, da Duke University, concebeu os primeiros planos do IINN em 2003 como uma forma de reverter o vazamento de cérebros da sua terra natal. Em 2007, Nicolelis juntamente com mais dois cientistas brasileiros da Duke, haviam levantado US$ 25 milhões para o projeto, quantia essa que foi equiparada pelo presidente Inácio Lula da Silva depois de visitar o campus em agosto passado. (O presidente “Lula” ficou tão impressionado com os esforços de Nicolelis que recentemente ele incumbiu o neurocientista a criar um currículo de ciência para quase 354 novos colégios técnicos.)

Planos para escalar o IINN para uma escola de 5.000 alunos e construção de mais laboratórios, uma clínica maior, um complexo desportivo, e um parque ecológico sublinham uma dimensão importante do desenvolvimento de Natal: a idéia de que ciência avança somente através do fomento do envolvimento social, extendendo-se da torre de marfim para dentro da comunidade. Esses planos também seguem a tendência de “parques científicos”: em última instância, o IINN formará o cerne dum parque biotecnológico de 1.000 a 2.000 hectares para energia, TI, e negócios farmacêuticos. Como Nicolélis e Lula disseram num editorial de fevereiro, “O gigante dos trópicos finalmente acordou”.

N.B.: os links/URLs não estão no original; eu os coloquei para melhor contextualizar o texto praqueles que não conhecem o MPI nem o editorial de fevereiro/08 da SciAm.

A comparação com os MPI me deixou, honestamente, de queixo caído: faço muito gosto que isso seja a mais pura verdade! 😎

Minha pergunta, claro, é a seguinte: “Quando é que vem o bloco da Física?!” 😈

Ainda nessa mesma de reportagens de qualidade excelente, a revista The Atlantic lançou um projeto novo, que merece uma visita:

É isso aí: a diversão está garantidíssima! 😎

Atualizado (2008-Nov-25 @ 09:57h): Aqui vai o link oficial:

[]’s.

Simulações em Cromodinâmica Quântica…

terça-feira, 18 nov 2008; \47\America/New_York\America/New_York\k 47 6 comentários

A edição desse mês da revista American Scientist (uma publicação da Sigma Xi) tem um artigo [de divulgação] muito interessante sobre Lattice QCD:

A idéia por detrás desse artigo (de divulgação) é clara: usar computadores pra fazer os cálculos pesados, que a gente não consegue fazer “no braço”. Historicamente, isso tudo surgiu na segunda metada dos anos 70, com o estabelecimento da Cromodinâmica Quântica (QCD) e com um melhor acesso aos computadores (apesar de que a programação era feita com cartões-perfurados! 😉 ).

O problema que motivou essa empreitada é dado pelo fato de que é muito difícil de se obter qualquer tipo de resultado analítico em QCD — a razão mestra disso é um fato conhecido como “acoplamento forte” — até então, o único método analítico disponível era o chamado expansão 1/N (aliás, o artigo Path Integral Formulation of Mean Field Perturbation Theory foi um dos primeiros a definir essa expansão em Teorias Quânticas de Campo). Traduzindo em miúdos, o que acontece é que quarks têm um comportamento muito exótico: chamado de confinamento, o que acontece é que quarks nunca são vistos isoladamente, i.e., “livres”, na natureza. Isso se deve ao fato de que quanto mais vc tenta separar 2 quarks, mais forte é fica a força que os une, i.e., a força entre 2 quarks aumenta com a distância! Notem como isso é completamente contra-intuitivo: todas as forças que a gente conhece (fraca, gravitação, eletromagnética) têm o comportamento exatamente oposto, ou seja, a intensidade delas diminui quando a distância aumenta (i.e., fica sempre cada vez mais fácil de se separar os 2 corpos quanto mais longe eles estiverem). Por causa desse comportamento, não é possível fazermos o mesmo tipo de “aproximações” que usamos em outras áreas da Física (e que funcionam perfeitamente bem, com até 12 casas decimais de precisão experimental!); e é pra resolver essa enrascada que a tal “aproximação 1/N” (mencionada acima) foi inventada.

Bom, o resumo dessa ópera é que uma das melhores armas pra se atacar essas questões todas é via simulações computacionais. O “truque” é que mesmo nesse caso, que já tem vários resultados positivos, é preciso se dispor de supercomputadores, como o Blue Gene ou o QCDOC — muitas das arquiteturas do Cray e da IBM foram desenvolvidas em colaboração com Físicos trabalhando em problemas de “Lattice QCD”, especialmente por causa desse necessidade monstruosa de poder de processamento que o problema demanda.

N.B.: Quem quiser se aprofundar mais, pode ler os seguintes artigos: Lattice QCD for Novices, Advanced Lattice QCD e Nonperturbative Quantum Field Theory on the Lattice. Existe um website que tenta agregar essa comunidade, The Lattice Web. Em termos de livros, os que eu recomendo são os seguintes: Introduction to Quantum Fields on a Lattice, Quantum Fields on a Lattice, Lattice Gauge Theories, Quarks, Gluons and Lattices (o autor desse livro, M. Creutz, foi um dos fundadores desse ramo da Física). Um pouco fore do “mainstream” (princpalmente por serem publicações mais antigas), mas também interessantes, são os livros de Lattice Gauge Theories and Monte Carlo Simulations e Gauge Field Theories. No Brasil, eu aprendi parte do que conheço desse assunto no grupo Lattice Quantum Field Theory (em particular, os resultados mostrados em Older Work são interessantíssimos!), e o único outro grupo que eu conheço que trabalha nessa área é Física de Partículas Computacional (IFSC-USP). (Se vc trabalha nessa área e eu não conheço a sua existência, por favor, deixe um comentário, com os links apropriados, que eu terei o maior prazer em corrigir a minha ignorância, atualizando esse artigo. 😳 )

[]’s.

Atualizado (2008-Dez-02 @ 20:12h): Há uma continuação dessa notícia, com um pouco mais de informações, nos links abaixo (que saíram ontem):

Ambos são excelentes artigos… somados ao primeiro acima… diversão garantida!

😈

[]’s.

As duas últimas semanas do orkut…

sábado, 15 nov 2008; \46\America/New_York\America/New_York\k 46 Deixe um comentário

Semana passada eu não publiquei aqui no ArsPhysica o que temos visto de bom na comunidade de Física do orkut, essa semana vou mostrar o que apareceu de bom lá durante essas duas semanas.

Alguns tópicos legais que apareceram por lá foram:

😉

Além disso, apareceram outras discussões boas na comunidade, esses tópicos são apenas uma pequena amostra do que a comunidade Física do orkut tem de bom. 😀

A semana nos arXivs…

sábado, 15 nov 2008; \46\America/New_York\America/New_York\k 46 8 comentários

Pierre Auger é inaugurado hoje

sexta-feira, 14 nov 2008; \46\America/New_York\America/New_York\k 46 10 comentários

Observatório Pierre Auger

Observatório Pierre Auger. Imagem do site oficial.

Hoje foi o dia de inauguração do Observatório Sul Pierre Auger! 🙂

O observatório era construído desde 2000. O objetivo é estudar os raios cósmicos de altíssimas energias — acima de 108 TeV, isso é dez milhões de vezes a energia dos prótons no LHC. Eu falei sobre parte da motivação do projeto aqui. Mesmo antes da inauguração, o observatório já havia mostrado evidência do limite GZK em julho desse ano (veja o link sobre a motivação para saber mais). Por outro lado, foi um pouco decepcionante que o limite GZK foi confirmado (nenhuma nova física necessária então para descrever a interação de prótons com fótons, mesmo a energias tão altas).

Outro elemento importante da física do Pierre Auger é entender a origem desses raios cósmicos tão energéticos. Não há um consenso sobre que processo físico natural nas galáxias pode produzir/acelerar prótons a energias tão altas. No final do ano passado, a colaboração já havia mostrado que os raios cósmicos de altíssima energia não são isotrópicos pelo universo e sim parecem vir das galáxias com núcleos ativos (aquelas com buracos negros no centro). Essa descoberta foi capa da Science de novembro de 2007 (veja também a nota de imprensa do CBPF).

Com a inauguração hoje, o Pierre Auger sul começa a operar com todos os seus detetores! 🙂 Há planos para melhorar a resolução de determinação da origem dos raios cósmicos do espaço com um segundo observatório, o norte, que deve ser construído em Colorado, nos Estados Unidos.

Para nós brasileiros esse projeto é de especial honra, pois parte da colaboração é brasileira: a Profa. Angela Olinto, da Universidade de Chicago e várias instituições no Brasil 🙂

Edição 19/11: dos comentários abaixo, eu destaco o link passado pelo Daniel Particle physics gives boost to areas of Latin American sobre a participação latino-americana no Pierre Auger 🙂

Plano de Nação…

sexta-feira, 14 nov 2008; \46\America/New_York\America/New_York\k 46 2 comentários

No post O Obama brasileiro, fizemos alguns comentários sobre a matéria homônima no CSM — e como bem observaram o Rafael e o Tom, algumas diferenças entre Lula e Obama são mais do que simplesmente “marcantes”.

Pra citar um exemplo do ponto que foi levantado pelos dois, eu cito o exemplo abaixo: uma matéria ainda da época que o Obama era apenas candidato à presidência (e não “presidente eleito”, como agora),

É isso mesmo que vcs viram: uma matéria de sete páginas pra revista Foreign Affairs! 😯

Pra quem não conhece, a revista Foreign Affairs é, essencialmente, um repositório para os diversos ângulos que compõem um “Plano de Nação”.

Na época em que o FHC ainda era “professor-at-large” no Watson Institute da Brown, eu me lembro duma reunião que tivemos e eu perguntei pra ele quando (no passado) o Brasil havia tido um “Plano de Nação” e qual era o atual. Um amigo meu da Ciência Política me deu um cutucão na hora… e, por muito tempo, isso foi matéria de chacota, quer dizer, a minha ingenuidade [em fazer a pergunta].

Aparentemente, a resposta é óbvia pra muitos… mas, não o era pra mim — até porque, sendo o FHC um renomado sociólogo, eu achei que nada mais natural do que ele, que conhece o tema, ter um Plano de Nação, uma visão para o futuro do Brasil. Bom, a resposta que ele (FHC) me deu foi bem ‘lisa’, daquelas que cada vez que vc “aperta” tentando entendê-la, ela escorrega cada vez mais: essencialmente, a “mensagem” da resposta era que a política brasileira ainda era muito “caótica” (pra não dizer “primitiva”) pra comportar soluções proporcionalmente tão “rígidas” quanto um plano de longo (10, 15, 25, 50 anos!) prazo.

É aí que entra a diferença não só marcante mas também gritante do longo artigo acima, publicado numa revista renomada internacionalmente: essa é a visão dum candidato à presidência [do país dele], mostrando claramente qual é o jogo dele.

As perguntas que ficam, pra mim, são as de sempre: “Por que é que nossos intelectuais das Ciências Sociais (sociologia, política, economia, direito) não têm um mecanismo análogo no nosso país?” Ainda mais hoje em dia, não é preciso que seja uma publicação em papel, com custo elevado e tudo mais… não, hoje em dia, depois da revolução digital, qualquer website dá conta de exprimir de modo completamente democrático e transparente o que pensam nossos intelectuais sobre o futuro de longo prazo da nossa Nação.

Nesse sentido, eu acho que estudos como o abaixo, são absolutamente fundamentais:

Aqui vai um resuminho mínimo desse artigo:

Estudo da Anprotec propõe a estruturação de um Sistema Nacional de Parques Tecnológicos a partir de investimentos da ordem de R$ 10,2 bilhões em 20 parques nos próximos cinco anos.

Bom, nesse tom… agora podemos começar o final-de-semana! 🙂

[]’s!

Atualizado (2008-Nov-15 @ 09:42h): Ainda em tempo:

[]’s.

Regularização dimensional

quinta-feira, 13 nov 2008; \46\America/New_York\America/New_York\k 46 10 comentários

Mesmo depois de alguns anos fazendo conta com o método de regularização dimensional, nunca deixo de ficar impressionado. Tudo dá certo! Por mais curioso que seja, nunca vi uma tentativa de formalizar isso, no sentido de teoria matemática de integração para integrais com dimensão não inteira. A única tentativa que li até hoje foi no livro do John Collins de renormalização (usando “matemática de físico”, é verdade), mas é tão confuso que nem sei se vale a pena. Vou tentar contar o que se ensina e se usa no dia a dia, na prática.

Acho que a primeira coisa que encantou as pessoas que trabalhavam com teoria quântica de campos, foi que regularização dimensional não quebra invariância de gauge. Mas tem outras coisas que ficam muito claras com regularização dimensional e que eu, particularmente, não sei ver com outros métodos. Um exemplo é a quebra espontânea de paridade em vácuos solitônicos, que tem algo a ver com efeito hall quântico. Nem tudo são rosas, claro. Por exemplo, regularização dimensional quebra supersimetria. Mas as regularizações supersimétricas são tão, mas tão complicadas, que na prática mais vale continuar usando regularização dimensional.

Para quem não sabe, regularização é um processo pelo qual se dá sentido a integrais divergentes em teorias quânticas de campos. Existem vários métodos de fazer isso e, em princípio, todos eles deveriam ser equivalentes. Mas acho que não existe prova robusta nesse sentido. Na regularização dimensional o que se faz é mudar a dimensão do espaço-tempo em que está se fazendo a conta. Em dimensões menores a teoria tende a ficar mais convergente. Então, se vai para uma dimensão menor, mas arbitrária, se faz a conta e o resultado, para correções quânticas a 1 loop, fica expresso em termos de funções \Gamma(2-d/2) pelo menos para d inteiro positivo. Daí as pessoas fazem um processo de continuação analítica e assumem que o resultado vale para qualquer d complexo. Fica claro que em d=4 há uma divergência. Curiosamente, também fica claro que não divergência em espaços-tempos ímpares. Em espaços-tempos ímpares só há divergências em 2 loops. Claro que isso não faz muito sentido em dimensões a partir de d=5, já que a teoria não é renormalizável, mas me parece que é um fato bem conhecido em d=3.

É mágica não?


Edit: Sobre a questão de supersimetria, vale a pena ver esse trabalho que o Warren Siegel fez há muito tempo atrás:

Categorias:Ars Physica

Algumas notícias sobre o Brasil…

quinta-feira, 13 nov 2008; \46\America/New_York\America/New_York\k 46 Deixe um comentário

O CSM continua sua série sobre o Brasil (parte 2/3 — a terceira e última parte vem amanhã, e também será colocada aqui no AP 😉 ), também com repercurssões pela BBC; e um novo livro lida com a idéia duma nova governança global:

Como se isso já não fosse suficiente pra garantir a diversão, deixo uma saidêra impagável:

[]’s!

Atualizado (2008-Nov-13 @ 17:15h): A terceira parte da reportagem saiu,

Tecnologia de Educação em Física…

quarta-feira, 12 nov 2008; \46\America/New_York\America/New_York\k 46 Deixe um comentário

Pra quem gosta de “experimentar” com a educação e aprendizado em Física, esse artigo é bastante interessante:

A sigla PhET significa “Physics Education Technology”, que é um projeto onde o resultado de pesquisas que mostram que alunos aprendem melhor quando eles constroem o próprio entendimento de idéias científicas [dentro do arcaboço do conhecimento que eles possuem], é posto em ação via o uso de simulações interativas, possibilitando que os alunos tenham um engajamento ativo com o conteúdo.

O webite oficial do PhET é,

Outra que vai no mesmo espírito é a seguinte:

(Em particular, eu recomendo também o artigo Meta Math! The Quest for Omega; foi nele que li, pela primeira vez, o termo Matemática Experimental, direto da boca do G. Chaitin — esse aqui é pro Fábio: Epistemology as Information Theory: From Leibniz to Omega.)

Essas idéias não são particularmente novas (no meu primeiro ano do CCM eu tive aulas de matemática com o Prof. Jacob Z. Sobrinho, que dava laboratórios semanais na sala de computação, fazendo a gente “testar” o que aprendeu em sala de aula — o mesmo aconteceu com o nosso curso de computação, que sempre resolvia problemas que a gente estava aprendendo em outras matérias, como química, biologia e física), mas ainda continuam sendo inovadoras (por razões que me fogem).

Nesse mesmo espírito, quero aproveitar e citar a palestra sobre educação que assisti recentemente, ministrada por Ed Redish. Ele faz parte do Physics Education Research Group (PERG), e a maioria dos trabalhos dele podem ser encontrados em Papers and Talks by E. Redish — vale muito a pena dar uma olhada no que tem por aí… muita coisa interessantíssima! (Infelizmente, a palestra que ele deu aqui em Syracuse (ainda?) não me parece estar disponível online. 😛 )

É isso aí… agora é hora de começar a pensar na janta… 😉

[]’s.

Diquinha: Vídeo no GMail…

quarta-feira, 12 nov 2008; \46\America/New_York\America/New_York\k 46 4 comentários

Essa é uma dica ainda quente, recém saída do forno: Quem usa o popular GMail agora já pode conversar com seus contatos via vídeo:

Há tempos que o Google vem tentando abocanhar o mercado que, hoje em dia, é praticamente dominado pelo Skype: a primeira tentativa da companhia foi o GTalk. Mas, infelizmente, o GTalk só é disponível pra quem usa Windows.

Desde então que eu venho me perguntando o porquê do Google nunca ter atacado essa questão com uma ferramenta realmente robusta… e eis que, hoje, veio minha resposta: Eles estavam buscando uma integração mais sólida com o GMail! Aos poucos, o GMail está se tornando um dos aplicativos Web2.0 mais integrados e cheio de recursos que há por aí. 🙂

Pra quem está interessado apenas nos “finalmente”, basta seguir o link abaixo e instalar o plugin necessário:

Depois de instalado, basta reinicializar o navegador… e voi lá!

Diversão garantida… 😈

Categorias:Computers, IT Tags:, ,

O Obama brasileiro…

quarta-feira, 12 nov 2008; \46\America/New_York\America/New_York\k 46 10 comentários

O editorial de hoje do jornal Christian Science Monitor é bastante interessante:

Aliás, já até causou alguma repercurssão, Lula ‘poderá dar lições a Obama’, diz jornal americano.

Entretanto, uma das diferenças que eu vejo pode ser facilmente ilustrada com o seguinte exemplo:

Qual foi a última vez que um presidente brasileiro se sentou com alguma comissão da SBF?! 🙄

Pra quem não conhece a história do CSM, apesar dele publicar uma coluna religiosa diária (na seção “The Home Forum”), ele não é uma plataforma de evangelização; pelo contrário, é um pioneiro do jornalismo online (o CSM passou a ser publicado exclusivamente online!), e já foi agraciado com o Prêmio Pulitzer sete vezes. Quem quiser saber mais sobre o jornal, pode ler o About the Monitor.

[]’s.

Sérgio Vieira de Melo no TED…

quarta-feira, 12 nov 2008; \46\America/New_York\America/New_York\k 46 1 comentário

Pra quem não conhece, Sérgio Vieira de Melo foi um diplomata brasileiro na ONU por mais de 34 anos, reconhecido mundialmente por seus esforços humanitários.

😥

Categorias:Brazilian Politics, Politics Tags:

Linkfest da segundona…!

segunda-feira, 10 nov 2008; \46\America/New_York\America/New_York\k 46 Deixe um comentário

ENADE 2008

segunda-feira, 10 nov 2008; \46\America/New_York\America/New_York\k 46 6 comentários

Esse final de semana teve o ENADE e entre os cursos avaliados esse ano, encontra-se Física. Quem quiser dar uma olhada, eis o link para a prova e para o gabarito: 

ENADE 2008

Maiores detalhes sobre o ENADE e sobre como ele é utilizado no processo de avaliação dos cursos pode ser encontrado na mesma página do INEP:

O que é o ENADE?

Eu ainda estou tentando entender as pessoas que boicotam a prova. Se você conseguir ler, ao lado eu coloquei um panfleto distribuído no Rio de Janeiro. E aqui algumas “explicações”:

Boicote ao ENADE

Comentários ficam para outro post, mas note que aqui no AP já discutimos duas das questões que cairam na prova desse ano. Uma prova fácil, por sinal.

%d blogueiros gostam disto: