Arquivos

Posts Tagged ‘Física’

Notícias da Semana…

sábado, 7 abr 2012; \14\UTC\UTC\k 14 Deixe um comentário

Nos últimos 7–10 dias, muitas notícias interessantíssimas apareceram. E vale a pena dar uma olhada no que está circulando pelo mundo afora.

  1. Brazil a Great Place to do Physics … and Other Things“: Esse primeiro link é sobre programa de intercâmbio da APS, e o caso da reportagem conta sobre um aluno que saiu da Columbia University, em NY, e foi para o CBPF, no RJ. Como diz o rapaz que fez o intercâmbio, “Given that Rio was one of Richard Feynman’s favorite places, I was sure the experience would be very interesting, and I quickly became excited about it.”. :-)
  2. Brown University forges research partnership in Brazil“: Esse segundo link é sobre a parceria que a Brown University assinou nessa semana com o IMPA (RJ). A parceria, promovida pela doação de um pai dum aluno da Brown, vai promover a colaboração em pesquisas, conferências e intercâmbios entre a Brown e o IMPA pelos próximos três anos.
  3. Open grad program allows students to pursue two fields“: Esse terceiro link é sobra um programa piloto que a Brown abriu esse ano e que poderia ser resumido como “Ciências Moleculares para a pós-graduação”. A Brown tem um currículo de graduação aberto, como o do Ciências Moleculares, desde os anos 70. E, agora, eles decidiram aplicar o mesmo princípio para a pós-graduação. A idéia é de que os alunos selecionados para participar desse experimento irão cursar seus respectivos doutoramentos, que será complementado com um mestrado em alguma outra disciplina. (A Brown permitia que seus alunos tirassem um ‘double-masters’, i.e., um duplo-mestrado até alguns anos atrás, quando essa opção foi cancelada em favor dessa nova empreitada multi- e inter-disciplinar.) E é disso que trata a reportagem, desse experimento em se ter um currículo multi- e inter-disciplinar na pós-graduação. Até onde eu conheço, essa é uma atitude completamente pioneira e que não existe em nenhuma outra escola. :twisted:
  4. How the Modern Physics was invented in the 17th century, part 1: The Needham Question“: Essa é a primeira parte (de um total de 3) de um blog convidado da SciAm, contando a história da Física moderna. Muito interessante.
  5. How Much Is a Professor Worth?“: Essa matéria do NYT trata do tópico de um novo livro que tenta comparar o salário de professores em diferentes países. Vale a pena ler pra ver em qual posição o Brasil se encontra, e como os diferentes países se comparam. Há muitos detalhes a serem analisados nessa questão todo… mas, de qualquer maneira, é um bom começo.
  6. Sociedade Brasileira de Física — Cortes no orçamento de ciência ameaçam futuro do Brasil“: o governo decidiu cortar o orçamento em cerca de 33% (comparado ao orçamento de 2010), entrando em rota de colisão com diversas conquistas recentes da política científica federal.
  7. Carnaval Is Over“: Seria esse o fim do milagre brasileiro? A FP faz uma lista dos vários fatores que influenciam essa questão.

Parcerias científicas internacionais, flexibilização do currículo da pós-graduação, história da Física, cortes do orçamento de ciência e tecnologia, e futuro econômico do país. Todas notícias relevantes e contemporâneas.

“E agora, José?”

Criação de partículas pelo vácuo pode ter sido demonstrada em laboratório

quinta-feira, 26 mai 2011; \21\UTC\UTC\k 21 6 comentários

Um dos conceitos mais difíceis de digerir na mecânica quântica relativística é o fato de que afirmar que “ali há uma partícula” é algo relativo. É devido a este fenômeno que um universo em expansão cria partículas espontaneamente, processo que acredita-se hoje deve ter sido o responsável por popular o nosso universo com prótons, elétrons, fótons, e todo o resto da matéria. É também esse o mesmo fenômeno da radiação Hawking que todo buraco negro emite. Esse efeito pode ter sido observado pela primeira vez em laboratório por Chris Wilson da Universidade Chalmers de Tecnologia de Gothenburg, Suécia, e colaboradores no RIKEN, Japão, New South Wales em Sidney e Michigan em Ann Arbor, EUA[4].

Em poucas palavras, o que eles observaram foi que um espelho se movendo no vácuo com aceleração não uniforme e velocidade próxima da luz, emite luz a uma taxa proporcional ao quadrado da velocidade do espelho em relação ao vácuo.

Este efeito foi previsto em 1970 pelo físico-matemático Gerald More e é mais conhecido como efeito Casimir dinâmico. Na prática, é quase impossível mover um espelho rápido o suficiente para criar uma taxa de partículas apreciável. Por exemplo, um espelho oscilando na frequência de 1 GHz com uma amplitude de 1 nm teria uma velocidade 10 milhões de vezes menor que a velocidade da luz, produzindo apenas um único fóton por dia, mas exigiria 100 MW de potência e o sistema inteiro deve estar a menos de 10 mK de temperatura[1]. Para uma comparação, uma usina de carvão produz cerca de 400-700 MW de potência elétrica.

O esquema realizado por Chris Wilson consistiu em usar uma guia de onda[5] com um SQUID preso em uma das extremidades. O SQUID é um dispositivo eletrônico cuja indutância pode ser finamente calibrada. A presença do SQUID no final da guia resulta em uma probabilidade alta de uma onda eletromagnética ser refletida no ponto próximo ao SQUID. Alterando a indutância do dispotivo, esse ponto pode ser deslocado no espaço. Desse modo, eles obtiveram um espelho que se move a velocidades de até 5% da velocidade da luz. Eles observam então a potência irradiada dentro da guia de luz quando o espelho efetivo começa a se mover. Algumas correlações entre voltagens previstas teoricamente são também comparadas com as medidas experimentais para ter certeza que o efeito é mesmo a criação de partículas no vácuo. Esse esquema experimental foi pela primeira vez proposto por Astrid Lambrecht, Instituto Max Planck de Óptica Quântica, Marc-Thierry Jaekel e Serge Reynaud da Ecole Normal[3].


Esquema experimental para demonstração do efeito Casimir dinâmico. Crédito da Figura: Ref. [2].

Criação de partículas pelo vácuo

Nesse outro post eu tentei explicar em termos simples como o conceito de partícula depende do observador: um estado que é vácuo para um observador A, será repleto de partículas como visto por um outro observador B que se move com aceleração constante em relação a A. No caso do efeito Casimir dinâmico, a condição de contorno dos campos muda no tempo devido a uma força externa, similar ao caso do efeito Casimir. Em termos simples, os valores de comprimento de onda admissíveis ao campo eletromagnético vão mudando a medida que a guia de onda muda de tamanho. Como os fótons são aqueles estados de comprimento de onda fixo do sistema, a medida que a guia de onda muda de tamanho ocorre surgimento de novos comprimentos de onda e o observador detecta novos fótons dentro da cavidade, mesmo quando esta incialmente encontrava-se no vácuo.

Referências e notas

  1. C. Braggio et al. 2005 Europhys. Lett. 70 754 doi: 10.1209/epl/i2005-10048-8.
  2. J. R. Johansson, G. Johansson, C. M. Wilson, F. Nori, Phys. Rev. A 82, 052509 (2010), doi: 10.1103/PhysRevA.82.052509.
  3. Astrid Lambrecht, Marc-Thierry Jaekel, Serge Reynaud. Phys. Rev. Lett. 77, 615–618 (1996), doi: 10.1103/PhysRevLett.77.615
  4. C.M. Wilson et al., arXiv:1105.4714 [quant-ph].
  5. Uma guia de onda é um dispositivo para guiar a direção de propagação de uma onda, forçando uma onda a propagar-se no seu interior, como por exemplo a fibra óptica, ou uma cavidade de metal.

A física da busca de novos materiais

quarta-feira, 11 mai 2011; \19\UTC\UTC\k 19 3 comentários

Nós falamos bastante das nossas áreas de pesquisa e áreas próximas relacionadas nesse blog, que acaba sendo, por alguma razão, também as mesmas coisas que se encontra nos textos de divulgação científica mais conhecidos como os livros do Stephen Hawking, Marcelo Gleiser e Brian Greene. Mas curiosamente, a maioria dos físicos (em número) não trabalha nem com buracos negros nem com as interações das partículas elementares, e sim com a grande área da física que estuda os materiais, como as propriedades dos sólidos.

E desde o ano passado ocorreram grandes descobertas nessa área, que eu pensei em relatar aqui para que talvez desse um gostinho dela para quem estiver interessado. Foi a confirmação experimental de um material que havia sido idealizado em teoria capaz de conduzir eletricidade de forma perfeita, em uma única direção, e apenas na sua borda. Esses são os chamados isolantes topológicos. Por “forma perfeita”, o que se quer dizer é que os elétrons não podem dar revés quando estão se movendo no material. Em um metal, como os fios de ouro usados em todos os aparelhos eletrônicos modernos, os elétrons andam bem devagar porque batem constantemente nos núcleos atômicos. Em um condutor perfeito, os elétrons tem uma direção única de propagação e por isso não podem ricochetear, movendo-se bem mais rápido.

Na mecânica quântica, os elétrons ligados aos átomos não podem possuir qualquer valor abritrário de energia, que é o que cria o espectro discreto de emissão da luz. Em um material, os elétrons que não estão presos bem perto do núcleo mas podem se mover entre diferentes átomos também tem apenas algumas energias disponíveis para se propagar. É possível existir uma banda contínua de energia disponível, digamos de 15 eV até 30 eV, depois um “buraco” de energias proibidas, digamos de 30 eV a 35 eV, e novamente outra banda de energia, p.ex. de 35 a 40 eV. Os materiais isolantes são aqueles que o número de elétrons de valência preenchem completamente uma banda, e a próxima banda está suficientemente separada em energia de modo que só quando você aplica uma tremenda diferença de potencial elétrico os elétrons conseguem saltar da sua banda preenchida para a banda livre (esta última é a chamada “banda de condução”).


Isolante comum.
Isolante topológico. Elétrons ricocheteiam na borda e se movem em uma única direção.
Crédito da Figura: Ref. [1].

Cada elétron de um isolante fica orbitando apenas um único núcleo do material (ou fica preso entre mais de um em uma ligação covalente, mas deixemos esse caso de lado para simplificar). Em uma analogia da física clássica, nós podemos imaginar que a órbita é circular. Mas como ficam os elétrons que estão presos aos átomos logo na borda do material? Se você fizer uma engenharia bem pensada, pode colocar os elétrons da borda em órbitas que não cabem no material e os elétrons serão forçados a ricochetear da borda, como na figura. Ao ricochetear na borda, o elétron pula de um átomo para o próximo. O resultado é que o material é isolante no seu miolo, mas conduz eletricidade em uma fina camada na sua borda. Se você se permitir nessa analogia um pouco mais e imaginar que os elétrons estão todos ordenados para girar sempre em uma única direção dentro do material, então os elétrons da borda não vão conduzir eletricidade em qualquer sentido: eles só se movem em uma única direção.

A física mais detalhada desses materiais é mais complicada que esse modelo clássico. A real origem da condução na borda tem a ver com o fato de que existe um estado de energia estável na borda que liga a banda de condução até a banda do isolante, tornando a diferença de energia entre as bandas degenerada na interface. Essa solução é o que se chama um instanton, e o elétron fica “saltando” entre um mínimo para o próximo das bandas de energia, criando a condução elétrica de uma forma que ainda não se tinha visto até esse sistema aparecer. Uma explicação mais realista você encontrará na Ref. [1].

O que motiva muitos físicos a trabalhar com esses problemas é que são esses novos materiais, como o grafeno e os isolantes topológicos, que podem ser usados em grandes revoluções tecnológicas, como o efeito de tunelamento entre interfaces de semicondutores levou a invenção dos diodos e transitores semicondutores, que são os componentes dos chips de silício usados em computadores, nos sensores das câmeras digitais e celulares, e quase tudo que você possa imaginar de eletrônico.

Referência
1. Hasan, M.Z. and C.L. Kane (2010). “Colloquium: Topological insulators,” Rev. Mod. Phys. vol. 82, pp. 3045-3067. Download: [UPENN] [APS]

Há também o vídeo deste colóquio (1h de duração).

A lição importante da Física

domingo, 8 mai 2011; \18\UTC\UTC\k 18 10 comentários

Este post apresenta opiniões sobre ensino de Física do autor do post e não necessariamente refletem as opiniões de todos os editores do blog.

Em uma das minhas primeiras aulas de Física na universidade, um professor já quase para se aposentar comentou que ele observou que era comum os calouros falarem apaixonadamente em demonstrar que Einstein estava errado, e quatro anos depois tornavam-se defensores da Relatividade com todos os jargões possíveis.

No nosso sistema educacional contemporâneo ao redor do mundo, professores usam livros-texto de 1000 páginas e preparam os cursos na ordem dos capítulos 1, 2, 3, … e enfatizam aos alunos ler os exemplos 1.2, 2.10, 4.5 e resolver os problemas 1.5, 2.19, 3.14 — porque um igual ao 2.19 vai cair na prova! Todo conteúdo, problemas e soluções relevantes são apresentados aos alunos em classe ou em panfletos. Mas será que as atividades que nós realizamos fora da escola tem paralelo com essa estrutura? Será o tempo que um bloco de madeira de 10.2 g leva para deslizar até o chão em um plano inclinado a 25° de uma altura de 2.4 m a lição importante que queremos ensinar em Física?

Eu creio que a maioria dos físicos concordariam comigo que no trabalho científico é difícil dizer que problemas são interessantes e com solução em um dado momento histórico. No trabalho científico mesmo quando nós concluimos um novo capítulo no conhecimento de Física, não temos claramente quais são os próximos capítulos que podem ser escritos. Quase sempre apenas se tem uma ideia vaga do sumário de três ou mais capítulos que podemos escrever. E nos forçamos a ter várias ideias, porque é quase certo que um dos sumários iniciais não vai render um capítulo inteiro. E como os capítulos em pesquisa científica são novos, um problema que tem uma solução conhecida não é de interesse: os físicos não passam tempo debatendo sobre transmissão de rádio e preferem investigar colisões de prótons em energias nunca antes observadas ou procurar interações que podem não existir da matéria escura. Muito mais valioso para ciência do que saber soluções de cor é elaborar problemas interessantes. Pense no exemplo no final do século XIX, quando buscava-se entender porque não foi possível detectar o éter luminífero, quando então Einstein se interessou por responder a pergunta de porque as equações de Maxwell não eram independentes do referencial. A formulação do problema nos termos de Einstein levou a solução dos mesmos problemas que Lorentz, Poincaré e Abraham investigavam. Foi a elaboração da pergunta, e não um conhecimento pedante de cálculo tensorial, que nos levou a Relatividade.

Eu acredito que a relevância de selecionar problemas interessantes vai além da pesquisa em ciência e insere-se no mundo empresarial, no governo, em ações sociais, jornalismo, na arte e possivelmente em quase todas relações socio-economicas humanas. Por exemplo, nos negócios, ninguém lhe dirá qual é o próximo produto de sucesso. Chegar primeiro no celular e no iPod é parte da busca do progresso. Perceber que problemas do ambiente de negócio são interessantes para serem resolvidos com intuito de aumentar a produtividade e diminuir a burocracia é tarefa espontânea que todo gerente gostaria de ter nos seus empregados. O empresário brasileiro Ricardo Semler, presidente de uma empresa com valor de mercado de mais de US$200 milhões, e cujas ideias de administração levaram-no a dar aulas na Escola de Administração do MIT e Harvard, relatou sua frustração com o sistema de ensino no Fórum Mundial de Tecnologia do Aprendizado de 2009:

Como as pessoas estão chegando a empresa, e portanto ao mercado de trabalho, das escolas? (…) Elas dirão: você precisa me dizer onde eu vou ficar, o que eu devo fazer, qual o meu plano de carreira, e nós dizemos a elas que não temos nada a falar sobre isso, ‘Você tem que encontrar essa solução’. Nós percebemos que as pessoas vem a nós de um sistema educacional onde elas aprendem submissão desde cedo. (…) Elas chegam ao mercado de trabalho prontas para seguir ordens ou seguir uma carreira, coisas que não existem mais.

A narrativa de Semler é bem familiar: professores de Física oferecem a ideia de que os problemas que devem ser resolvidos são aqueles já escritos no final do capítulo. Nós educamos com base em reprodução de conhecimento já estabelecido ao invés de criação original.

Há outro aspecto que eu acredito inibir a criatividade: o formato das avaliações de hoje. Estas enfatizam obter os coeficientes a balancear uma reação química, que o tempo de vôo de um objeto é 25 s ou que a raiz da equação é 3√2+5i no plano complexo. Se o estudante não acerta esse resultado final, ele é penalizado. Parece-me que o sistema recompensa obsessão por estar correto, inibindo tentativas audaciosas. O Brian Greene tem uma história interessante sobre isso: uma vez quando estava em uma turma de crianças, para medir o quanto elas já tinham aprendido de matemática, ele perguntou “quantos 3 cabem em 6?”, escolheu um dos braços que se levantou no ar e a menina foi ao quadro e desenhou um 6 grande com um 3 pequeno dentro! Não era exatamente a resposta que Greene procurava, mas era um 3 dentro de um 6! Em algum momento na evolução educacional desta criança esse tipo de atitude desinibida se perde. Minha experiência com alunos em Dartmouth é que pouquíssimos vão arriscar responder perguntas em classe, eles preferem ficar calados. Como vamos resolver a crise de energia ou o déficit público quando nossos alunos preferem não fazer nada do que arriscar uma solução incorreta?

Se você concordou comigo até agora, acho que podemos ver que um ensino centrado em reprodução de conhecimento ao invés de criação é um problema difícil de resolver. Eu não tenho em mente com essa crítica que podemos dispensar por completo do tradicional, mas podemos tentar encontrar um balanço adequado entre ensinar conteúdo e criação de problemas. Para ter uma ideia do que tenho em mente, considere o exemplo de como ensinamos álgebra para crianças daquelas 6a e 7a séries (escolho esse exemplo porque deve ser familiar a maioria das pessoas). Após ensinar os básicos das regras de álgebra, a criança passa o ano inteiro resolvendo problemas como “aplique a regra distributiva a (1+x)(3+y2)”. Eu lembro que na minha 8a série nós aprendemos a fórmula da Baskhara logo no primeiro mês e passamos o resto do ano resolvendo exemplos diferentes de equações do segundo grau! Uma abordagem distinta é ensinar as regras de álgebra e pedir aos alunos que pensem em problemas de álgebra. Cada aluno poderia escrever cinco ou mais equações aleatoriamente, e o professor poderia sugerir uma para o aluno investigar, uma espécie de “feira de ciências de matemática”. Se um único aluno da 7a série escrever e investigar uma equação como xn+yn=zn (último teorema de Fermat), x2 – n y2 = 1 (equação de Pell) ou ax+ b y = c (equação linear diofantina) estaremos em direção de uma nova geração de Gauss, e o mundo desesperadamente precisa de um novo Gauss. Um abordagem como essa permite os alunos escolherem que problemas de álgebra eles se interessam, que direção eles gostariam de seguir, e vão desde cedo encontrar a possibilidade da limitação do progresso com problemas mal escolhidos. Em cursos de pós-graduação, até o exame pode ter uma pergunta como “Elabore o seu próprio problema e resolva-o”, como ouvi dizer que o Prof. Jayme Tiomno fazia. Em classes de física básica universitária, algo simples pode ser feito: todo dever de casa pode incluir uma solicitação do aluno criar seu próprio problema; depois a turma pode ser dividida em grupos pequenos supervisionados por um professor e/ou monitor de disciplina que observa e ajuda os alunos a discutirem seus próprios problemas no quadro negro. Veja que essa tarefa é muito diferente de pegar um problema do livro e apresentar em sala. Se o problema está no livro, não é interessante! Alunos de turmas mais avançadas da graduação podem ser motivados a elaborarem problemas para a disciplina baseados nos seus interesses pessoais, no seu projeto de iniciação científica, ou em outras disciplinas.

Eu gostaria de concluir com um pouco de psicologia pois não quero embasar minha perspectiva de ensino em anedotas. Há algumas coisas que os neurocientistas parecem ter chegado a um consenso: 1) o cérebro humano desenvolve sua estrutura do dia do nascimento até mais ou menos 20 anos de idade e 2) a prática de uma certa tarefa está associada a especialização de regiões do cérebro para realizá-la e criação de sinapses. Em termos simples: é preciso prática para ser um bom músico, e é melhor começar quando criança. Se nós educarmos exclusivamente para obter alunos que irão fazer fantásticas e rápidas reproduções de exercícios, vamos obter resultados estelares no vestibular e concursos públicos. Mas nós não queremos só isso da educação de ciência: queremos também a habilidade do pensamento crítico e criativo. Eu acredito que motivar os alunos desde cedo a criar seus próprios problemas estimulará essa habilidade e quem sabe, a tornará bastante natural em idade adulta.

Texto baseado em um ensaio sobre ensino de Física que escrevi a pedido da Graduate School of Arts and Sciences de Dartmouth College, em ocasião do Filene Graduate Teaching Award.

Alguns vídeos inspiradores:
Ken Robinson, “Escolas matam criatividade”, com legendas em português.


 

Ricardo Semler no LATWF 2009 (são dois vídeos):
 


 

Brian Greene no Aspen Ideas Festival 2008
 

Entropia e formação de complexidade no universo

domingo, 17 abr 2011; \15\UTC\UTC\k 15 4 comentários

Distribuição de massa no universo prevista pela Relatividade Geral, rede cósmica. As cores indicam densidade de massa, com o preto ao púrpuro ao amarelo indicando região menos a mais densa. A escala indica cerca de 44 Mpc. Uma galáxia tem cerca de 10 Kpc de diâmetro.

Quando nós olhamos para um vídeo em que um omelete se transforma em um ovo de galinha, nós sabemos que o filme está sendo exibido de trás para frente, porque no universo a entropia sempre cresce. Uma pergunta muito natural então é: como foi possível que o universo tenha formado estruturas como as galáxias e os planetas, e depois a vida na Terra, quando formar estruturas complexas parece desafiar a segunda lei da Termodinâmica?

É importante entender que a pergunta é capciosa, porque ela é baseada em uma premissa falsa: a de que a Termodinâmica é válida universalmente. Na realidade, a Termodinâmica é uma aproximação para descrever sistemas quando eles podem atingir rapidamente um estado em que suas variáveis não dependem mais do tempo. Muitas vezes isso não é possível, e a Termodinâmica é inaplicável. Isso é o caso para maior parte dos processos que ocorrem no universo. Esse tipo de fenômeno se denomina fora do equilíbiro térmico.

A formação das galáxias é um exemplo. A termodinâmica não se aplica porque o campo gravitacional depende do tempo. E o processo é complicado pela contínua aglomeração de massa que o campo gravitacional provoca. A redistribuição de massa no espaço muda de volta o campo gravitacional. O efeito combinado ao longo do tempo forma a rede cósmica, da qual eu já comentei outras vezes no blog. Do ponto de vista da Termodinâmica, a formação das galáxias pode parecer uma incógnita, mas é porque a origem das galáxias vem da dinâmica do campo gravitacional.

Outros dois exemplos importantes são a formação dos núcleos atômicos e a formação da radiação cósmica de fundo. Se nós fossemos usar a Termodinâmica em Cosmologia para descrever esses processos, iríamos obter respostas incorretas. Na formação do hélio, por exemplo, vê-se que a abundância do hélio em equilíbrio termodinâmico se torna relevante quando a temperatura é cerca de 3.5×109 K, e a Termodinâmica prevê que cerca de 31% dos bárions deveria estar em forma de hélio hoje. O valor correto é mais próximo de 25-27%. A Termodinâmica falha porque a formação do hélio precisa competir com o fato de que a densidade de prótons e nêutrons está decaindo no tempo. Os prótons e nêutrons vão se tornando menos densos por causa da expansão do universo. A formação do hélio não dura para sempre porque eventualmente a densidade é tão baixa que não permite mais reações nucleares ocorrerem. Além disso, a formação do hélio depende da presença dos nêutrons, que decaem rapidamente a medida que as reações nucleares perdem força para converter prótons em nêutrons. Se abdicarmos da Termodinâmica e calcularmos o processo dependente do tempo, chegaremos ao valor correto de 27%. A radiação cósmica de fundo se forma por um processo similar de competição em que os elétrons livres que ainda espalham fótons por efeito Compton vão desaparecendo ao serem capturados pelos núcleos para formar os átomos neutros de hidrogênio e hélio.

Quando nós não podemos usar a Termodinâmica para reações físicas mas ainda se quer fazer contas para um número grande de partículas, se usa física estatística fora do equilíbrio onde a dinâmica é comandada pelo que genericamente se chama equações de Boltzmann. O nome de Boltzmann deve indicar como já se sabia faz tempo as limitações da Termodinâmica.

O propósito desse comentário é o seguinte: não é necessária nenhuma mágica para entender como se formam estruturas complexas no universo onde vale a segunda lei da Termodinâmica. Basta aplicar as leis físicas relevantes para o processo microscópico (no caso da formação dos núcleos é a física nuclear, da formação das galáxias é a Relatividade Geral). A Termodinâmica é uma aproximação que nem sempre descreve todas as variáveis físicas, só aquelas que se tornam independentes do tempo.

O universo é quântico II, novas divergências em TQC

terça-feira, 5 abr 2011; \14\UTC\UTC\k 14 5 comentários

Será que existem divergências em teorias quânticas de campos (TQC) em espaços-tempo curvos que não podem ser removidas por renormalização?

Como o título já deve dar a entender, esse segundo post já vai ser sobre um aspecto técnico.

Leia mais

CMS e ATLAS esperam descobrir o Higgs até 2012

quinta-feira, 31 mar 2011; \13\UTC\UTC\k 13 5 comentários

Detector CMS em fase de montagem em 2008. Foto: Michael Hoch.

Hoje a Physics World publicou uma entrevista com Guido Tonelli, porta-voz do experimento CMS, e Pippa Wells, porta-voz do ATLAS. Ambos afirmam que CMS e ATLAS darão uma resposta definitiva para a existência do bóson de Higgs até final de 2012. A expectativa é que os dados do LHC de 2011 e de 2012 serão necessários para poder vasculhar o Higgs em toda a janela de massa que ele pode existir, que é atualmente de 115 a 600 GeV (para uma comparação, a massa do próton é aproximadamente 1 GeV). O Higgs é a única partícula do Modelo Padrão que ainda não foi positivamente detectada.

Leia mais…

Quem colapsou a função de onda do universo?

segunda-feira, 28 mar 2011; \13\UTC\UTC\k 13 2 comentários

Como ninguém perguntou no último post :( faço eu aqui a pergunta. Existe uma dificuldade conceitual na idéia da origem da estrutura do universo.

Para explicar o problema, deixe-me considerar o caso dos fótons da radiação cósmica de fundo. A temperatura média observada desses fótons é 2.73 K. Essa média é obtida da seguinte forma: o satélite recebe um conjunto de fótons vindos da direção n da abóboda celeste. Cada fóton recebido por unidade de tempo tem uma temperatura diferente; mas somando todos os fótons ao longo de um tempo t suficientemente longo, é possível determinar com uma precisão menor que 1 mK qual a temperatura dos fótons vindo daquela direção, chamemo-la T(n). Como eu disse, prever o valor exato da função T(n) é impossível porque requer saber exatamente qual a posição da Terra em relação ao ponto exato no espaço onde ocorreu o último espalhamento Compton que o fóton sofreu antes de chegar no satélite. No lugar disso, se faz a média T0 sobre todos os pontos da esfera celeste, ou seja, sobre todas as direções n. Essa média independe da direção. Esse é o valor 2.7 K. Nós podemos definir o desvio da média: ΔT(n)=T(n) – T0. A média do desvio da média é zero, mas não é zero a média do produto de dois ΔT(n), isto é o desvio padrão da média. Isso é análogo em mecânica quântica ao fato que a média da posição X pode ser zero, enquanto o mesmo não vale para X2.

A idéia proposta por Mukhanov e Chibisov é que essa média do céu é igual a mesma média obtida em mecânica quântica para a mesma variável. A dificuldade conceitual é que essas duas médias tem significados diferentes. A da mecânica quântica (MQ) significa o seguinte: você prepara o universo para ter início quando o tempo é zero em um estado \Psi, e mede a temperatura dos fótons na direção n em 12 bilhões de anos depois, o que te dará um valor T(n). Você então precisa colocar o universo novamente no estado \Psi no início e medir novamente T(n) 12 bilhões de anos depois, que vai lhe dar outro valor, e assim por diante. Uma série de medidas em vários universos diferentes é a média da MQ. Já a média utilizada na teoria clássica é de um mesmo universo sobre diferentes direções. Poder-se-ia questionar que quando a função de onda do nosso universo colapsou, a distribuição do campo gravitacional congelou em uma configuração específica da mecânica quântica. Essa configuração, tirada uma média sobre o espaço, é que constitui os observáveis astronômicos, e não a média sobre todas as possíveis realizações das flutuações do campo gravitacional, que é a média da física quântica. Mais objetivamente, como, quando e por que as probabilidades quânticas, como o emaranhamento, deixaram de ser flutuações quânticas do campo gravitacional e passaram a ser flutuações clássicas de intensidade do campo gravitacional? Será que toda vez que eu observo um fóton na radiação cósmica de fundo, eu colapso a função de onda de todo o universo? :)

O universo é quântico I

sexta-feira, 25 mar 2011; \12\UTC\UTC\k 12 4 comentários

A gravitação quântica pode estar ali na esquina…

Este vai ser o primeiro do que eu espero ser uma série de posts sobre os recentes avanços em cálculos de gravitação quântica em Cosmologia. Serão em tom de divulgação, mas com alguns detalhes técnicos aqui e ali. Eu não vou me preocupar em dar detalhes de referências no texto porque toma tempo e quem tiver interesse é só procurar ou perguntar. :)

Essa história começa com o seguinte problema. Suponha que eu aqui na Terra com um telescópio queira saber toda a evolução que trouxe a sopa primordial do universo até a formação de todas as galáxias:

 

A distribuição das galáxias no céu visto da Terra depende da posição relativa da Terra as galáxias vizinhas, o que nenhuma teoria cosmológica pode nos dizer. O que nós podemos calcular são na verdade aspectos probabilísticos do universo, como a densidade de massa média em um volume que contém muitas galáxias, ou o número de galáxias a uma dada distância d de outra galáxia. Olhando cada galáxia nas figuras dos telescópios e determinando quantas galáxias estão ao redor dela a uma certa distância d e depois tirando a média dessa quantidade para todas as galáxias vistas no telescópio pode-se tirar um estimador aproximado de como as galáxias estão distribuídas, e então comparar essa função de d com uma previsão da física.

Naturalmente, a física clássica não pode fornecer essa previsão: não faz parte do arcabouço conceitual clássico o conceito de probabilidades associadas aos observáveis físicos. As equações da Relatividade Geral para um fluido como a matéria escura, uma vez dadas as condições iniciais, tem uma evolução futura única. Quando os cosmólogos nos anos 60 toparam com essa questão, a estratégia foi introduzir artificialmente variáveis aleatórias no problema. Então, por exemplo, se A(\mathbf{x}, t) é um observável cosmológico (como a massa que existe no universo), os cosmólogos passaram a escreve-lo assim:

A(\mathbf{x}, t) = \sum_n \alpha_n(\mathbf{x}) A_n (t)

onde A_n(t) é cada uma das possíveis evoluções temporais da Relatividade Geral (t é o tempo) e \alpha(\mathbf{x}) é uma variável estrangeira a teoria que tem algum tipo de distribuição de probabilidade para como o observável se distruibui no espaço, por exemplo:

\langle\alpha_n \rangle = 0
\langle \alpha_n \alpha_m \rangle = P_{nm}

etc., onde \langle O \rangle quer dizer que estamos calculando o valor médio da variável aleatória O com respeito a alguma lei de probabilidade (por exemplo, no problema de um dado não viciado, cada face pode ter uma regra de probabilidade 1/6, e nós poderíamos definir a média de cada face \langle\alpha_i\rangle = 1/6, e a chance de tirar duas faces iguais \langle\alpha_i\alpha_j\rangle = (1/6)\times(1/6)). Na física clássica não existe nada que possa nos dizer a priori qual a distribuição de probabilidades (a não ser um chute!). (Na verdade a distribuição é feita no espaço de Fourier e não sobre o espaço-tempo).

A solução desse problema foi proposta em 1981 pelos russos Viatcheslav Mukhanov e Gennadiy Vasilevich Chibisov, então do Instituto de Física Teórica de Lebedev. Muita gente também dá crédito aos físicos do ocidente que puxaram a descoberta no contexto do modelo inflacionário logo em seguida: Stephen Hawking, Alan Guth e So-Young Pi, James Bardeen, Paul Steinhardt e Michael Turner.

Mukhanov e Chibisov fizeram um cálculo proposto a eles pelo colega Starobinsky: computar as flutuações quânticas do campo gravitacional em um modelo cosmológico proposto por Starobinsky. A suspeita era que os efeitos poderiam ser “grandes” e invalidar todo o modelo cosmológico. O que Mukhanov e Chibisov encontraram é que a distribuição de probabilidades do campo gravitacional quantizado no modelo de Starobinsky era idêntica a distribuição de massa do universo que acreditava-se na época ser necessária para garantir a formação das galáxias no modelo do Big Bang (apesar de que a distribuição de galáxias ainda não tinha sido observada em 1982!). Ora, se a fórmula é idêntica, a física deve ser a mesma: eles propuseram então que a origem da distribuição das galáxias era a gravitação quântica no universo primordial. A solução é muito elegante, pois promover os observáveis cosmológicos a observáveis em mecânica quântica permite associar a eles distribuições de probabilidades de forma natural. Mais importante, permite prever a distribuição de probabilidades do universo.

Hoje em dia a idéia é assim: o universo começou no vácuo, e passou por um período em que as distâncias entre dois pontos cresceram exponencialmente — a inflação. As flutuações quânticas do vácuo são pequenas, mas durante o período inflacionário elas são esticadas de um tamanho de 10-25 cm (cem bilhões de bilhões de vezes menor que o próton) até ao tamanho de uma galáxia. Essa flutuações querem dizer que a intensidade do campo gravitacional não é a mesma no espaço, o campo gravitacional tem uma probabilidade associada a ele de ter valores diferentes, igual como as probabilidades associadas a posição do elétron no átomo de hidrogênio. Os picos e vales de intensidade do campo gravitacional são essas flutuações. Eu já tinha escrito sobre isso no blog aqui.

Mas como é possível que o formato do campo gravitacional quântico no universo primordial possa ter dado origem as galáxias, se a inflação aconteceu mais de 100 milhões de anos antes das galáxias começarem a se formar? A física posterior a inflação não iria bagunçar o campo gravitacional do universo, como por exemplo, através de transições de fases, ou as colisões de prótons a altas energias, ou a formação do plasma de quarks e gluons?

Devido a inflação, essas flutuações se tornam tão grandes — do tamanho de uma galáxia! — que elas são muito maiores que a distância que a luz pode percorrer durante boa parte da história do universo. Quando o universo tinha 3 minutos, por exemplo, a distância que a luz pode percorrer desde o início do universo é de 3 minutos-luz; em comparação, uma galáxia tem cerca de 30 mil anos-luz de diâmetro. Só quando o universo já tinha mais idade que essas flutuações quânticas começam a ser influenciadas por outros efeitos físicos. Por uma boa coincidência de escalas, a temperatura do universo aos 3 minutos de idade era cerca de 1 MeV, que é a escala de energia típica da física nuclear, então esses outros efeitos que alteram a distribuição quântica primordial são física muito bem conhecida: física nuclear “para baixo”.

É curioso como se fala tanto que a física do LHC e do RHIC tem a ver com o Big Bang quando na verdade se sabe que qualquer efeito dessas escalas de energia não tem relevância para cosmologia.

Alguém ai entendeu alguma coisa?

No próximo post eu vou falar sobre os trabalhos recentes sobre as interações dos grávitons no universo primordial que afetam os observáveis cosmológicos, que em breve pode constituir um dos primeiros testes das interações da gravitação quântica graças ao satélite Planck. E depois sobre como se trombou com as diversas dificuldades da quantização da gravidade, e como a Cosmologia tem dado uma luz sobre como fazer contas com a Relatividade Geral quantizada.

Uma palestra técnica sobre o assunto você pode ver aqui, é o seminário “Cosmological Correlations” do Steven Weinberg. Já está desatualizada, mas eu não conheço nenhuma outra mais moderna.

Regulamentação de profissões, e da profissão de Físico em particular

terça-feira, 27 jul 2010; \30\UTC\UTC\k 30 Deixe um comentário

O Rafael Lopes de Sá, escreveu recentemente sobre isso aqui no Ars Physica, e como no caso dele, esse post é a minha visão pessoal sobre o assunto. Pode ser que outras pessoas que escrevem aqui discordem. Minha opinião é muito similar à dele, então se você tiver preguiça de ler mais um texto contra a regulamentação da profissão de físico, basta ler o dele! :) Esse texto na verdade foi escrito na comunidade de Física do orkut uns meses atrás, e o assunto surgiu novamente em outras discussões e então eu resolvi resgatá-lo e recauchutá-lo para ser digno de post de blog. Fiz isso mais para ter um link para mandar para quem pergunta minha opinião do que por qualquer outra razão, mas acho que ficou suficientemente bom para ser útil para vocês.  Enfim, ao texto…

Eu acredito que estamos melhor sem regulamentação. Vou dar duas séries de argumentos – uma de porque eu sou contra o sistema de regulamentações como um todo e outra de porque eu sou contra a regulamentação da profissão de físico ainda que o sistema de regulamentações não seja desmantelado.

O sistema de regulamentação de profissões.

Só existe uma razão objetiva para regulamentar uma profissão: impedir que pessoas não qualificadas exerçam atividades que representam um risco sério caso sejam mal executadas. Qualquer regulamentação que não se baseie nisso só tem um objetivo: criar um clubinho de pessoas que controlam uma série de atividades e impedir o acesso de outras pessoas a essas atividades, gerando uma reserva de mercado. Esse segundo tipo de regulamentação é, na minha opinião, perverso e prejudicial.

Prejudicial ao mercado: inibe a geração de empregos e inibe o crescimento de novas áreas de aplicação de conhecimentos antigos, além de aumentar artificialmente o custo de contratação.

Prejudicial para os profissionais: uma vez regulamentada a profissão, ficam estabelecidos limites claros para o que aquele profissional faz e o que ele não faz e é muito provável que se isso se cristalize no mercado profissional. Isso limita as atividades que você pode desenvolver: há atividades que você é capaz de fazer por causa de sua formação específica, mas não há vagas para pessoas com a sua formação nessa área.

Finalmente, prejudicial para a formação das pessoas. A existência de atividades privativas faz com que os conselhos profissionais obriguem os cursos a ensinarem algumas disciplinas, engessando as estruturas curriculares e preenchendo a grade horário dos estudantes com disciplinas  mal colocadas. Por exemplo isso acontece com os cursos de engenharia: por conta da grande quantidade de atividades que são privativas de engenheiros de todas as áreas, todos os cursos são obrigados a ministrar, por exemplo, matérias associadas a construção civil e a projeto de sistemas elétricos, ainda que isso não esteja nem próximo das intenções profissionais de um típico estudante de engenharia de controle e automação ou de engenharia metalúrgica.

A profissão de físico em particular.

Acima eu dei razões pelas quais eu sou radicalmente contra o sistema de regulamentação de profissões – que eu acho que deveria ser estritamente limitado a profissões que trazem risco. Mas isso está aí e não há muitas chances de que esse sistema de regulamentação seja posto de lado. Por isso, para que eu estabeleça meus argumentos, ainda são necessárias razões para não se regulamentar a profissão de Físico ainda que o sistema de regulamentações continue.

Regulamentar a Física como profissão exige a delimitação de que atividades serão privativas de um físico, que só ele poderia desempenhar. Entretanto, um coisa que salta aos olhos é o fato de que não existe realmente um corpo de atividades acima das quais você pode colocar o rótulo “Física”. Física não é um conjunto de atividades ou técnicas mas um conjunto de conhecimentos. Não é como a Medicina, a Fisioterapia, a Engenharia Elétrica, a Enfermagem ou a Geologia –  que, além de seus respectivos conjuntos de conhecimentos associados, possuem um arsenal de técnicas e atividades práticas que as caracterizam. Certamente um físico está habilitado por seus conhecimentos a desempenhar diversas tarefas úteis, mas não são tarefas privativas que qualquer outro profissional não possa aprender e desempenhar com a mesma eficiência.

Pode-se objetar a essa observação dizendo que há sim uma tarefa que envolve grandes riscos e que seria primordialmente tarefa dos físicos: dosimetria de radiações e manipulação de elementos radioativos. Eu discordo fortemente dessa visão. Essa é uma atividade que a gigantesca maioria das pessoas formadas em Física (eu inclusive) não está apta a desempenhar porque não há treinamento específico no curso. Os poucos físicos que são capazes de lidar com substâncias radioativas são aqueles que participaram algum projeto de pesquisa envolvendo essas substâncias. Finalmente: as técnicas  para se lidar com essas substâncias não exigem uma formação específica em física para serem aprendidas. Essas não são atividades que exigem todo o conhecimento adquirido em um curso de quatro anos de física, mas que qualquer profissional de física, química, engenharia ou áreas correlatas poderia desempenhar depois de um curso técnico específico.

Finalmente, qual seria o efeito de se regulamentar Física como profissão?

Seria criada uma reserva de mercado para certas atividades. Muitos vêem isso como vantagem, eu vejo como problema. Hospitais e departamentos de radiologia seriam obrigados a contratar físicos, para empregos incompatíveis com todo o treinamento que esses profissionais possuem. É ridículo supor que exige-se uma formação completa em física para se dosar a radiação de um aparelho de raios X. Basta uma formação de técnico em radiologia. E não se engane – a remuneração vai ser compatível com a de um técnico. Ninguém vai pagar salário de nível superior para fazer essa atividade.

Há quem argumente a favor da regulamentação pela criação de um piso salarial e aumento da remuneração de físicos. Mas físicos não ganham mal. Em uma recente pesquisa da FGV física era o 31º curso superior mais bem remunerado, com salário inicial médio de R$ 3500.

A necessidade de treinamento específico vai fazer com que se insira, nos cursos de bacharelado em física, disciplinas obrigatórias de instrumentação e dosimetria de radiações, e a grande maioria dos profissionais de física não vai trabalhar nessas áreas.

Diversas atividades que hoje são desenvolvidas com sucesso por pessoas formadas em física ficariam de fora da legislação: computação, finanças, projeto de produtos, … e vão sobrar para a física tarefas menos remuneradas e talvez mais facilmente conectáveis ao curso de graduação: metrologia, dosimetria, …

Finalmente, a Fisica não é, nunca foi e nunca será privativa de um clube de pessoas que resolvam delimitá-la. Por duas razões.

Em primeiro lugar, Física, como um corpo de conhecimentos teóricos, pode ser aprendida por qualquer um. Não é um processo de iniciação misterioso que está fora do alcance dos outros mortais. Qualquer um com tempo e disposição pode pegar os livros e entender do que se trata o assunto. Aliás, boa parte dos dois primeiros anos dos cursos de física que é aprendido pelos físicos nos cursos de graduação é compartilhado com quase todos os cursos de ciências exatas, e muito da parte mais avançada do curso é compartilhada com outros cursos como química, engenharia elétrica e outros.

Além disso, a Física não é delimitável. É IMPOSSÍVEL traçar uma linha e dizer que o que está lá dentro é Física e o que está fora não é. Isso não é uma característica apenas da física mas de todo campo que é eminentemente científico e não técnico. Também é impossível delimitar o que um biólogo faz, o que um químico faz, o que um matemático faz, o que um sociólogo faz, o que um estatístico faz. Há uma interface tão tênue e tão fluida entre essas áreas que qualquer um é capaz de estudar, aprender e ingressar em qualquer atividade que um físico for capaz de exercer.

É assim que é, e é assim que tem que ser. Essa é a nossa riqueza e o que realmente diferencia um profissional com uma forte formação científica e quantitativa: não há limitações no que ele pode aprender a fazer.

Simetria e Dualidade em Matemática e Física…

quarta-feira, 23 jun 2010; \25\UTC\UTC\k 25 Deixe um comentário

Sean Carroll no Colbert Report

quinta-feira, 11 mar 2010; \10\UTC\UTC\k 10 1 comentário

Ontem o Sean Carroll esteve no Colbert Report falando sobre seu livro de divulgação. Como o WordPress não deixa inserir vídeos nos posts, eu só posso passar o link abaixo:

http://www.colbertnation.com/the-colbert-report-videos/267142/march-10-2010/sean-carroll

E como parte da história, a pergunta final do Steve :)

Dilbert.com

A força do vácuo: o efeito Casimir e a energia escura

terça-feira, 2 mar 2010; \09\UTC\UTC\k 09 7 comentários

Visualização do efeito Casimir

Dois objetos são atraídos devido a força do vácuo existente entre eles.[9]

O efeio Casimir, previsto em 1948 pelo físico holandês Hendrik Casimir da Phillips, só foi demonstrado em 1997, e constitui evidência de que o vácuo tem uma energia associada. É um fenômeno puramente da mecânica quântica e nele reside uma das maiores icógnitas da física contemporânea: o problema da constante cosmológica.

Energia em Física Clássica e Quântica

Embora no nosso quotidiano nós usamos a palavra energia de forma coloquial como sinônimo de vigor, eficácia ou determinação, em Física, energia possui um significado mais específico. Quando descrevemos o movimento de uma partícula de massa m em física clássica, a energia associada a essa partícula é uma função E(\mathbf{x},\mathbf{v}) da posição e da velocidade da partícula que é constante ao longo do tempo devido ao fato de que se eu encontro uma solução x(t) da equação de Newton, então x(t+a) para um número real arbitrário a é também solução da equação de Newton. Incluindo-se efeitos da Relatividade, essa quantidade é

E = \sqrt{(pc)^2 + (mc^2)^2}

onde p = mv/\sqrt{1-v^2/c^2} é o momento da partícula. Em mecânica quântica, nós podemos ver a origem da energia de forma análoga: introduz-se a energia através da simetria de translação temporal da mecânica quântica, aplicando um teorema devido ao matemático Marshall Stone que diz que a simetria temporal se traduz na existência da energia.

A Energia do Vácuo

Como em física clássica a energia é associada ao movimento de uma partícula, veio então com uma certa surpresa a descoberta de Werner Heisenberg, Pascual Jordan e Max Born de 1925, em um dos artigos de fundação da mecânica quântica[1], que mesmo uma caixa de volume V sem nenhum fóton dentro deveria ter uma energia associada, segundo a mecânica quântica, de

E_0 = \displaystyle\frac{1}{2}\sum_{k}\hbar \omega_k

onde o índice zero em E0 subentende que é a energia da ausência de todas as partículas (o vácuo) e a soma é sobre todas as possíveis freqüências \omega_k que podem existir dentro da caixa. Isso é devido ao fato de que se descreve a luz na ausência de qualquer efeito causado por uma partícula carregada como uma oscilação do campo eletromagnético, decomposta em uma soma sobre osciladores harmônicos de freqüência \omega_k. Como em mecânica quântica o oscilador harmônico possui uma energia mínima de \hbar\omega_k/2, segue o resultado da energia mínima do campo eletromagnético. O estado físico que se associa a essa energia mínima é o vácuo.

O significado dessa energia do vácuo ficou durante muitos anos obscuro: não se sabia como dar um resultado finito para essa soma, então tipicamente o tratamento de problemas da luz ou outras partículas era realizado negligenciando a soma, sob a justificativa de que pode-se escolher o zero de energia. Porém, há pelo menos duas circunstâncias conhecidas em que isso não é possível: quando efeitos gravitacionais são incluídos, o que dá origem ao chamado problema da constante cosmológica, ou quando há uma mudança no volume da caixa V que contém o vácuo, que produz o efeito Casimir.

Efeito Casimir

Se nós tivermos uma região de vácuo e permitimos que o volume V dessa região mude, então também mudam as energias permitidas existir dentro desse volume. Não é difícil entender porque: se um dos lados da caixa tem comprimento L, o comprimento de onda da luz que poderia existir dentro da caixa não pode ser maior que L (só frações de L são permitidos). Se o comprimento da caixa muda para L + δL, então a soma sobre k da energia do vácuo muda e passa a incluir agora os modos de comprimento de onda L + δL. Variar a energia do sistema requer trabalho, então mudar o tamanho da caixa vai exigir a ação de uma força. A força resultante do trabalho que altera a energia do vácuo ao aumentar a distância d de duas placas metálicas de área A foi calculada por Casimir[2], do centro de pesquisa da Phillips de Eindhoven, em 1948:

F = \displaystyle{{\hbar c} \frac{\pi^2 A}{240 d^4}}.

Para duas placas de 1 cm2 de área separadas por uma distância de 1μm, essa força é um milionésimo do peso de 1 grama na superfície da Terra! Certamente pequena, mas não impossível de ser observada. Se nós colocarmos duas placas metálicas na vertical fixas a uma distância d, então será necessário aplicar a força de Casimir para evitar que o vácuo atraia as duas placas.

A primeira demonstração de que o efeito provavelmente existia, foi feita por Marcus Sparnaay também da Phillips, em 1958, utilizando placas metálicas planas paralelas (um capacitor!)[3]. Acontece que como a força é muito pequena, é experimentalmente difícil obter precisão suficiente no deslocamento das placas devido a problemas de alinhamento, e Sparnaay conseguiu observar o efeito de atração das placas, mas não foi capaz de medir o valor exato. A verificação do resultado numérico em detalhe só foi possível em 1997 em um experimento realizado por Steve K. Lamoreaux[4], então na Universidade de Washington em Seattle, que observou a existência do efeito Casimir entre uma placa metálica e outra esférica com d variando entre 0.6μm a 6μm — uma ordem de grandeza! Esse experimento demonstra o contra-intuitivo fenômeno quântico que o vácuo de fato tem energia associada a ele!

Desde a descoberta de Lamoreaux, o efeito já foi medido para materiais e geometrias diferentes. Um grupo na Itália em 2002 conseguiu com menor precisão medir o efeito para a geometria original de placas paralelas[7]. Já foi até medido o efeito Casimir repulsivo no final de 2008 — i.e. levitação quântica!

Arranjo experimental para medir o efeito Casimir

Roberto Onofrio (esq.), e seu aluno de pós-graduação, Michael Brown-Hayes, e um esquema experimental típico com uma câmera de vácuo para medida da força de Casimir, neste caso entre um cilindro e um plano (dezembro de 2005, Dept. de Física, Dartmouth College). Crédito da foto: Vox of Dartmouth, 12/05.

No experimento original de Lamoreaux, dois filmes finos de cobre revestem uma placa plana fixa e outra esférica móvel. A placa móvel pode deslocar-se ao longo de um círculo de raio R presa a uma barra, de modo a encontrar a placa fixa em um ponto desse círculo. A barra é presa a um fio metálico para formar um pêndulo de torsão. A medida precisa da força atuando entre as placas no vácuo é feita mantendo a balança parada usando uma voltagem regulável que aplica uma força eletrostática ao extremo oposto da barra com respeito a posição da placa esférica (dois desenhos esquemáticos podem ser encontrados no artigo original de Lamoreaux)[8].

A energia do vácuo por todo o universo: o problema da constante cosmológica

Quando a energia do vácuo foi descoberta, não se sabia dar um significado físico a ela, pois o número de freqüências que pode existir dentro de uma caixa é infinita, então a soma parece ser infinita. Porém, emergiu dentro da física uma visão de que se nós incluirmos na teoria apenas fótons, a teoria só é válida até um certo limite de tamanho mínimo, a partir do qual outros efeitos se tornam relevantes, digamos como a unificação eletrofraca quando os fótons passam a se misturar com o bóson Z. Ou mesmo que seja possível levar em conta todas as partículas conhecidas do Modelo Padrão, o limite de comprimento passa a ser o comprimento de Planck, que é a escala de tamanho a partir da qual efeitos quânticos da gravidade se tornam importantes. Assim, uma primeira forma de calcular aproximadamente o valor da energia do vácuo é truncar a soma no valor máximo do comprimento de onda, e o resultado é[5]:

\displaystyle{\rho_0 = \frac{E_0}{V} = \frac{\hbar c}{8\pi} \left(\frac{2\pi}{\lambda_c}\right)^4}

onde \lambda_c é o valor máximo que nós podemos aceitar do comprimento de onda. Suponhamos que nosso limite de validade é o raio do próton (\lambda \sim 10^{-15}\;\text{m}), então a densidade de massa equivalente dada por E = mc^2 para essa energia seria de 2×109 ton/cm3! Ou seja, em um centímetro cúbico do espaço, existiria uma massa de um bilhão de toneladas. Tanta massa assim geraria um campo gravitacional gigantesco, porém nenhum tal campo gravitacional é observado. Em contraste, a densidade de massa total do universo observada no diagrama de Hubble é de 1.0×10-29 g/cm3, uma diferença de 44 ordens de grandeza. Colocando o valor de \lambda_c para valores menores, como a massa do top quark — que podemos tomar como o presente limite de validade das teorias de partículas quânticas –, ou a escala de Planck, só aumenta o valor da energia do vácuo. As vezes isso é incorretamente interpretado como uma previsão da teoria que não condiz com os dados experimentais. Na verdade, uma análise mais cuidadosa do cálculo da energia do vácuo[6] revela que somos obrigados a adicionar um termo que está faltando na soma original que é uma constante arbitrária que a teoria da física de partículas não pode determinar:

\rho_\text{real} = \rho_0 + \rho_\text{livre}

onde eu indiquei que o valor observado, ou real, é igual a contribuição dos modos que dão origem ao efeito Casimir, \rho_0, mais a densidade de energia livre que não pode ser determinada em teoria. O que nós podemos fazer, então, é usar a astronomia (ou quem sabe no futuro, experimentos em laboratórios terrestres) para determinar \rho_\text{real} e então usar o valor observado para calibrar \rho_\text{livre}. Mas independente de qual a escolha certa para o comprimento de onda \lambda_c que usemos para obter a energia do vácuo, nós podemos ver que o valor observado já é, dentro da nossa primeira estimativa, 44 ordens de grandeza menor que a densidade do vácuo, o que implica que o parâmetro livre é negativo e idêntico ao valor da energia do vácuo em pelo menos 44 ordens de grandeza de modo a cancelar esse valor muito fina e precisamente para resultar em um \rho_\text{real} pequeno:

1.0 × 10-29 g/cm3 = 2.0 × 1015 g/cm3 – 1.99…90 × 1015 g/cm3.

Por que ocorre esse cancelamento perfeito? Que mecanismo físico, princípio fundamental ou simetria da Natureza é responsável por isso? E de onde vem o resíduo da diferença? Esse é o problema da constante cosmológica: o ajuste fino entre \rho_\text{livre} e \rho_0 necessário para que o campo gravitacional do universo seja pequeno.

Até o momento não há nenhuma explicação razoável para o mecanismo físico desse cancelamento. Há experimentos em andamento (e.g. no grupo de S. K. Lamoreaux na Universidade de Yale) para testar possíveis efeitos gravitacionais na força de Casimir, observando se há alguma variação na força que acompanha o movimento da Terra no campo gravitacional do Sol. Por enquanto, não creio que parece claro na teoria da gravitação porque qualquer fenômeno desse tipo aconteceria, mas isso não é impedimento para os físicos experimentais irem atrás de um possível efeito! Então, se você estava procurando um problema de física tanto teórica como experimental bem difícil e interessante, ai está um para ir trabalhando. :)

Notas

  1. Z. f. Physik 35 557 (1925). Eu comentei anteriormente sobre esse artigo no blog aqui.
  2. Casimir, H. G. B., Kon. Ned. Akad. Wetensch. Proc. 51 p. 793-795 (1948), online.
  3. Physica, 24 751 (1958).
  4. Phys. Rev. Lett. 78 p. 5-8 (1997), online.
  5. Para deduzir essa fórmula, você deve transformar a soma em uma integral e escrever para a densidade de estados que \omega^2 = (kc)^2. Você deve lembrar que a soma para E0 vira uma integral sobre número de onda vezes o volume V, daí a relevância da densidade de energia.
  6. Digamos, através da minimização da ação quântica efetiva \Gamma, ou de um simples argumento de renormalização de que a Hamiltoneana pode conter um termo constante livre. Só é possível renormalizar \Gamma introduzindo um parâmetro livre para a energia do vácuo (que não pode ser zero, embora a soma do termo livre com a contribuição dos modos zero de vibração pode!).
  7. G. Bressi et al., Phys. Rev. Lett. 88, 041804 (2002), online.
  8. Esse tipo de arranjo experimental é muito comum. Parece que o princípio básico foi introduzido por Coulomb para medir a força eletrostática, e depois dele, Cavendish, para medir G, e atualmente é empregado para várias medidas de precisão, como violação do princípio da equivalência, além do efeito Casimir.
  9. Versão artística da força de Casimir, imagem de Jay Penni/Federico Capasso, revista Nature, 8 de janeiro de 2009.

Encontrado um análogo da QCD?

segunda-feira, 30 nov 2009; \49\UTC\UTC\k 49 1 comentário

Quando cheguei a Dartmouth, o meu primeiro projeto de pesquisa envolveu uma aplicação cosmológica do modelo do Schwinger, que é a versão em 1 dimensão espacial da eletrodinâmica quântica (QED 1+1 daqui para frente). Uma das coisas belas de teorias quânticas de partículas em 1 dimensão espacial é que as integrais de trajetória tem formas fechadas, permitindo calcular todos os observáveis em forma exata. Curiosamente, a QED 1+1 tem integrais de trajetórias idênticas a teoria de um méson escalar com um potencial tipo co-seno. Mais ainda, quando o valor do acoplamento do férmion com o fóton é não-perturbativo (i.e. a interação é forte), o acoplamento do méson é perturbativo (i.e. a interação entre mésons é fraca), e vice-versa, ou seja, se e_\mu é o valor da carga elétrica medida na escala de energia \mu e \lambda_\mu é o valor do acoplamento do campo escalar medido na mesma escala de energia, esses dois se relacionam na forma e_\mu \propto 1/\lambda_\mu. Notando esse fato, Sidney Coleman observou que tinha-se na verdade uma teoria em 1 dimensão que se comporta analogamente a QCD (a teoria das forças nucleares fortes), e não a QED, pois para energias altas em que o acoplamento e_\mu é fraco, a teoria pode ser vista como a teoria de um férmion acoplado com um bóson de gauge, mas a energias baixas, e_\mu se torna grande, a interação férmion-férmion intermediada pelo bóson de gauge confina essa partícula a existir apenas na forma de bósons de spin 0 (o campo escalar). Isso é idêntico ao que acontece na QCD em que o par de quarks up e down confina quando cada quark tem energia E < 240 MeV para formar o os três píons, \pi^0\, , \pi^+ \, ,\pi^- — a física desses últimos é descrita por campos escalares ao invés de férmions de spin 1/2 e glúons.

Relacionado a essa questão, eu fiquei curioso em saber se existia um sistema da matéria condensada que fosse descrito pelo modelo de Schwinger, algum sistema eletromagnético efetivamente de 1 dimensão espacial. Bom, parece que estes senhores encontraram um tal sistema em 1996: Phys. Rev. B 53, 8521 – 8532 (1996), que foi experimentalmente realizado recentemente, com um relatório publicado na Nature Physics ontem.

Leia mais…

LHC: 2.36 TeV

segunda-feira, 30 nov 2009; \49\UTC\UTC\k 49 Deixe um comentário

Monitor na sala de controle do feixe do LHC mostra 1.17 TeV por feixe de prótons. Hoje o acelerador alcançou a marca de 1.18 TeV por feixe.

Aconteceu hoje: o LHC superou a marca de 1.96 TeV do Fermilab operando a uma energia combinada de 2.36 TeV dos dois feixes de prótons no anel principal! Eba! :) Nos primeiros quatro meses de 2010, a equipe do feixe do LHC pretende acelerar os prótons a uma energia combinada de 7 TeV (energia do centro de massa). O objetivo é chegar a 14 TeV no centro de massa, ou seja 7 TeV em cada próton (no referencial do laboratório). Cada quark e glúon do próton terá uma energia de aproximadamente 1 TeV, fazendo o LHC um acelerador de partículas que colide quarks e glúons juntos a energias de aproximadamente 2 TeV. Essa energia é convertida no produto de decaimento das colisões quarks e glúons, e permite janela suficiente para produzir o bóson de Higgs, que deve ter da ordem de 100 GeV/c2 de massa — uma partícula elementar de massa próxima aos núcleos naturais mais pesados, como o rádio.

Notícia completa: CERN.

Crédito das fotos: CERN.

Comissão de feixe do LHC comemora o controle do feixe estável a alta energia.

Como começou a expansão do universo?

quarta-feira, 25 nov 2009; \48\UTC\UTC\k 48 1 comentário

Lendo artigos de um grupo de cosmólogos teóricos bem ativos na atualidade, eu cruzei com a observação interessante levantada por Paolo Creminelli, Leonardo Senatore, Markus Luty e Alberto Nicolis, de que na teoria da gravitação atual, a taxa da expansão do universo sempre diminui. A taxa de expansão é o que se chama o parâmetro de Hubble, H. As galáxias relativamente próximas a nós estão se afastando com uma velocidade que é proporcional ao valor atual de H vezes a distância: v = Hatuald. Quanto maior H, mais rápido as galáxias a uma dada distância d se afastam.

Para teorias de campos que respeitam o princípio de relatividade e que possuem apenas soluções estáveis, a variação do parâmetro de Hubble no tempo é sempre negativa:

\Delta H/\Delta t < 0

que está de acordo com a idéia que a gravitação é atrativa. Portanto, mesmo em um universo com expansão acelerada, o que significa que a taxa da variação da distância média entre galáxias aumenta com o tempo, a taxa de expansão do universo diminui com o tempo, e portanto a gravitação de fato desacelera a expansão. Isso é importante porque garante, entre outras coisas, que a gravidade pode atrair matéria para uma região do espaço e formar aglomerados, como as galáxias. Essa condição também assegura que exista um mínimo para a energia do conteúdo do universo, o que se traduz no importante fato de que existe um estado de vácuo estável em cada instante, e que partículas não podem ser criadas do nada sem custo de energia. Em poucas palavras, garante certos critérios de estabilidade física da teoria.

No universo primordial H tinha um certo valor HI maior que o atual, mas se imaginarmos ingenuamente que a expansão do universo deveria ter começado com um processo físico que gradualmente levou o valor de H de zero para HI, precisamos que a variação no tempo de H possa ser positiva, pelo menos no momento da origem do universo. Isso não quer dizer que essa visão ingênua esteja certa, mas seria de fato interessante estudar a possibilidade de um processo físico que leve H de zero para um valor não nulo. Mas como é possível garantir simultaneamente que H cresça no tempo e que a estabilidade física da teoria seja satisfeita?

Creminelli e os demais sugeriram o seguinte: e se nós permitimos que essa violação da estabilidade ocorra de forma controlada para escalas de tamanho sempre maiores que o raio visível do universo? Em outras palavras, seria possível obter simultaneamente uma variação positiva no tempo para H e uma teoria em que sempre em escalas de tamanho suficientemente pequenas você tem efetivamente estabilidade?

O truque reside em começar com uma teoria para a inflação que seja salutar e estudar as perturbações do campo inflacionário (o inflaton) produzidas pelas flutuações quânticas e mostrar que essas perturbações podem contribuir para H de forma a provocar \Delta H / \Delta t > 0. Porém essas perturbações todas podem ser controladas para terem tempo de vida sempre maior que a idade do universo, de modo que nenhum observador é capaz de ver os efeitos físicos da instabilidade, a não ser através de H. Que isso é de fato possível não é trivial, e eu não sei explicar sem mostrar a matemática. Nós podemos começar com uma teoria absolutamente genérica de que existe um certo campo escalar \phi que domina a densidade de energia do universo, e então mostrar que as flutuações quânticas desse campo contribuem para H de modo que a variação no tempo de H seja positiva. Para que o universo sempre possua estabilidade física dentro de todas as regiões causais, deduz-se que a escala de energia da energia escura não pode ser muito maior que aproximadamente 100 GeV. Isso não está completamente descartado uma vez que esta energia é do setor escuro da Natureza, aquele que interage muito fracamente com os prótons, elétrons, fótons, etc., a não ser gravitacionalmente. Se você lembrar de um post anterior, eu já discuti como é possível que exista interações novas da matéria escura exatamente nessa escala de energia.

Uma série de artigos técnicos sobre esse assunto são estes:
arXiv:hep-th/0606090, arXiv:0911.2701, arXiv:0811.0827.

Versão um pouco mais técnica. Visto que

\dot{H} = -4\pi G (\epsilon + p )

para equações de estado p = w \epsilon com w > -1 sempre temos \dot{H} < 0. Para obter \dot{H} > 0 é necessário violar a condição de energia nula (NEC) \epsilon + p > 0. Isso pode ser feito apenas no setor das inomogeneidades da energia e pressão, i.e. calculando-se \delta p e \delta \epsilon, sendo que \bar{\epsilon} e \bar{p}, onde a barra significa a solução homogênea e isotrópica, é sadia. Isso cria um w efetivo menor que -1, violando a NEC. Mas como \delta p e \delta \epsilon são funções do espaço, as componentes de Fourier \delta p_q e \delta \epsilon_q podem ter instabilidade apenas para números de onda q suficientemente grandes, i.e. sempre satisfazendo q/aH \ll 1. Isto é equivalente a tomar que o período característico dos modos instáveis em um instante de tempo é maior que a idade do universo naquele instante. Para evitar a instabilidade gravitacional, a freqüência de Jeans associada ao modo instável também precisa ser menor que H.

Primeira colisão de prótons do LHC ocorreu hoje

segunda-feira, 23 nov 2009; \48\UTC\UTC\k 48 Deixe um comentário


Um dos primeiros eventos do LHC, reconstruído no detetor ALICE.

As 11h da manhã (hora de Brasília) de hoje, a primeira colisão de prótons foi detectada no LHC! Os prótons circularam a uma energia de 900 GeV (no referencial do centro de massa). O primeiro evento foi registrado a essa hora no ATLAS, depois outra colisão ocorreu no CMS e finalmente outras duas no LHCb e ALICE.

Se tudo correr bem, a comissão que está trabalhando no feixe de prótons do LHC pretende acelerar prótons a 2.4 TeV no centro de massa (CM) até o final de dezembro. Quando este dia chegar, o LHC será oficialmente o acelerador de partículas mais energético do mundo, sobrepujando o Tevatron no Fermilab que opera atualmente a 1.9 TeV no CM.

A presente fase do LHC tem dois objetivos: 1) testar o feixe de prótons no anel circular principal, como o tempo de vida dentro do anel, e 2) servir de dados iniciais para os experimentos calibrarem seus detetores. O objetivo do experimento na sua próxima fase é produzir colisões entre prótons a 14 TeV no CM, suficiente para descobrir — ou descartar a existência — o bóson de Higgs, a única partícula elementar do Modelo Padrão que ainda não foi detectada. O CMS e o ATLAS se encarregarão desta busca, assim como a análise de possíveis novas partículas não incluídas no Modelo Padrão. O LHCb estudará as reações de violação da simetria matéria-antimatéria e paridade do Modelo Padrão, o mecanismo de Cabibbo, Kobayashi e Maskawa, em energias mais altas e com maior precisão no setor menos estudado dessa violação, os dos quarks pesados bottom e top, e ALICE iniciará seu programa científico quando o LHC substituir o feixe de prótons por feixes de núcleos pesados para estudar o plasma de quarks e glúons.

Quando estiver em operação dentro de seu programa científico de descoberta, o LHC trará informações sobre uma escala de tamanho da Natureza ainda completamente inexplorada, uma grande revolução na física de fato. Grande parte dos físicos teóricos de partículas esperam que novos fenônemos surjam na escala estudada pelo LHC por causa do problema da hierarquia da massa do bóson de Higgs.

Mais sobre essa notícia no site oficial do CERN.

Tomografia do universo revela evidência de energia escura

terça-feira, 3 nov 2009; \45\UTC\UTC\k 45 5 comentários

Resultado da análise de lentes gravitacionais usando o telescópio espacial Hubble revelou evidência independente da expansão acelerada do universo.

O conjunto de evidências favoráveis ao modelo do Big Bang com expansão acelerada acaba de crescer. Um grupo de astrônomos e astrofísicos de países da Europa, Estados Unidos e China — chamada colaboração COSMOS — finalizou uma detalhada análise da distribuição de lentes gravitacionais que indica que o universo é descrito pelo modelo do Big Bang com aceleração. O grupo utilizou dados de uma câmera do telescópio espacial Hubble que fotografa galáxias próximas a Terra dentro de uma área de aproximadamente (1.6°)2. Através de um método de estimativa do desvio para o vermelho da luz das galáxias, COSMOS mediu parte da distribuição de massa do universo em diferentes distâncias para concluir que esta exige um termo de aceleracão para a expansão do universo. Cosmólogos medem a contribuição da aceleração do universo em termos de um parâmetro conhecido como a (densidade da) constante cosmológica, que é zero em universo em expansão desacelerada, e positivo para um universo acelerado, \Omega_\Lambda. O recente resultado, publicado hoje, revela que

\Omega_\Lambda > 0.32.

Esse número significa que pelo menos 32% da densidade de energia do universo está na forma da componente responsável pela expansão acelerada, genericamente chamada de energia escura.

O método usado pelo grupo COSMOS é inédito, e é importante porque revela uma medida da aceleração da expansão do universo que independe da calibração de distância inventada com as medidas de supernovas tipo Ia — esta foi a relação entre intensidade da luz emitida pela supernova em função de sua distância, que permitiu a descoberta da aceleração do universo em 1998.

Lentes gravitacionais fracas

Fig. 1: Imagem do telescópio espacial Hubble do aglomerado de galáxias Abell 2218. O campo gravitacional das galáxias do aglomerado distorce a imagem de galáxias que estejam atrás deste, que tem sua forma esticada em uma elipse, que são os arcos visíveis ao redor do aglomerado.

Toda vez que um raio de luz passa perto de uma massa M, o campo gravitacional de M atrai o raio de luz, causando uma deflexão. Esta deflexão foi vista pela primeira vez por Arthur Eddington e constituiu uma das primeiras evidências a favor da teoria da Relatividade Geral de Einstein. Um conjunto de galáxias funciona como a massa M para galáxias próximas que estejam atrás do aglomerado vistas em relação a Terra, causando um desvio visível em fotografias, como a imagem do aglomerado de Abell 2218. Nesse caso, o fenômeno é conhecido como lente gravitacional forte.

Como todo objeto no universo emite luz que, inexoravelmente, passa perto de diversas massas M até chegar a Terra, é possível dizer que toda imagem vista por nós contém algum nível de distorção gravitacional. O efeito é esquematizado na Fig. 2, e nesse caso é conhecido como lente gravitacional fraca. Nesse caso, a deflexão da luz é causada por várias massas m distantes da linha de propagação da luz, causando um pequeno desvio da posição da fonte de luz. Embora o desvio seja pequeno, e não seja possível determinar a posição original do astro, é possível observar o padrão de distorção causado pelo meio material entre a fonte e nós, Fig. 2. Esse padrão permite inferir a quantidade de massa gravitacional que existe entre as galáxias sendo observadas e nós na Terra.

Fig. 2: Desenho esquemático de lente gravitacional fraca. A distorção na distribuição foi exagerada para melhor visualização. Imagem da Wikipedia. O lado esquerdo ilustra a imagem sem lente gravitacional, o lado direito com.

Tomografia de lentes gravitacionais

A colaboração COSMOS utilizou um católogo de lentes gravitacionais fracas associado a uma medida do desvio para o vermelho das galáxias na amostra. A distorção da imagem causada pelo campo gravitacional é o que dá informação sobre o conteúdo do universo, e a variação com desvio para o vermelho permite saber como este conteúdo evolui com a distância. O método então permite acompanhar no tempo a evolução da distribuição de massa do universo, e ficou conhecido como tomografia de lentes gravitacionais fracas.

Não é possível, naturalmente, definir qual é a posição exata de cada galáxia devido a distorção da posição causada pela desconhecida distribuição do campo gravitacional, no entanto, é possível obter informação sobre a correlação da distribuição de galáxias, isto é, a probabilidade de se encontrada uma galáxia na posição x, outra ser encontra na posição y. A medida da distribuição da fonte do campo gravitacional em função da distância contém a informação de que há um grande componente na fonte do campo gravitacional que é independente da distância: é a constante cosmológica.

Assumindo que o universo é plano, os dados de COSMOS indicam que no momento mais recente do universo (i.e. para desvios para o vermelho da luz da ordem de um), a densidade de matéria é aproximadamente

\Omega_m = 0.27.

Isso significa que aproximadamente 27% da densidade de energia do universo hoje se encontra na forma de massa com baixas velocidades em comparação a da luz. Como o universo hoje é composto predominantemente por massa e talvez energia escura, sabendo que a soma de todas as densidades de energia é igual a 1 (que é verdade apenas para o universo plano), conclui-se que cerca de 73% da densidade de energia está em forma de energia escura. Permitindo que a geometria do universo não seja necessariamente plana, não é possível extrair um único valor para \Omega_\Lambda, no entanto, é possível demonstrar que os dados implicam que a quantidade

q_0 = \Omega_m / 2 - \Omega_\Lambda

é negativa, logo \Omega_\Lambda não pode ser zero, e portanto o universo é acelerado.

O que ainda não se sabe sobre a aceleração do universo

COSMOS demonstrou que lentes gravitacionais fracas podem ser utilizadas para extrair informação cosmológica útil. O próximo passo é entender a evolução temporal das distribuições de massa do universo e da energia escura. A evolução temporal (se alguma) da energia escura é o que pode nos dizer sua origem física: se ela é uma constante cosmológica, ou se é mais outro campo físico da Natureza.

Mais informações

  1. Tim Schrabback et al., arXiv:0911.0053
  2. Matthias Bartelmann, Peter Schneider, astro-ph/9912508.
  3. Wikipedia

O Prêmio Sakurai de 2010…

terça-feira, 6 out 2009; \41\UTC\UTC\k 41 Deixe um comentário

Eu estava esperando o anúncio do Prêmio Nobel de Física desse ano pra me manifestar… :twisted:

Pra quem não conhece, a APS (American Physical Society) distribui uma série de prêmios anualmente — e esses são bastante importantes. Em particular, o Prêmio Sakurai distingue as principais contribuições em Física de Partículas Teórica.

O Prêmio Sakurai de 2010 diz o seguinte sobre seus ganhadores,

“For elucidation of the properties of spontaneous symmetry breaking in four-dimensional relativistic gauge theory and of the mechanism for the consistent generation of vector boson masses”

(“Pela elucidação das propriedades da quebra espontânea de simetria em teorias de gauge relativísticas em 4-dimensões e do mecanismo para geração consistente das massas dos bósons-vetores.”)

Pra conhecer um pouco mais desse fenômeno e sua importância, uma boa referência é a seguinte: Englert-Brout-Higgs-Guralnik-Hagen-Kibble mechanism. Pra conhecer melhor a história científica por detrás de tudo isso, e poder contextualizar melhor a importância desse trabalho, o seguinte artigo é excelente: History of the Englert-Brout-Higgs-Guralnik-Hagen-Kibble mechanism.

Infelizmente, ainda há muita controvérsia em torno desse assunto, indo desde suas analogias em Matéria Condensada (Eletrodinâmica Escalar e suas relações com Landau-Ginzburg e a explicação da supercondutividade) até o fato de que mutios dos detalhes envolvidos já foram [tacitamente] esquecidos há tempos… não por maldade, apenas por uma questão de que, uma vez que o fenômeno passa a ser entendido, os detalhes que antes bloqueavam sua compreensão passam a ficar relegados ao segundo plano.

Infelizmente, a compreensão necessária pra se destrinchar todas essas controvérsias, é não-perturbativa, e não costuma ser algo que se ensina nos cursos de QFT por aí afora… :cry:

É uma pena muito grande, pois essa história é muito bonita e de fundamental importância pra Física de Partículas, começando com o Modelo de Schwinger e culminando com a Quebra Espontânea de Simetria, passando pelo fato de que não há absolutamente nada na Física atual que obrigue o fóton a ter massa nula (fica a perguntinha capiciosa: “vc sabe provar o por quê disso?” :twisted: ).

Uma parte dessa controvérsia toda tem aparecido bastante na mídia atualmente, por causa da alta probabilidade do Nobel ser dado pra esse tema assim que o LHC encontre o “bóson de Higgs”. Por exemplo, o Ian Sample está escrevendo um livro sobre tudo isso, contanto os pormenores do mundo da Física. Quem quiser ir se divertindo, enquanto o livro não sai, pode dar uma olhada nos seguintes links,

Há muito mais sobre isso espalhado por aí, pelas Internets; mas, não vou ficar fazendo linkfest por aqui. :razz:

O Guralnik conta a história dele no seguinte artigo (o link aponta pro eprint nos arXivs só por uma questão de simplicidade, uma vez que lá é possível se encontrar o link pro artigo publicado): The History of the Guralnik, Hagen and Kibble development of the Theory of Spontaneous Symmetry Breaking and Gauge Particles. Vale muita a pena ler (principalmente quem quiser descobrir a resposta pra perguntinha capiciosa acima :wink: )…

Pra fechar, ainda no tema “Física não-pertrubativa e fora do equilíbrio”, deixo a seguinte entrevista do Roger Penrose (quem quiser um pouco mais, pode dar uma olhada nos videocasts do AP que tem umas palestras bem interessantes do Penrose :twisted: ), Roger Penrose Says Physics Is Wrong, From String Theory to Quantum Mechanics.

Diversão garantida, :cool: !

Buracos negros de laboratório

quarta-feira, 30 set 2009; \40\UTC\UTC\k 40 Deixe um comentário

Analogia em Física

Não é só a boa prática de didática que se vale das analogias. A física também faz bom uso dessa idéia. Você sabia que é possível, por exemplo, estudar as leis de Newton debaixo d’água usando circuitos elétricos? Bom, mais ou menos. Acontece que a equação que descreve a quantidade de carga elétrica presente em um circuito com um capacitor, resistor e uma bobina (um indutor) é a mesma associada ao movimento de uma massa presa a uma mola na presença de um meio que provoca resistência. É claro que os símbolos presentes nessa equação nesses dois casos representam elementos da realidade diferentes. No movimento massa-mola, a função que aparece na equação é a posição da massa, e os coeficientes da equação são dados pela massa, a constante da mola e a viscosidade do fluido. No caso do circuito, a função é carga elétrica no capacitor e os coeficientes estão relacionados a bobina, capacitância e resistência do circuito. Em física se diz que o circuito é um análogo do sistema massa-mola imerso em um fluido.

Mais especificamente, a equação que descreve o movimento de uma massa m presa a uma mola de constante k levando em conta a resistência do fluido é
m\ddot{x} + \beta \dot{x} + k x = 0
Já a carga elétrica Q em um capacitor de capacitância C em um circuito formado por um indutor de indutância L e resistência R satisfaz a equação
L \ddot{Q} + R\dot{Q} + Q/C = 0.

Se as equações são as mesmas, então as soluções das equações também são as mesmas. O objetivo de estudar análogos é encontrar sistemas que são fáceis de serem construídos em laboratórios e suscetíveis ao controle do experimentador que sejam análogos de um sistema difícil de ser estudado em laboratório. Dessa forma, como as equações são as mesmas, isso permite ao menos dar uma confiança indireta, uma evidência, de que se uma certa teoria não foi testada em um certo regime apenas, mas descreve muito bem outros aspectos da Natureza, então se for possível encontrar um análogo que seja fácil de reproduzir em laboratório daquele regime não-testado, será possível ao menos verificar que as soluções matemáticas da teoria de fato admitem (ou não) um determinado comportamento. Se usarmos um circuito para representar uma massa presa a uma mola em um fluido, não seremos capazes de testar se as leis de Newton descrevem corretamente o movimento da massa mas se assumirmos que ela descreve, podemos testar as soluções da teoria de Newton.

Claro que no caso da teoria de Newton essa tarefa é trivial, porque nós podemos testar a teoria de Newton diretamente. Basta colocar uma massa presa a uma mola dentro de um tubo transparente cheio de água e usar um cronômetro para medir o deslocamento em função do tempo da massa. É quando a teoria que temos não nos permite testes em laboratórios que os análogos se tornam realmente importantes.

Construindo buracos negros em laboratórios

Imagem em raios X colorida artificialmente do satélite Chandra da NASA de Sagitário A*, o buraco negro no centro da Via Láctea.

Imagem em raios X colorida artificialmente do satélite Chandra da NASA de Sagitário A*, o buraco negro no centro da Via Láctea.

Um grupo de Dartmouth College nos Estados Unidos, Paul Nation, Miles Blencowe e Alex Rimberg junto com E. Buks de Technion em Israel, mostrou como construir um análogo de um buraco negro. Nesse caso não apenas é possível obter equações análogas ao horizonte de eventos como também o processo de criação de pares de partículas-antipartículas do vácuo que provoca a radiação Hawking! Como a radiação Hawking de buracos negros é muitíssimo fraca, associada a uma temperatura da ordem de 10-10K, é improvável que seja possível medi-la diretamente e logo análogos se tornam preciosos.

O análogo proposto pelo grupo funciona da seguinte forma. Primeiro, você considera uma série de vários elementos de circuitos supercondutores em série chamados de SQUIDs. Esses elementos são usados para medir variações minúsculas em campos magnéticos, campos que podem ser tão pequenos quanto 10-18 T — para uma comparação, o campo magnético da Terra é da ordem de 50×10-6 T. Além disso, você passa um pulso eletromagnético de microondas que vai se propagar através da cadeia de SQUIDs. Se você tiver um número suficientemente grande de SQUIDs em cadeia — da ordem de 2 mil –, você pode aproximar a equação que descreve a variação da corrente ao longo do circuito por uma equação que descreve algo parecido com uma onda. Uma vez que temos uma equação desse tipo, é possível escreve-la em uma forma que representa a equação de movimento de um campo escalar na presença de um campo gravitacional. Isso é possível graças ao fato de que, devido ao princípio da equivalência, um campo gravitacional é equivalente a uma geometria do espaço e do tempo. Sendo assim, quando você escreve a equação de movimento de uma onda em um dado espaço-tempo, essa equação vai depender da geometria — o movimento da película vibrante de um tambor depende se você curva ou não o material. Paul Nation mostrou que essa equação de onda para a corrente elétrica no circuito interpretada como a equação de um campo escalar na presença de um campo gravitacional, coincide com uma “fatia” da equação de um campo escalar na presença de um buraco negro. Essa fatia corresponde a coordenada do tempo como medido por um observador que cai em direção ao buraco negro.

É o pulso eletromagnético que se propaga ao longo da cadeia que define o “horizonte de eventos”. Nesse caso, as flutuações quânticas do campo eletromagnético permitem a criação de um par de fótons que acompanha o pulso. Esse par de fótons que se propagará ao longo da cadeia representa o análogo da radiação de Hawking.

Infelizmente ainda não é possível montar o equipamento proposto porque até o presente momento o número máximo de SQUIDs que podem ser colocados em cadeia é da ordem de centenas. Aparentemente é impossível no presente momento construir uma cadeia tão comprida quanto a necessária para realizar a idéia (não me pergunte por quê…).

Uma vantagem imediata da realização do circuito de SQUIDs é que a temperatura da radiação Hawking produzida é da ordem de 100 mK, e como SQUIDs são operados a poucos mK, o efeito é muito superior a qualquer flutuação térmica presente no circuito, o que é importante porque a radiação Hawking é quase-térmica, portanto difícil de ser distinguida a qualquer temperatura maior que a temperatura do buraco negro. Como é igualmente possível medir os dois fótons da radiação (o que está fora do horizonte e o que está dentro), é possível distinguir experimentalmente o sinal da radiação Hawking de um sinal espúrio fazendo medidas correlacionadas de dois fótons com a mesma freqüência. Isso permite descriminar claramente a radiação Hawking de qualquer outro fenômeno térmico ocorrendo no material.

Além disso, o grupo notou que existe um limite controlável do experimento em que a fase de propagação da onda através da cadeia pode tornar-se quântica. Em última análise, todo o sistema é descrito pela mecânica quântica, mas mantendo um certo limite sobre as freqüências utilizadas, é possível manter o valor do fluxo do campo magnético através do SQUID essencialmente clássico. Isso corresponde em termos da mecânica quântica a manter a dispersão do valor médio do fluxo do campo muito pequena em comparação ao valor do campo. Mas se essa dispersão (a flutuação quântica) for próxima ao valor médio, a aproximação clássica deixa de valer e as correções da mecânica quântica se tornam relevantes. Dessa forma é possível reintroduzir flutuações quânticas no parâmetro que define a equação de onda que é o análogo do campo gravitacional. Assim, é possível introduzir um análogo de flutuações quânticas do campo gravitacional e testar a robustez do cálculo de Hawking (que despreza as flutuações quânticas do campo gravitacional). Isso no sentido de que é possível parametrizar livremente o tamanho dessas flutuações e responder a seguinte pergunta: podem os desconhecidos efeitos quânticos da gravitação alterar substancialmente a validade da conta da radiação Hawking? Se sim, quão grande esses efeitos devem ser para invalidar o tratamento clássico do campo gravitacional? Essas são ambas perguntas bem interessantes para entender melhor a gravidade.

Posts relacionados:

A Física da Psicologia Humana

quinta-feira, 24 set 2009; \39\UTC\UTC\k 39 6 comentários

Talvez interesse para vocês, principalmente para os nossos leitores que são professores colegiais de física — ou mesmo quem quer falar de física para o público –, essa seguinte palestra do Steven Pinker


The Stuff of Thought, áudio MP3 na iTunes U, grátis, The RSA, 1h25min.

onde ele fala logo no início, entre outras coisas, sobre a física da psicologia humana.

O que é, exatamente? Entende-se hoje que o comportamento humano é o produto da evolução das espécies. Todos os animais superiores são dotados de instintos natos que constituem um conjunto de teorias físicas do mundo. Para ilustrar, vou usar dois outros exemplos diferentes da palestra (que você encontra no Como a Mente Funciona do Pinker), e que não estão ligados a linguagem. O primeiro é a conservação da massa. Todo mamífero tem escrito no cérebro essa suposição sobre a matéria. Quando Bambi vê uma leoa distante andando perpendicularmente a sua linha de visão e a imagem da leoa é obstruída por uma rocha, Bambi sabe que há um leão atrás da rocha, mesmo que esse tenha desaparecido do campo de visão. Essa é uma suposição básica sobre o universo que os mamíferos inteligentes fazem. O cérebro dos animais superiores foi dotado dessa suposição porque aqueles que não a tinham ficavam despreocupados quando um predador se escondia e consequentemente eram presa mais fácil. O DNA associado a esse comportamento foi portanto desfavorecido na população. Outro exemplo é a lei da gravitação. Quando um humano se encontra na beira de um precipício, o cérebro automaticamente reconhece o perigo e injeta na corrente sangüínea (não ligo para você novo acordo ortográfico!) os hormônios necessários para reação adequada: os movimentos musculares são drasticamente desacelerados, de fato, podem até congelar por um tempo. Essa injeção hormonal é involuntária, não depende se você já aprendeu ou não a lei da gravidade na escola: o cérebro pressupõe que objetos não permanecem no ar sem sustentação. A origem evolutiva do medo inato de altura é bem óbvia.

As leis físicas supostas pelo cérebro humano não precisam ser corretas ou precisas. Elas são o produto direto de tentativa e erro da evolução. Aprendendo qual é a física da psicologia, os psicólogos podem testar a teoria mostrando situações a seres humanos em que a física da psicologia é explicitamente violada. Os mais notórios exemplos são as ilusões de óptica. Como a imagem que se forma na retina é bidimensional, informação do mundo tridimensional é perdida. Ainda assim, o cérebro reconstrói a informação de profundidade. Isso só é possível porque há uma série de suposições sobre a propagação de raios de luz (perspectiva) e conservação da massa. Violar parte desses pressupostos permite aos psicólogos criar parte das ilusões ópticas (existem ilusões de óptica de outros tipos, como aquelas associadas a tentativa do cérebro de preencher padrões da região de visão central na visão periférica).

Nessa palestra da RSA, e também no livro homônimo (no Brasil: Do que é feito o pensamento, Cia. das Letras), Pinker explora como uma análise cuidadosa da gramática das línguas revela alguns desses pressupostos que o cérebro humano faz sobre o mundo. É a física da psicologia e da linguagem.
Eu deixo o Pinker falar sobre parte do que eles tem apreendido sobre o comportamento humano. Um dos aspectos interessantes da palestra é a observação de que, na gramática, tempo é tratado “como uma dimensão do espaço”. Isso remete a construção da linguagem com base em analogias, coisa que o Pinker explora brevemente no Como a Mente Funciona (e explica nessa palestra também).

Ao ensinar física newtoniana, eu creio que as explorações dessa área da psicologia podem ser interessantes para alunos de colégio, para verem como a física é útil em outras ciências de uma forma inusitada. Porque nesse caso não é que modelos matemáticos da física estão sendo usados para descrever o disparar de um neurônio, e sim a noção de teorias físicas entra para entender alguns dos aspectos do comportamento humano. :)

O problema da seta do tempo

segunda-feira, 7 set 2009; \37\UTC\UTC\k 37 18 comentários

Por que podemos ir da esquerda para a direita, mas não temos acesso ao passado? Por que girar um objeto no espaço não causa os mesmos paradoxos que imaginar matar o seu avô?

O problema da seta do tempo é um dos mais célebres problemas fundamentais da Física. Ele deve ter sido percebido pela primeira vez na mecânica de Newton, quando notou-se que tipicamente os sistemas mecânicos conhecidos admitem uma inversão temporal. O que isso quer dizer? Se temos a equação de Newton,

\mathbf{F}(\mathbf{v},\mathbf{x},t) = m\mathbf{a}

e uma de suas soluções

\mathbf{x}(t) = \boldsymbol{\gamma} (t)

então temos automaticamente outra solução:

\mathbf{x}(t) = \boldsymbol{\gamma} (-t)

Isso significa que a equação de Newton não consegue distinguir passado do futuro: se eu tenho uma solução que leva uma condição inicial x_0, v_0, t_0 em x,v,t, é também solução do sistema percorrer o trajeto de x,v, t até x_0, v_0, t_0.

A primeira lei da Natureza descoberta que faz diferença entre passado e futuro é a segunda lei da Termodinâmica, quando enunciada da seguinte forma:

Se considerarmos um sistema físico em equilíbrio, i.e. estamos olhando para um conjunto de observáveis desse sistema X que independem do tempo, então existe uma função S convexa dos valores dessas variáveis tal que se permitimos um ou mais elementos do conjunto X variar, o sistema atingirá equilíbrio novamente de tal forma que S é um máximo com respeito aos valores acessíveis de X.

O que essa afirmação quer dizer é o seguinte. Suponha que você tem um gás dentro de um recipiente de volume total V. Nós dizemos que o volume acessível ao gás é V. O gás poderia ocupar um volume menor, porque não existe nada impedindo isso de acontecer (nenhum vínculo). Existe um vínculo que impede o gás de ocupar um volume maior que V que são as paredes do recipiente. A segunda lei da Termodinâmica diz que o gás ocupará um volume V’ que deve ser tal que a função S(V) é um máximo em V’ dado o vínculo de que V' \leq V. Para um gás, S(V) \propto \log V, então é possível mostrar que o máximo de fato ocorrerá para V' = V. Para resolver esse problema de maximização, é necessário introduzir uma variável extra, conjugada ao volume V, que é conhecida como multiplicador de Lagrange. Essa variável é o que se chama a pressão.

A segunda lei da Termodinâmica é na verdade uma afirmação mais forte que a que eu coloquei nesse texto, mas para o problema da seta do tempo, as demais propriedades da função S não me importam. E é isso mesmo que você está pensando, S é a entropia.

Por que essa lei parece ter algo a ver com a seta do tempo, se em Termodinâmica não existe a variável tempo? É porque se uma vez você permite S aumentar de valor, então os estados com entropia menor agora são fisicamente inacessíveis devido a convexidade de S. Por exemplo, uma função convexa é o logarítmo, então se supormos que para um gás S(V) = \log(V) , uma vez que o volume acessível ao gás V satisfaça V \leq V', o gás sempre será encontrado ocupando um volume V’, e nunca menor.

Durante as décadas de 1860 e 1870, Ludwig Boltzmann e Josiah Willard Gibbs começaram a conectar a termodinâmica com as leis da mecânica, dentro da disciplina que se chamou a Física Estatística. A peça chave para fazer essa conexão foi proposta por Boltzmann. Mas hoje em dia nós entendemos o significado dessa peça chave graças ao trabalho de Edwin Jaynes. Felizmente já há um bom post de blog sobre isso aqui. Boltzmann mostrou que aquela quantidade de informação total contida na descrição de um sistema satisfaz

- \frac{d}{dt} H( \{p_i\}) = -\frac{d}{dt} \sum_i p_i \log p_i \geq 0

Esse é o celebrado Teorema H. Esse teorema hoje pode ser demonstrado de forma genérica como conseqüência direta da mecânica quântica. É tentador identificar a quantidade acima como a entropia, e mais ainda, concluir que o problema da seta do tempo está resolvido porque o teorema supostamente nos diz que a entropia sempre aumenta no tempo. Porém, isso é incorreto em diversos níveis, de diferentes formas.

Uma inconsistência, a mais famosa, foi apontada pelo colega e professor de Boltzmann, Johann Loschmidt. Suponha que existe uma solução da equação de Newton para os constituintes do sistema que leva-o do estado i para o estado f, e suponha que a entropia só depende do estado do sistema, então se S(f) > S(i) e se existe reversibilidade temporal, há uma solução da mesma equação de Newton que leva o sistema de f para i e portanto viola a segunda lei da Termodinâmica. Não há violação do teorema H, e sim da segunda lei da Termodinâmica, pois o teorema H também admite que a informação perdida de um sistema diminua no tempo (ao invés de crescer) se você permite reversibilidade temporal na mecânica. Isso deveria ser óbvio do fato de que você pode tomar dt \rightarrow -dt. Isso levou Loschmidt a apontar que o teorema H não é equivalente a segunda lei da Termodinâmica.

O mito de que a segunda lei da Termodinâmica pode ser “provada” a partir de uma mecânica reversível continuou. Em 1971, E. T. Jaynes encontrou a recíproca do paradoxo de Loschmidt: é possível satisfazer a segunda lei da Termodinâmica e violar o teorema H.

O paradoxo de Loschmidt pode ser facilmente generalizado para a mecânica quântica. Se temos um sistema no tempo t_i descrito por uma matriz de densidade \rho_i e em t_f por \rho_f e uma evolução temporal que satisfaz o teorema H que leva o sistema do estado inicial \rho_i para o estado final \rho_f, supondo que existe um operador anti-unitário anti-linear T que representa a ação t \rightarrow -t, então ao aplicar T a equação do teorema H obtemos uma solução que leva T \rho_f T^{-1} como estado inicial para T \rho_i T^{-1} como estado final. Se de fato a entropia é uma função de estado, uma dessas soluções do teorema H viola a segunda lei da Termodinâmica.

Portanto, infelizmente, nós não podemos compreender a irreversibilidade da Termodinâmica sem assumir uma seta do tempo nas leis microscópicas da física. Isso é um indicativo, em outros, de que o problema da seta do tempo não é um efeito macroscópico.

Existe uma discussão moderna sobre o problema da seta do tempo que tenta transferir esse problema a uma natureza puramente de condição inicial. Você vai encontrar por ai a afirmação de que se for possível explicar porque o universo começou em um estado de “baixa entropia”, então “segue da física de Boltzmann” que o universo aumenta entropia. Naturalmente que isso é incorreto, baseado na idéia falsa de que a segunda lei da Termodinâmica do aumento da entropia pode ser de alguma forma derivada da mecânica. Além do fato que me parece incorreta essa afirmação por causa disso, como fica claro da construção da entropia feita por Jaynes, esta quantidade é “subjetiva” no sentido de que ela não depende do sistema mas de uma escolha de descrição de quem faz inferências estatísticas. O que eu quero dizer com isso é que se eu de fato fosse resolver a evolução temporal do sistema em toda sua glória, eu não precisaria da física estatística para obter a entropia do sistema e aplicar o princípio de maximização da entropia para saber o estado final. Há outra falha que posso apontar, que é a de que a segunda lei da Termodinâmica só é válida quando o número de partículas e o volume do sistema físico é “grande”. É possível demonstrar matematicamente que a probabilidade do sistema ser encontrado em estados que violam a segunda lei da Termodinâmica tende a zero no limite que o número de partículas vai a infinito, mas se você não tomar esse limite, pode existir uma probabilidade não-nula e observável de violar a segunda lei da Termodinâmica. Isso naturalmente só ocorre para sistemas mesoscópicos e microscópicos, onde já se espera que a Termodinâmica não seja válida. Ainda assim, é possível definir passado e futuro, sem se preocupar com o fato de que eventualmente a entropia pode espontaneamente descrescer.

No presente momento não há nenhuma explicação para a natureza da seta do tempo. Também não é possível traduzir o problema em termos de condições iniciais ou de contorno. Todas essas idéias de reduzir o problema da seta do tempo a entropia ou outras coisas na verdade abriga o nosso preconceito de raciocinar em termos de passado e futuro, o próprio conceito que estamos tentando explicar.

Por que a equação de Newton é de segunda ordem?

quinta-feira, 3 set 2009; \36\UTC\UTC\k 36 1 comentário

Edição 04/09: pequenas correções no texto para ficar mais claro e preciso.

Uma pergunta teórica interessante sobre sistemas físicos é entender porque a lei de Newton é uma equação para a aceleração de um móvel e não para, digamos, a taxa de variação da aceleração. É claro, uma resposta é que é um fato empírico: o modelo matemático em que determinamos a aceleração através da equação de Newton sabendo apenas a posição e velocidade é consistente com tudo que se observa na Terra e astronomicamente. Todavia, será que há alguma razão física mais profunda para a lei de Newton ser a determinação da aceleração? Ou dito de outra forma, se permitimos a segunda lei de Newton depender de taxas de variações de aceleração, ou quem sabe ainda da taxa da taxa de variação da aceleração, etc., será que algum princípio físico que prescinde a lei de Newton, como a causalidade, seria violado?

Hoje em dia sabe-se que é possível ver a lei de Newton como conseqüência do fato de que há uma certa função da posição e da velocidade, L(\mathbf{x},\mathbf{v}), cuja área total do gráfico em função do tempo t é tal que a lei de Newton é satisfeita quando essa área é a menor possível, dada a posição inicial e final do móvel — i.e. o que se chama o princípio de mímina ação. Se incluirmos nessa função L também a aceleração, podemos obter uma lei de movimento que determina a variação da aceleração em função da posição, velocidade, aceleração e do tempo. É possível desenvolver uma mecânica análoga a de Newton dessa forma. Aparentemente, foi o matemático russo Mikhail V. Ostrogradsky em 1850 o primeiro a considerar esse tipo de sistema físico. Ele percebeu que assim que alguém permite a entrada da aceleração como variável e não determinada em função da posição e velocidade, a energia do sistema pode ser tão negativa quanto se queira. Por exemplo, uma massa presa em uma mola de constante de Hooke k é descrita pela função L dada por

L = \frac{1}{2}mv^2 - \frac{1}{2}kx^2

Podemos considerar como um exemplo de modificação da lei de Newton o sistema

L = \frac{1}{2}mv^2 - \frac{1}{2}kx^2 - \frac{1}{2}\epsilon^2 a^2

onde a é a aceleração, e poderíamos pensar que como a segunda lei de Newton funciona muito bem, o termo de aceleração em L é “pequeno” de alguma forma. Mas isso não dá certo, porque a energia desse sistema será dada por

E = p_x v - \frac{1}{2} (p_v/\epsilon)^2 -\frac{m}{2}(1+\omega^2)v^2 + \frac{m}{2}\omega x^2

onde p_v e p_x são os momenta associados a posição e velocidade. O momento da variável posição não é proporcional a velocidade nesse caso. Como você pode ver, tomar o limite de \epsilon \rightarrow 0 não é a mesma coisa que obter de volta a forma da lei de Newton onde \epsilon = 0 (Não dividirás por zero! Também é possível ver isso na solução x(t) que depende de \epsilon através de \cos(t/\epsilon)). Nós não podemos enxergar aquela aceleração como uma pequena correção a lei de Newton: ao permitir que ela entre na nossa lei de mecânica como uma variável, estamos mudando radicalmente as leis da Natureza. Em especial, essa energia E pode ser tão negativa quanto se queira, já que p_v^2 é positivo e pode ser qualquer valor (eu posso dar um chute inicial tão grande quanto eu quiser para a massa). Para esse caso de um oscilador harmônico isso pode parecer um fato inofensivo, porém se transferirmos essa conseqüência para um sistema físico como a órbita de um planeta ao redor de uma estrela onde a energia pode ser tomada como negativa, a inexistência de um mínimo para energia significa que o móvel vai continuamente perder energia potencial para ganhar energia cinética, ou em outras palavras, entrará em moto perpétuo (extraindo indefinidamente energia potencial) ou eventualmente colapsará no centro de força (o planeta cai na estrela).

Outra forma de ver o que está acontecendo, é saber que a 2a lei da Termodinâmica pode ser enunciada da seguinte forma: dados os vínculos que um sistema físico tem que satisfazer, como o número de partículas, volume e entropia dados, o sistema repousará no estado em que a energia interna é mínima como função dessas variáveis vinculadas. Sendo assim, a existência de um mínimo para a energia dos constituintes da matéria é uma exigência da Termodinâmica. Podemos dizer que a segunda lei de Newton é uma lei para a aceleração porque se fosse de outra forma, ela seria inconsistente com a segunda lei da Termodinâmica (aplicada aos constituintes da matéria)! (Atenção! Estou me arriscando aqui, pois não vi esse tipo de afirmação na literatura. Mas eu acho que está certo, embora possa estar sendo precipitado…)

A ausência de um limite inferior para a energia também trás outros problemas ligados a causalidade quando passamos a considerar a própria lei da força, por exemplo, quando incluímos as leis de Maxwell na brincadeira (em outras palavras, passamos a aplicar o mesmo raciocínio da função L da mecânica para a função L que determina as leis do eletromagnetismo ou da gravidade). Nesse caso, a existência de um mínimo é o que garante que a aceleração de um móvel no instante t só depende de sinais emitidos em instantes anteriores (ou de sinais posteriores, mas essa segunda solução das equações é fisicamente inaceitável). Sem esse mínimo, você pode ter um movimento que depende do passado e do futuro. Dirac encontrou esse tipo de problema ao tentar calcular a reação da força eletromagnética que um elétron produz em si mesmo — quer dizer, a força que o campo elétrico do próprio elétron realiza sobre ele — porque essa depende de volta da aceleração do elétron.

Entrando agora em uma linguagem um pouco mais técnica, o que ocorre é que ao adicionar a aceleração como variável, estamos incrementando o número de graus de liberdade. Na segunda lei de Newton, para cada partícula em 3 dimensões espaciais há 6 graus de liberdade: as coordenadas espaciais e as três componentes da velocidade. A aceleração é determinada imediatamente se você tem essas 6 variáveis através da segunda lei de Newton. Se agora a aceleração também pode variar, o número de graus de liberdade sobe para 9, e é a taxa de variação da aceleração que é determinada por alguma lei de força em função das demais. Essa observação também nos permite voltar a essas teorias com acelerações e poder desenvolver uma técnica que dá sentido físico a elas!

Usando aceleração como um parâmetro pequeno

Para poder usar a aceleração como um parâmetro pequeno na lei de força, é necessário evitar introduzir um novo grau de liberdade. A forma de fazer isso só foi descoberta em 1986 (vide ref. abaixo). Vamos chamar o L normal de Newton (que só depende da posição e velocidade) de L^{(0)} e o pequeno termo de aceleração que deseja-se adicionar de L^{(1)}. Para não introduzir um novo grau de liberdade, deve-se resolver a aceleração em função de posição e velocidde usando L^{(0)} e então inserir essa solução em L^{(1)}. Pode-se continuar esse procedimento a qualquer ordem agora, i.e. posso introduzir a taxa de variação da aceleração na teoria usando uma certa L^{(2)} usando a solução dessa taxa obtida de L^{(0)} + L^{(1)}, e assim por diante. Dessa forma, é possível construir uma lei de força que ainda mantém a estrutura da lei de Newton F = ma, porém a própria força contém a aceleração e talvez até outros termos. Esse procedimento livra a teoria de todas aquelas insanidades de instabilidade de energia, impossibilidade de tomar o limite \epsilon \rightarrow 0, e violação de causalidade (no caso das teorias de campo).

No exemplo da massa presa a mola, o que deve ser feito é substituir a no termo \epsilon a^2 com a solução do movimento massa-mola a = - (k/m)x:

L = \frac{1}{2}mv^2 - \frac{1}{2}kx^2 - \frac{1}{2}\epsilon^2 (k/m)^2 x^2

Como se pode ver, o efeito de adicionar a aceleração é agora corrigir o valor da constante da mola de k para (1+ k \epsilon^2 / m^2) k . A solução continua sendo o movimento oscilatório massa-mola, e podemos colocar \epsilon = 0 para obter a lei de força de Hooke.

Esse procedimento não é ad hoc. Na verdade, ele é a forma correta de realizar essa conta se você quer construir uma teoria que aproxima de volta a teoria de Newton, como vimos, devido ao fato de que só assim você pode tomar o limite de remover a aceleração e obter a teoria de Newton. É também a forma de preservar a existência de valor mínimo da energia.

Também é possível mostrar o seguinte. Vamos supor que você tem uma teoria para L que não tem nenhum problema de mínimo de energia ou causalidade e que pode ser resolvida exatamente em certas condições, mas que ao fazer uma certa aproximação nessa teoria você obtém uma série de potências na aceleração e suas taxas de variação. Um exemplo concreto de teoria assim é uma conhecida como a teoria de Feynman-Wheeler (vide ref abaixo para os detalhes se quiser). É possível mostrar que ao considerar a teoria aproximada, a solução só reproduz de volta a solução exata (na mesma ordem de aproximação) se você aplicar essa técnica de remover graus de liberdade espúrios.

Agora, um comentário técnico. Eu sei que esse assunto dos problemas de teorias com derivadas mais altas que a primeira no tempo não é amplamente conhecido porque há por ai na literatura coisas interessantes como o tal modelo Lee-Wick, que é um exemplo desse tipo de teoria mas onde o Wise et al. não removem os graus de liberdade espúrios. Pelo contrário, eles mantém esses graus de liberdade lá o tempo inteiro, só que esses são associados a partículas “confinadas” (que só aparecem em loops) e por isso não seriam, em princípio, observáveis. Eu suspeito que isso não resolve o problema, porque nesse caso você viola as regras canônicas de comutação do campo observável já que por consistência você tem que ter [ \phi, \dot{\phi}] = 0.

Citation Needed
Para quem sabe o que é uma Lagrangeana, tudo que falei acima foi muito superficial. Então toma: Jonathan Z. Simon, Phys. Rev. D41, 3720 – 3733 (1990) online.

Seguir

Obtenha todo post novo entregue na sua caixa de entrada.

Junte-se a 67 outros seguidores

%d blogueiros gostam disto: