Arquivo

Archive for outubro \31\America/New_York 2008

O apoio da ciência a Barack Obama

sexta-feira, 31 out 2008; \44\America/New_York\America/New_York\k 44 12 comentários

Um fenômeno interessante está ocorrendo no cenário científico internacional: vários profissionais e instituições estão publicamente se manifestando a favor do candidato a presidência dos Estados Unidos Barack Obama, mesmo aqueles não residentes nos EUA. Ontem, a revista Nature declarou suporte ao candidato. A revista é britânica, e segundo Sean Carroll, é a primeira vez que ela apoia um candidato a presidência dos EUA. O primeiro parágrafo do editorial diz:

O valor da investigação científica, e não uma posição da política científica em particular, sugere uma preferência para o candidato à presidência dos EUA.

Em 23 de agosto deste ano, 61 prêmios Nobel de física, química e medicina, residentes dos EUA, escreveram uma carta aberta em apoio ao candidato Obama, na qual dizem:

O país urgentemente necessita de um líder visionário que pode garantir o futuro de nossos tradicionais pontos fortes em ciência e tecnologia e que pode fazer uso destas forças para atacar vários dos nossos principais problemas: energia, doenças, mudança climática, segurança e competitividade economica. (…) Nós observamos a postura do senador Obama nestes assuntos com admiração.

Em 29 de outubro, a carta foi atualizada para conter a assinatura de 76 laureados. Entre os físicos que assinaram a carta, encontram-se: Murray Gell-Mann, Sheldon Lee Glashow, David Gross, Frank Wilczek, Yochiro Nambu, Philip Anderson, Leon Cooper, James Cronin, Val Fitch e Walter Gilbert, pilares da ciência moderna. Gell-Mann fez ele próprio um vídeo no YouTube:

Além disso, é público que os blogueiros do Cosmic Variance estão alinhados com Obama, são eles pesquisadores de instituições como CalTech, Stanford, Los Alamos, Washington University, Syracuse University, Pennsylvania University e outros.

Há várias razões para esse suporte. John McCain e Sarah Palin já fizeram comentários criticando gastos com ciência e educação. Já Obama defende publicamente mais gastos nessas áreas. O partido Republicano, nos últimos 8 anos na Casa Branca, diminuiu o suporte a ciência, redirecionou dinheiro da NASA de pesquisa científica para projetos supérfluos de viagens espaciais tripuladas e permitiu que decisões sobre legislação científica, como o uso de embriões para extração de células-tronco ou o ensino de educação sexual nas escolas, que deveriam ser feitas com base em dados técnicos, fossem contaminadas por lobby religioso.

A eleição de 2008 nos EUA tem uma importância para a ciência que transcende o território norte-americano. Os EUA responde por muito do investimento em pesquisa, e uma retirada de investimentos, ou legislações que impeçam estudos, tem um impacto global.

Micromotivos e macrocomportamento, parte I

sexta-feira, 31 out 2008; \44\America/New_York\America/New_York\k 44 5 comentários

Escolhendo como título o nome do livro famoso de um laureado pelo prêmio Sveriges Riksbank de Ciências Econômicas em Memória de Alfred Nobel [1], Thomas Schelling [2], pretendo discutir um pouco a minha área de pesquisa recente: modelagem quantitativa em ciências sociais e economia. Apesar de parecer um assunto novo, esse tipo de modelagem é na verdade bastante antigo, remontando a  Pierre de Laplace, Thomas Malthus,  David Ricardo, passando por Léon Walras, John Von Neumann e companhia. Essa é no entanto uma área de modelos bastante primários e ainda muito qualitativos. Ao longo desse período de história da modelagem quantitativa de fenômenos sociais houve um diálogo intenso (e negligenciado pelos dois lados)  com a física, particularmente a termodinâmica e a nascente mecânica estatística no final do século XIX. Ao longo das últimas duas décadas essa relação se intensificou novamente e o paradigma da mecânica estatística passou a integrar um programa de pesquisa em ciências sociais e economia com a criação de modelos microscópicos para diversos aspectos como dinâmica de opiniões, tráfego de automóveis,  negociações no mercado financeiro e outros.

A mecânica estatística é a área da física que lida com a ponte entre a dinâmica microscópia dos constituíntes da matéria e as observações macroscópicas que fazemos sobre ela. Por exemplo ela é capaz de, assumindo-se as leis de Newton para o movimento das moléculas de um gás, mostrar que as propriedades macroscópicas do mesmo devem satisfazer certas equações de estado (por exemplo a famosa lei dos gases ideias PV = nRT). É importante notar que essa ponte é feita admitindo-se um certo grau de ignorância sobre o estado microscópico do sistema e a forma correta de se fazer isso é associar uma distribuição de probabilidades aos possíveis estados microscópicos.

O primeiro problema na direção de um modelo estatístico para problemas economicos deve ser então identificar qual é a dinâmica microscópica – a forma com que cada agente economico se move no espaço de configurações. Para as moléculas dos gases temos leis newtonianas de movimento, para partículas menores temos a mecânica quântica. O que temos para pessoas tomando decisões de consumo e poupança, empresas tomando decisões de produção, governos intervindo e bancos decidindo taxas de empréstimo?

Nesse ponto é que paramos para a primeira grande crítica a esse tipo de modelagem. Partículas microscópicas não são conscientes, não aprendem, não tomam decisões racionais nem usam critérios objetivos para mover-se. São diferentes das pessoas. São mesmo? A história da modelagem das decisões economicas começou no século XIX com Léon Walras, Vilfredo Pareto e uma analogia com a mecânica. Walras criou uma teoria de equilíbrio, em analogia com o equilibrio mecânico. Claro que ninguém está propondo que pensemos nas partículas como pequenos seres racionais, mas a analogia com a mecânica e com a termodinâmica levou os economistas a admitir a idéia de que decisões racionais são tomadas através de problemas otimização (maximização de lucros, minimização de custos, etc.).

Na teoria microeconomica neoclássica as pessoas agem segundo escalas de preferência ordenadas através de um função chamada Utilidade. Construiu-se um modelo segundo o qual as pessoas agem para maximizar uma função que diz quão “felizes” elas estão com a decisão que tomaram, sujeito a vínculos que dependem das decisões das outras pessoas. A evolução dessa linguagem levou à construção do modelo de agente econômico ubíquo: o chamado Homo economicus, um agente ultra-racional, capaz de maximizar uma função  utilidade complicada de diversos parâmetros e escolher dentre todas as estratégias a que mais lhe traz benefício. Esse agente ideal tem poder computacional infinito e completo conhecimento de seu espaço de possíveis estratégias.

Esse modelo, apesar de ter bem servido à economia por um século, passou a ser questionado através de problemas em que era claro que, mesmo que houvesse um agente com esse grau de racionalidade, não há estratégias ótimas a se seguir diante da limitada informação disponível ao agente. Um desses modelos é o El Farol Bar. Hoje há modelos de agentes economicos tendem a ser mais realistas e focam-se na capacidade de aprendizado e desenvolvimento de estratégias “on-the-fly”, trocando o agente ultra-racional por um com racionalidade limitada.

Mas mesmo que nos mantenhamos no problema de agentes ultra-racionais, ainda resta a pergunta: como ligamos os modelos microscópicos de maximização de utilidade ao comportamento macroscópico da economia? Nesse campo a análise economica ofereceu poucas respostas. Há poucos estudos teóricos [3] anteriores à década de 90 por exemplo sobre quais são as propriedades de uma economia de escambo de duas mercadorias com muitos agentes neo-clássicos – que maximizam a utilidade em cada transação atingindo um equilíbrio local de Pareto. Os livros clássicos de microeconomia tratam de um problema com dois agentes e os de macroeconomia usam esses resultados para tirar conclusões globais (!). Hoje em dia é um exercício trivial simular isso em computador, mas esse é um problema que  deve ter solução analítica – não passa de um gás de agentes que quando se chocam trocam mercadorias conservadas segundo uma regra de espalhamento bem definida com taxas de transição conhecidas ainda que a regra de maximização de utilidade seja razoavelmente relaxada.

Depois desse blablablá todo (parece mesmo que estou virando economista: em dois posts usei apenas uma equação, e a mais simples que eu conheço :P), permita-me ao menos deixá-los com um tira gosto. No meu próximo post vou comentar um pequeno modelo com solução analítica em que se pode ilustrar o uso de agentes com racionalidade limitada e uma agregação que remete à mecânica estatística – apesar das analogias imperfeitas. É um pequeno modelo de decisão de tráfego, baseado no jogo da minoria. Apesar do contexto diferente, é um modelo que possui claras analogias com problemas de decisão binária que podem ser observadas no mercado financeiro (comprar ou vender?) e que possui a característica fundamental de que o agente gostaria de estar sempre na minoria.

Notas:

[1] Com freqüência denominado erroneamente de Nobel de Economia.

[2] Micromotives and Macrobehavior, Thomas Schelling.

[3] Talvez o problema não seja a escassez de resultados teóricos, mas uma falta de capacidade minha de encontrá-los.

Update:

Dias atrás o físico Jean-Phillipe Bouchaud, professor da École Polytechnique, na França, Chairman do fundo de investimentos francês CFM e pioneiro em pesquisa na interface entre economia e física estatísica escreveu um ensaio para a revista Nature apontando a necessidade desse tipo de modelagem:  Economics need a scientific revolutionNature 455, 1181 (30 October 2008).

Primeiro Videocast do AP…

quinta-feira, 30 out 2008; \44\America/New_York\America/New_York\k 44 18 comentários

Respeitável Público… é com orgulho que no melhor esquema panis et circenses eu apresento a vcs o primeiro videocast do AP — espero que vcs gostem e se divirtam! 😈

Piso Salarial de professores

quinta-feira, 30 out 2008; \44\America/New_York\America/New_York\k 44 2 comentários

O Governo Lula recém aprovou um piso salarial, minguado, para professores e os governadores já mostram os dentes, atacando a dignidade de quem dedica a vida para educar.

Se queremos o sucesso da ciencia brasileira, temos que atrair jovens lá no ensino fundamental e médio com educação de boa qualidade, que passa também pela boa remuneração do professor.

Categorias:Ars Physica Tags:

Miguel Nicolelis online no Roda Viva, nessa quarta, 29/10, às 10h15

terça-feira, 28 out 2008; \44\America/New_York\America/New_York\k 44 3 comentários

O Leandro já escreveu um post aqui no Ars Physica sobre o professor Miguel Nicolelis, Brasileiro pode levar Prêmio Nobel, importante neurocientista brasileiro e um dos líderes do Instituto Internacional de Neurociências de Natal, indicado ao prêmio Nobel de Medicina esse ano. Nessa próxima quarta, 29/10, às 10h15, o professor Nicolelis vai ser entrevistado no Roda Viva, da TV Cultura. Vocês poderão acompanhar vídeos da entrevista e bastidores, um chat com espaço para perguntas dos espectadores da Internet, fotos dos bastidores e 3 usuários de Twitter comentando a entrevista, eu (@everton137), o Rafael Evangelista (@r_evangelista) e a Caru Schwingel (@caru), no seguinte endereço

http://www.radarcultura.com.br/rodaviva

Vocês também poderão acompanhar todos twits sobre a entrevista pelo sistema de buscas do twitter, procurando por rodaviva. Aliás, como podem notar, o debate já começou! 🙂

A entrevista irá ao ar na TV Cultura dia 10 de novembro, dia mundial da ciência pela paz e pelo desenvolvimento.

Vou tirar algumas fotos para colocar no meu Flickr e vou twittando pelo celular a partir do momento que estiver indo lá. É isso, nos vemos lá!

P. S. Em tempo, o Twitter aqui do Ars Physica é  @brasilciencia. 😉

(Atualizado dia 29/10 às 16h30: adicionada data da apresentação na TV e foto do Nicolelis)

Comparando transições de fase em TQC e sistemas estatísticos

terça-feira, 28 out 2008; \44\America/New_York\America/New_York\k 44 7 comentários

Não tem um seminário de altas energias que você vai que não se fale em fases de uma teoria quântica de campos. E nem mais só nos de teoria. Depois que pessoal de física nuclear começou a fazer experimentos de colisão de íons então tudo que se houve, mesmo nos seminários mais “aplicados”, é sobre fases de teoria quântica de campos.

Eu não vou negar que acho o assunto interessante, mas mal consigo entender o que é essa fase. Fases, nesse sentido, são bem entendidas em sistemas estatísticos. Quando atingimos o limite termodinâmico, o espaço de fase do sistema se divide em regiões em que os microestados podem ficar um tempo indeterminado: são as fases ergódicas da teoria. Em cada uma dessas regiões, o potencial termodinâmico é uma função analítica das suas variáveis. Uma descrição interessante de como acontece a transição de fase foi desenvolvida por Yang e diz respeito aos zeros da função partição. Num sistema finito, esses zeros estão sempre fora do eixo real, só que quando vamos atingindo o limite termodinâmico, os zeros podem ir se condensando em torno do eixo real e se você conseguir mostrar que no limite eles tocam no eixo, eis sua transição de fase. Para quem quiser ler:

Yang, Lee. Statistical Theory of Equations of State and Phase Transition, PR 87, pg 404-419 (partes I e II)

Em alguns sistemas que são completamente integráveis dá para ver isso acontecendo, em particular, um caso que todo mundo estuda é o modelo de Ising… impressiona qualquer aluno (ou pelo menos me impressionou).

Aí a gente se pergunta: o que teorias quânticas de campos tem a ver com isso? Bem, TQC também tem uma função partição parecida com sistemas estatísticos e nada te impede de procurar os zeros dela. Tem gente que faz isso. Pode-se inclusive perfeitamente pensar em estudos numéricos. Estudo numérico aqui pode significar séries perturbativas, mas esse tipo de estudo é complicado para transições de fase, porque você nunca pode chegar no ponto da transição. Sobre estudos numéricos, tem algumas vantagens para TQC e tem algumas vantagens para sistemas estatísticos: as séries perturbativas em sistemas estatísticos costumam convergir, as de TQC não. Por outro lado, sistemas estatísticos não admitem o mesmo tipo de expansão “de alta temperatura” que os de TQC (fora os sistemas definidos em redes, como o de Ising, por sinal). Os potenciais realísticos de sistemas estatísticos não tem nem transformada de Fourier. O que é comum fazer em sistema estatístico é estudar expansões na “densidade” (como as séries do virial e de Mayer).

E aí eu chego na questão, sobre a qual nada sei, mas que acho interessante: quais são os microestados de uma teoria quântica de campos? Isso não é conhecimento de “curso” de TQC. Se há uma fase é de se esperar que haja microestados. Acho que a forma tradicional de ver isso é considerar que o “lugar natural” de uma TQC é numa rede (lattice QFT) e daí tomar um limite termodinâmico no mesmo estilo de sistemas estatísticos. Não sei se isso é tão natural para mim, fiz poucas coisa de lattice QFT na minha vida até hoje e talvez seja simplesmente falta de conhecimento.

Você também ouve por aí pessoas falando que o microestado dos campos quânticos seriam as supercordas. Eu também não sei como entender essa frase (mas se alguém souber e quiser me explicar nos comentários eu agradeço). Eu sei que a teoria de supercordas eluciodou, por exemplo, os estados microscópicos da gravitação, como no caso do entropia do buraco negro calculada por Strominger e Vafa (e as diversas correções que as pessoas já calcularam depois deles). É também verdade que o mesmo sistema que é fonte de campo gravitacional é fonte de campos de gauge em outro limite da teoria, e desse estudo que nasceu a famosa conjectura AdS/CFT. Mas eu não sei se é nesse sentido que as pessoas falam.

Bem, é um post com mais “não sei” do que sei. Espero que no futuro eu possa rir dele. 😛

A Crise e os fundos no Brasil

domingo, 26 out 2008; \43\America/New_York\America/New_York\k 43 2 comentários

Em um post recente do Daniel sobre a crise, ele comentou sobre como os fundos quantitativos (chamados por ai de quants) americanos estão se saindo na crise atual.

Estes fundos existem no Brasil, apesar de serem muito recentes e em baixa quantidade. Na contagem atual existem sete fundos quantitativos no Brasil, e a maioria deles ainda são muito pequenos (ou seja, a maior parte ainda está com menos de 100 milhões em administração). Mas vale a pena dar uma olhada como as coisas tem saído para eles, e como elas poderão ficar no futuro.

No mes de outubro, a média dos maiores fundos nacionais foi de -256% do CDI (mensal), deixando a média pouco acima do CDI no ano (só 0,42%). Isso mostra como a situação está crítica ao longo dos últimos meses, com uma volatilidade média de 7%.

Podemos então observar como os fundos quantitativos tem se saído: Escolhendo três fundos quantitativos nacionais, a média de rendimento está em 130 % do CDI, com uma volatilidade de 3%a 4 %.  E diferentemente dos fundos tradicionais, não tiveram uma mudança de regime ao longo das ultimas semanas, que causou grandes perdas nos fundos tradicionais.

O grande problema dos fundos quantitativos nacionais é que, por serem muito novos, não administram uma grande quantidade de recursos. Com esse resultado, é de se esperar que atraiam mais atenção do público, mas ainda sofrem um preconceito de serem fundos comandados por ‘maquinas’.

Glossário

CDI: Certificado de Depósito Interbancário. Títulos emitidos por bancos como forma de captação o aplicação de recursos. É a taxa utilizada como referencia por operações financeiras. Por esse motivo fundos medem seu desempenho como uma porcentagem em relação ao CDI do periodo.

Fundo Quantitativo: Fundo de Investimento que utiliza estratégias de maior complexidade matematica para decisões de como aplicar na bolsa. 

Volatilidade: Desvio Padrão da série de retornos do fundo.

Gravidade d=3 [3]

domingo, 26 out 2008; \43\America/New_York\America/New_York\k 43 1 comentário

Antes de começar a falar de como podemos descrever essa teoria, vamos entender porque vale a pena estudar ela.

Primeiramente é uma teoria que tem as mesmas bases da Relatividade Geral em d=4, mas com muito menos graus de liberdade, como vimos anteriormente. Na verdade, não temos graus de liberdade locais. Com isso, os únicos graus de liberdade da teoria são os graus de liberdade globais. É ai que a mágica ocorre: com esses poucos graus de liberdade, um efeito que veremos mais para frente se justifica: A equivalencia entre os difeomorfismos e as simetrias globais da teoria. Então um dos grandes problemas da gravidade em d=4, que é a construção de observaveis invariantes por difeormofismos, não existe mais. Ou seja, nós podemos construir uma teoria de gravitação quantica em d=3.

Com essa teoria, apesar de ser muito mais simples que a Gravitação em d=4, podemos agora estudar aspectos fundamentais da teoria: Transições topológicas, problemas do tempo etc…. E com isso ter uma compreensão maior de como seria essa teoria de gravitação quantica em d=4.

Giroscópio (Física Divertida)

domingo, 26 out 2008; \43\America/New_York\America/New_York\k 43 9 comentários

Inspirado em uma das brilhantes e divertidíssimas aulas do Prof. Walter Levin, que você pode assistir em vídeos disponibilizados pelo MIT, no site do MITOCW, baixar no iTunes, ou mesmo assistir no youtube; falarei de um divertido “brinquedo”, que na verdade possui inúmeras aplicações, tendo como original aplicação o auxílio em navegações (veja mais sobre giroscópios aqui).

Abaixo a aula do Prof. Levin disponibilizada no youtube

A parte da aula na qual o tema giroscópio é abordado começa em 14:40 (eu recomendo assistir a aula inteira, excelente!). Note que quando o eixo da roda segurada em mãos é mudado, imediatamente surge uma força de oposição, tornando difícil continuar a girar o eixo da roda (sistema).

Abaixo um vídeo rápido que ilustra o experimento apresentado na video aula anterior (os vídeos não são relacionados):

Primeiramente lembremos o que seria o produto vetorial. Quando fazemos o produto vetorial entre dois vetores \vec A e \vec B obtemos um terceiro vetor \vec C perpendicular aos dois vetores anteriores. O módulo desse vetor é dado por

C = ABsen\theta

Onde A e B são os módulos dos vetores \vec A e \vec B, e \theta o ângulo entre esses vetores. Antes de começarmos a discutir o modelo para o experimento mostrado nos vídeos anteriores, falaremos de torque. No dia-a-dia aplicamos torques em diversas ocasiões, quando abrimos uma porta, quando subimos em uma escada apoiada em uma parede, quando usamos uma chave-de-fenda para desparafusar alguma coisa, etc. Podemos dizer que o torque mede a tendência de colocarmos objetos a girar, quando aplicamos uma força \vec F em um determinado ponto, à uma distância r (chamada braço) de um ponto de referência, de modo que o módulo do torque seja dado por

\tau = rFsen\theta

Torque causado por uma força F. Repare que a intensidade do torque depende do "braço de aplicação" da força, e do ângulo deste com a força aplicada. Note que o módulo do torque é máximo quando a força aplicada for perpendicular ao braço.

Torque causado por uma força F. Repare que a intensidade do torque depende do "braço de momento", e do ângulo entre este e a força aplicada. O módulo do torque também depende do ângulo formado entre estes dois vetores, sendo máximo quando a força aplicada for perpendicular ao braço.

Precisamos também de outro vetor importante, também um momento, que é associado à rotação, o chamado momento angular, esse vetor será especialmente difícil de justificar sem conceitos aprendidos no ensino superior, mas podemos tentar justificar de maneira razoável, o que seria fisicamente esse vetor.

O grande conflito é deixar de lado a concepção de que velocidade angular é um escalar, como apontado na grande maioria dos livros de ensino médio, na verdade é um vetor sempre perpendiular à velocidade tangencial e ao raio, como pode ser visto na figura abaixo.

Velocidade angular, perpendicular ao raio do movimento circular, e à velocidade tangencial.

Velocidade angular, perpendicular ao raio do movimento circular, e à velocidade tangencial.

O momento angular é uma grandeza importante, ainda mais quando ela for conservada (de maneira análoga ao momento linear), de forma que possamos explorar as simetrias do problema. A definição do momento angular é dada por

\vec L = \vec I \cdot \vec \omega

Onde \vec I é o momento de inércia\vec \omega é a velocidade angular. Vale ressaltar que que para um sistema de muitas partículas pontuais, o momento angular total é igual à soma dos momentos angulares de cada partícula constituinte do sistema analisado. Outra maneira de representar o momento angular é da seguinte maneira

\vec L = \vec r \times \vec p

Onde \vec p é o momento linear, e \vec r é a distância do momento à origem. Agora podemos começar a descrição do experimento realizado nos vídeos acima. Abaixo uma figura ilustrativa do problema.

A figura ilustra o modelo teórico para o experimento, uma roda de massa M, e raio R. O braço de tamanho r é fixado ao centro geométrico da roda (centro), e a roda é considerada homogênea, de modo que seu centro geométrico coincida com seu centro de massa.

A figura ilustra o modelo teórico para o experimento, uma roda de massa M, e raio R. O braço de tamanho r é fixado ao centro geométrico da roda (centro), e a roda é considerada homogênea, de modo que seu centro geométrico coincida com seu centro de massa.

A roda de massa M e raio R, é fixada ao braço de comprimento r, bem em seu centro. Consideramos a distribuição de massa do sistema como sendo homogênea, e desprezamos a massa do suporte no qual a roda é fixada, de maneira que o centro de massa do sistema coincide com o centro da roda.

As forças atuando no sistema quando a roda é colocada a girar com velocidade angular constante, são, seu peso atuando verticalmente, e que causa um torque, em relação ao ponto P, que faz com que a roda despenque, e o momento angular, perpendicular à roda, causada devido à rotação da mesma.

A primeira análise do sistema ilustrado pela figura acima deve causar espanto, pois a força peso aos olhos desatentos é a única atuando no sistema, de modo que seja impossível que a roda permaneça girando, entretanto, observamos que isso realmente acontece, nos experimentos mostrados nos vídeos, por quê?

A resposta vem abaixo, na verdade não existe força resultante na vertical, pois um torque atuando no ponto P, de mesma intensidade que o peso Mg da roda permite que ela permaneça girando sem despencar. Veja ilustração abaixo

Sistema em equilibrio, a roda da bicicleta permanece girando sem despencar, pois um torque de mesma intensidade que a força peso Mg da roda é aplciada no ponto P, de modo que a resutlante das forças seja nula no sistema na direção vertical.

Sistema em equilíbrio, a roda da bicicleta permanece girando sem despencar, pois um torque de mesma intensidade que a força peso Mg da roda é aplicada no ponto P, de modo que a resultante das forças seja nula no sistema na direção vertical.

Já demos uma motivação para um modelo no qual a roda possa permanecer girando sem despencar, mas e como explicar a rotação no plano horizontal (precessão)? Essa discussão não é tão simples, mas é muito interessante. O aluno interessado deve assistir à aula-video do Prof. Levin, onde poderá ver que a frequência de precessão \omega_{pr} é dada por

\omega_{pr} = \frac{Mgr}{I\omega}

Analisando a equação acima, podemos perceber que quando o torque é aumentado a frequência de precessão aumenta, e se o momento angular aumentar a frequência de precessão diminui. O momento angular pode ser variado, se mudarmos a distribuição de massa do sistema, ou se mudarmos a velocidade angular (de giro) da roda. O período de precessão é dado pela seguinte relação, já conhecida pelos bons alunos de ensino médio

T_{pr} = \frac{2\pi}{\omega_{pr}}

Eu não vou estragar o prazer de vocês interessados alunos de verem a brilhante discussão que o Prof. Walter Levin faz. Ele explica a precessão da roda, e as “forças que surgem” quando ele tenta segurar a roda, depois que ela é posta a girar e tem seu eixo levemente  rotacionado. Já adianto que tem a ver com a conservação do momento angular, o sistema tem a tendência de permanecer girando, e quando rotacionamos seu eixo, essa tendência surge como uma força de oposição à que estamos fazendo.

Uma referência bibliográfica que recomendo a leitura é a do volume 1 de Feynman Lectures in Physics, seções 20-2 à 20-4. Na verdade recomendo ler os três volumes inteiros! 😉

Um pouco de história da física

sábado, 25 out 2008; \43\America/New_York\America/New_York\k 43 23 comentários

O Leonardo falou do prêmio que C. Becchi, A. Rouet, R. Stora e I.V. Tyutin vão receber pela descoberta da simetria BRST. É verdade que seria interessante um post sobre o que é essa simetria, um dia eu faço. Por enquanto, vou contar um pouco da história. Acho que é sempre instrutivo saber como essas coisas aconteceram. Antes de mais nada, para quem tiver interesse, os trabalhos originais foram publicados em:

Becchi, Rouet e Stora. Phys. Lett. 52B, CMP 42, Ann. Phys. 98

Tyutin. Int. report FIAN 39 (não publicado), Theor. Math. Phys. 27

A. Rouet foi um dos primeiros alunos de doutorado de R. Stora, no ano de 1970, em Marseille. A idéia deles era usar o método de BPHZ1 em teorias de gauge, mas ninguém conhecia as identidades de Ward2 direito naquela época. Depois de um ano no CERN em 1973, Rouet e Stora publicaram umas notas com Itzykson onde eles basicamente refizeram o trabalho de Slavnov entendendo melhor a ação dos fantasmas3 nas teorias de gauge. Durante esse ano no CERN, eles conheceram C. Becchi que também estava interessado no método de BPHZ e convidaram-no a passar um ano em Marseille (74). Durante esse ano, Becchi, lendo as notas que Rouet e Stora tinham feito, percebeu que a identidade de Slavnov4 era linear, o que indica que é uma simetria. Como todo esse pessoal tinha aprendido TQC com Schwinger e Symanzik, rapidamente Becchi e Rouet introduziram fontes para as variações dessa simetria chegando na forma atual da simetria de BRST.

Os três, a partir daí, começaram a trabalhar com teorias de gauge abelianas, o modelo de Higgs-Kibble, e eles mostraram em 1974, usando os método que desenvolveram, que a física era independente da fixação de gauge. Pouco tempo depois, mostraram a unitariedade da teoria5. Mais tarde, depois de algumas semanas em Saclay, os três entenderam como a consistência de Wess-Zumino6 advinha quase que imediatamente da nilpotência da simetria de BRST e demonstraram a anomalia ABBJ para um grupo arbitrário.

A partir daí, outras pessoas entram na história. Em particular Zinn Justin, que após ler o trabalho do Ann. Phys, entendeu rapidamente como a simetria foi descoberta para o gerador de funcionais de Green conexos e introduziu e aplicou a mesma idéia aos geradores de funcionais de Green 1PI7 chegando ao que hoje é conhecido como formalismo de BV8.

Tyutin, como aconteceu com muitos trabalhos desenvolvidos no Leste Europeu (e na Ásia), teve seu trabalho despercebido por algum tempo pelo ocidente. E, depois que ele percebeu que o trabalho de BRS já havia sido publicado, não teve muito interesse em publicar de novo9, partindo para estudar modelos não-abelianos e publicando em 1976 o trabalho sobre a simetria de BRST aplicada ao modelo de Higgs em SU(2)10. A simetria de BRST por sinal, até não muito tempo atrás, era conhecida simplesmente por simetria BRS.


Notas:

  1. BPHZ é um método sistemático de renormalização de teorias quânticas de campos.
  2. Identidades de Ward são relações entre quantidades renormalizadas em teorias de gauge. Elas dão origem a cancelamentos quase “milagrosos” que tornam essas teorias mais bem comportadas do que aparentam em princípio.
  3. Escrever teorias quânticas como teorias de gauge é na verdade, uma forma redundante de escrevê-las, apesar de útil. Os fantasmas são uma forma conveniente de lidar com essas redudâncias.
  4. Hoje essas identidades são conhecidas como Slavnov-Taylor, mas eles não conheciam o trabalho de Taylor na época.
  5. Existem diversas razões teóricas para se escrever teorias com simetria de gauge (veja nota 3). Uma delas é que é a única forma de se manter invariância de Lorentz com campos vetoriais sem massa. Outra é que elas são as únicas unitárias para esse tipo de campo. Agora, tem gente que não gosta nem de simetria de Lorentz nem de unitariedade… vai entender.
  6. São equações que determinam a forma das anomalias da teoria. Anomalias são simetrias que existem classicamente mas que deixam de existir na teoria quântica.
  7. A relação entre as duas é um transformada de Legendre funcional.
  8. Zinn Justin escreveu \Gamma * \Gamma em vez do \left[\Gamma,\Gamma\right] de BV.
  9. Naqueles dias, na União Soviética, você precisava de autorização do governo para publicar um artigo. Então, no fundo, não era só uma questão de querer.
  10. O que não é desprezível, já que a força da simetria BRST aparece mesmo nas teorias não-abelianas.

Pinça óptica para professores do colégio

sábado, 25 out 2008; \43\America/New_York\America/New_York\k 43 2 comentários

Atualização 07/12/08: referência adicionada.

Professores são provavelmente confrontados constantemente com “para que serve isso?” em sala de aula. Há uma boa resposta, e um assunto extra-classe muito interessante, para o tópico de óptica: a pinça óptica.

 

Manipulação de partículas com luz

A pinça óptica foi proposta em 1970 e realizada 16 anos mais tarde por Arthur Ashkin, do Bell Labs, e é um instrumento relativamente simples: um feixe de laser monocromático é focalizado pela objetiva de um microscópio (Fig. 1 a). No ponto focal, há um enorme gradiente de intensidade do feixe de laser, e como resultado, a pressão da luz pode manter uma partícula dielétrica presa no centro do foco. A luz pode segurar partículas de tamanho da ordem de 1 \mu\text{m} até ~ 5 nm, e exercer forças da ordem de 10-12 N = pN. Com uma câmera colocada no ponto de visualização do microscópico, é possível filmar o movimento da partícula presa na armadilha.

Principio de funcionamento da pinça óptica.

Fig. 1: Princípio de funcionamento da pinça óptica. Laboratório de Steve Block, Stanford University³.

imagens tipicas de uma pinça óptica.

Video 1: imagens típicas de uma pinça óptica. Clique na imagem para ver o vídeo

O vídeo 1 mostra as imagens típicas que podem ser obtidas1. Naquela experiência, esferas de poliestireno de 250 \mu\text{m} de raio são manipuladas por uma série de várias armadilhas ópticas. É possível obter várias armadilhas usando um único feixe laser combinando o esquema básico com hologramas, técnica conhecida por pinça óptica holográfica.

A pinça óptica como instrumento científico se tornou muito importante, com descobertas na biofísica, matéria condensada e nanofabricação. Entre os exemplos de descobertas permitidas por essa técnica, encontram-se2,3:

  1. medidas precisas e diretas das forças exercidas pelas bactérias nas soluções em que vivem para sua locomoção, que permitiu estudar quantitativamente as nanomáquinas celulares responsáveis por esse fenômeno;
  2. a determinação dos detalhes do mecanismo de clivagem do DNA e da sua transcrição para RNA mensageiro;
  3. isolamento de nanomáquinas na célula e estudos de como estas se comportam mecanicamente, tais como as máquinas responsáveis pelo transporte de organelas e produção de ATP;
  4. a primeira medida direta das forças macromoleculares em soluções que levou a descoberta de novas formas de interação entre partículas coloidais e estudo da violação da segunda lei da termodinâmica;
  5. a possibilidade de manipular diretamente macromoléculas com a pinça permite forçar reações químicas mecanicamente para fabricação de nanoestruturas (Fig. 2);

Vamos considerar um exemplo com mais detalhe. Estudos com a pinça óptica revelaram como as organelas são transportadas nas células8. Há uma proteína, chamada cinesina, que se afixa aos microtúbulos de um lado e do outro à organelas ou macromoléculas como lipídios para realizar o transporte desses componentes no citoplasma celular. O vídeo 2 ilustra como a proteína realiza o trabalho9. Estes estudos são possíveis afixando a cinesina a uma esfera dielétrica e então manipulando o movimento da esfera com a pinça óptica.

Escultura nanométrica fabricada com pinça óptica. Esta escultura tem detalhes de até ~ 100 nm.

Fig. 2: Escultura nanométrica fabricada com pinça óptica2. Esta escultura tem detalhes de até ~ 100 nm.
Animação descrevendo o mecanismo de transporte da cinesina nas células. Clique na imagem para ver o video.
Vídeo 2: Animação descrevendo o mecanismo de transporte da cinesina nas células. Clique na imagem para ver o vídeo.
 

Usando óptica geométrica para explicar o funcionamento da pinça

O interesse da pinça óptica para a sala de aula é que 1) é simples de ser exemplificada, 2) o fenômeno pode ser justificado utilizando ótica geométrica colegial combinada com conservação do momento.

Observe a Fig. 1 b. Como a luz carrega momento, ao sofrer um desvio de sua trajetória há uma mudança em momento que corresponde a uma força atuando sobre o objeto — é a pressão da luz. Em uma armadilha óptica típica, o laser possui um perfil gausseano de intensidade, com pico no centro do feixe. Quando o feixe laser passa por um dielétrico, ocorre refração. A força resultante pode ser decomposta nas componentes x e z do plano de refração (Fgradient e Fscattering na Fig. 1b, que se traduz respectivamente por força gradiente e força do espalhamento). A força gradiente cresce na direção do centro do feixe, e em primeira aproximação é dada pela lei de Hooke. Se a força de espalhamento dos feixes refletidos é bem menor que a dos refratados, há também uma força elástica restauradora na direção x dando origem a armadilha óptica. É necessário ajustar finamente os parâmetros experimentais para que a armadilha exista.

Demonstrações detalhadas da origem da força são inacessíveis ao nível colegial, mas vale a pena comentá-las. É possível fazer cálculos usando eletromagnetismo na aproximação da óptica geométrica para calcular a força da pinça4. Um método mais simples é utilizar a aproximação de dipolo para o dielétrico, como feito no livro do J. D. Jackson5. É também possível analiticamente ir além da aproximação harmônica6.

E para um colégio com recursos financeiros para laboratórios de física, é possível construir uma pinça óptica capaz de prender esferas dielétricas milimétricas7. Um experimento como este é, admitidamente, mais interessante para um curso final de física experimental universitária, porque os alunos podem 1) ajustar dados do movimento das esferas para extrair a lei de Hooke do feixe de luz, 2) verificar a validade da relação entre o coeficiente de difusão e temperatura (a relação de Einstein da teoria cinética) e 3) estudar o teorema de flutuação-dissipação da mecânica estatística. O arranjo didático já se tornou popular nos cursos universitários avançados de física experimental nos Estados Unidos.

Então, você professor, próxima vez que alguém reclamar na aula de ótica que o assunto parece inútil, mostre com a pinça óptica como há muita física, biologia e engenharia que pode sair da mente de quem aprendeu física direitinho 😉

Referências

  1. S. C. Chapin, V. Germain, E.R. Dufresne. Optics Express, 14 13095 (2006) [online]
  2. D. G. Grier, Nature 424 (2003) [online]. Para um artigo mais recente e sintético, veja este J. Mameren Optical tweezers: where physics meets biology, Physics World Nov. 13, 2008.
  3. Optical Tweezers: An introduction, Steve Block’s Lab.
  4. A. Ashkin, Biophys. J. 61:569-582 (1992) [online]; W. H. Wright, G. J. Sonek, M. W. Berns, Appl. Phys. Lett. 63, 715 (1993).
  5. Wikipedia: Optical tweezers: the electric dipole approximation.
  6. P. A. Maia Neto, H. M. Nussenzveig, Europhys. Lett. 50:702-708 (2000) [online]; A. Mazolli, P.A. Maia Neto, H. M. Nussenzveig, Proc. Royal Society Math. Phys. and Eng. Sci., 459 2040 3021-3041 (2003).
  7. Stephen P. Smith et al., Am. J. Phys. 67:1, 26-35 (1999); J. Bechhoefer, S. Wilson, Am. J. Phys. 70:4, 393-400 (2002); R. Pastel et al., Am. J. Phys. 68:11, 993-1001 (2000). Estes artigos também são interessantes por discutirem o uso educacional das pinças ópticas.
  8. S. M. Block, L. S. B. Goldstein, B. J. Schnapp, Nature 348:348-35 (1990); S. C. Kuo, M. P. Sheetz, Science 260:5105, 232-234 (1993).
  9. Cf. R. A. Milligan para mais detalhes. O vídeo usa renderização de cristalografia de raios X. Várias técnicas de física são utilizadas para entender a cinesina, além da pinça óptica, tais como pontos quânticos e cristalografia de raios X.

BRST ganha prêmio de Física Matemática

quarta-feira, 22 out 2008; \43\America/New_York\America/New_York\k 43 2 comentários

Carlos Becchi, Alain Rouet, Raymond Stora e Igor Tyutin — BRST — receberão ano que vem o Prêmio Dannie Heineman de Física Matemática da Sociedade Norte-americana de Física (APS), um dos prêmios mais prestigiados da física teórica (veja a lista dos laureados). Alguns dos colaboradores desse blog conhecem muito bem este trabalho 😉

Os quatro são responsáveis por descobrir uma simetria que leva o nome deles dentro das teorias quânticas de gauge, que incluem o Modelo Padrão da física de partículas como exemplo, e mais tarde generalizada para teorias de campo gravitacionais e teorias de cordas. A importância da simetria BRST é que ela permite um método sistemático para escrever uma teoria quântica consistente partindo de uma teoria clássica que possui vínculos — como aqueles que se aprende no primeiro contato com mecânica Lagrangeana. A técnica permitiu uma demonstração elegante e completa da renormalização das teorias de gauge por Becchi, Rouet e Stora, mais tarde generalizada por I. A. Batalin e G. A. Vilkovisky em termos de um formalismo útil para analisar a renormalizabilidade de qualquer teoria de campo. A simetria BRST levou a várias outras descobertas teóricas técnicas.

Ano que vem também receberá o prêmio Sakurai de física teórica de partículas R. Keith Ellis,
Davison E. Soper e John C. Collins pelos seus vários trabalhos dos cálculos perturbativos da QCD para experimentos de altas energias que permitiram estudar e testar em detalhes a QCD e teorias efetivas de hádrons, tais como a teoria efetiva de quarks pesados (conhecida pela sigla HQEFT, que rendeu o prêmio Sakurai a seus descobridores, Wise e Isgur, em 2001).

A lista completa dos ganhadores dos Prêmios da APS de 2009 está disponível aqui.

FísMat 2009 – I Escola de Verão em Física dos Materiais

terça-feira, 21 out 2008; \43\America/New_York\America/New_York\k 43 2 comentários

A FísMat 2009 é uma atividade extracurricular destinada a universitários dos cursos de física, ou química ou engenharia de materiais que desejam adquirir conhecimentos avançados em física aplicados ao estudo de materiais no estado sólido. Ocorrerá entre 08 a 13 de fevereiro de 2009.

Temas

  • Nano(micro)materiais
  • Polímeros e nanotecnologia
  • Materiais cerâmicos
  • Materiais vítreos
  • Caracterização por raios X
  • Técnicas de análise térmica
  • Ressonância magnética nuclear
  • Espectroscopia dielétrica/impedância
  • Ressonância paramagnética eletrônica
  • Luminescência
  • Espectroscopia UV-VIS
  • Espectroscopia vibracional

Inscrição e seleção

A inscrição deve ser realizada somente através deste site: http://www.fismat.ifsc.usp.br/

A seleção dos alunos será realizada por meio da análise do histórico escolar (enviar o completo, também conhecido como “sujo”) e das cartas de recomendação (máximo duas). Se possível, enviar informações adicionais como publicações, participação em congressos, bolsas, etc.

Os alunos selecionados receberão um e-mail de confirmação do aceite da inscrição; a partir do qual deverão efetuar o pagamento da taxa de inscrição.

Taxa de inscrição

O valor da taxa de inscrição é de R$ 50,00 (cinqüenta reais).

Vagas

A I Escola de Verão em Física dos Materiais 2009 terá 50 vagas.

Apresentação de pôster

Durante a Escola haverá uma seção de pôster em que os participantes poderão apresentar os resultados de seus trabalhos de pesquisa em andamento. A apresentação não é obrigatória, mas os interessados são estimulados a participarem. Para inscrever o pôster basta fazer o upload do resumo durante a inscrição online.

Melhor pôster

O melhor pôster apresentado na FísMat  receberá um prêmio especial. Uma comissão de professores fará a avaliação.

Concurso de fotografia

Os participantes são fortemente encorajados a enviar imagens (máximo de duas) no tema materiais, de seu trabalho de pesquisa ou do laboratório em que está vinculado. As imagens podem ser de microestruturas, simulações, gráficos, cristais, vidros, processamento, técnicas especiais, etc., e devem ser enviadas em formato jpg ou tif, no tamanho máximo de 2Mb. Para cada imagem enviada será necessário acrescentar um pequeno texto explicativo. As duas melhores imagens receberão um prêmio especial. Para inscrever as imagens basta fazer o upload durante a inscrição online.

Organização

Antonio Carlos Hernandes (IFSC – USP) – Centro Multidisciplinar para o Desenvolvimento de Materiais Cerâmicos

Mais informações em http://www.fismat.ifsc.usp.br/

Comentário

Esse post é apenas para divulgar esse curso, que recebi por email. Mas gostaria de fazer um observação. Há alguns anos, durante minha graduação, participei de alguns cursos de verão/inverno no IFT e IFUSP, campus Butantã, e não havia taxa de inscrição. É comum esses cursos de verão cobrarem alguma taxa? Poderiam citar exemplos de outros institutos dizendo se cobram taxa de inscrição e para que serve?, No momento, no site não há nenhum informação se a taxa é para ajudar com hospedagem, alimentação, transporte ou prêmios, por exemplo. Acho bom alguém enviar um email para o contato deixado para saber esse tipo de informação, hernandes@ifsc.usp.br

Não quererendo desmerecer o curso, nem possíveis habilidades artísticas dos estudantes, mas não é meio estranho um concurso de fotografia entre físicos?

Coloquei essas questões num tópico do orkut.

Que surjam mais e mais cursos extra-curriculares nos institutos brasileiros! Podem ser muito úteis para orientar jovens estudantes ao escolher temas de pesquisa e orientadores.

Categorias:Physics Tags:, ,

Quebra Espontânea de Simetria em Mecânica Clássica

terça-feira, 21 out 2008; \43\America/New_York\America/New_York\k 43 18 comentários

Como o tema do prêmio Nobel desse ano foi “Quebra de Simetria”, e um dos laureados foi o Yoichiro Nambu, por: “for the discovery of the mechanism of spontaneous broken symmetry in subatomic physics” nós vamos falar um pouco sobre isso usando um exemplo de Mecânica Clássica. O Leonardo já falou um pouco sobre isso no post Prêmio Nobel de Física de 2008, e o caso de Quebra Espontânea de Simetria (QES) em Mecânica Clássica acabou sendo um pouco comentado na parte de comentários desse post.

Antes de começar é bom lembrar que quebra espontânea de simetria e todos os outros vácuos da teoria de Yang-Mills-Higgs são propriedades quânticas. O que queremos aqui é fazer uma analogia para explicar alguns conceitos que aparecem na literatura de física moderna. Como toda analogia, ela terá seus limites de aplicabilidade e isso deve estar sempre na mente do leitor, mas esperamos conseguir expor os conceitos num nível básico. Quase tudo será acessível a um (bom) aluno de ensino médio. No final, faremos alguns comentários mais avançados.

Modelos Mecânicos com Quebra Espontânea de Simetria

Vamos analisar dois modelos mecânicos em que há quebra espontânea de simetria: O primeiro é o de uma conta num aro que está girando com velocidade angular \omega; o segundo é de uma conta numa haste rígida que está ligada a uma mola.

Conta num aro circular

Modelo prototipico da analogia do vácuo das teorias quânticas.

Modelo prototípico da analogia do vácuo das teorias quânticas.

No referencial em que o aro está em repouso, haverá duas forças agindo sobre a partícula: a força da gravidade (não representada acima, mas tomada como uniforme) e a força centrífuga característica de referenciais não inerciais. Podemos estão escrever a energia potencial efetiva sob a qual a partícula estará sujeita como:

V_{\mathrm{efetivo}}=\frac{1}{2}mR^2\sin^2\theta\omega^2+mgR(1-\cos\theta)

onde m é a massa da conta e g é a aceleração da gravidade. O primeiro termo é o potencial da força centrífuga e o segundo o potencial da força da gravidade. A forma desse potencial efetivo varia dependendo da velocidade angular \omega. O nosso leitor, bom aluno de ensino médio, pode facilmente verificar que para \omega^2 < \frac{g}{R} o potencial tem a seguinte forma:

A escala vertical é arbitrária, mas a horizontal mede \theta. Chamamos de vácuo, em teoria quântica de campos, um ponto de mínimo do potencial. Veja no gráfico acima que temos um vácuo em \theta=0. Perceba ainda que se a conta estiver parada sobre ele há uma simetria no problema: ir para a esquerda ou para a direita é equivalente.

Agora vamos considerar a forma do potencial se \omega^2 > \frac{g}{R}:

Veja que surgiram dois pontos novos de vácuo! E mais do que isso, o vácuo que antes era estável se tornou instável, ie, ele deixou de ser um vácuo verdadeiro. Note que agora, quando a partícula está num desses vácuos estáveis, não há mais a simetria esquerda-direita: se ela for para um lado ela vai descer, se ela for para o outro ela vai subir. Dizemos então que houve uma quebra de simetria.

Conta oscilante numa haste

Considere um conta numa haste rígida e ligada a uma mola de constante elástica k como na figura abaixo:

Sistema mecânico de uma conta numa haste fixa.

Sistema mecânico de uma conta numa haste fixa.

A mola tem um comprimento natural l, então a energia potencial da mola é:

V(x) = \frac{1}{2}k \left( \sqrt{a^2 + x^2} -l\right)^2.

Para minimizarmos a energia potencial, encontrando os pontos de equilíbrio (estáveis e instáveis), precisamos considerar dois casos: a<l e a>l.

Caso a>l

Para o caso a>l temos um único ponto que minimiza a energia potencial, o ponto x_0 = 0, e analisando a derivada segunda da energia potencial em relação a x no ponto x_o vemos que:
\frac{d^2 V(x)}{dx^2}\Big|_{x=x_0} > 0, i.e., x=x_o é um ponto de equilíbrio estável para a>l. O gráfico de V(x) para este caso é:

Gráfico de V(x) para a>l.

Gráfico de V(x) para a>l.

É interessante notar que a energia potencial mínima neste caso é: E_0 = \min \left( V(x) \right) = \frac{1}{2}k(a-l)^2.

Caso a<l

Para o caso a<l temos três pontos que extremizam a energia potencial V(x): x_0 = 0 e x_{\pm} = \pm \sqrt{l^2 - a^2}. Da mesma forma que fizemos no caso a>l, vamos analisar a estabilidade destes pontos de equilíbrios. Calculando a derivada segunda de V(x) obtemos:
\frac{d^2 V(x)}{dx^2}\Big|_{x=x_o} < 0 e \frac{d^2V(x)}{dx^2}\Big|_{x = x_{\pm}} > 0, i.e., o ponto de equilíbrio x_0 é instável e os pontos x_{\pm} são de equilíbrio estável. O gráfico de V(x) para este caso é:

Gráfico de V(x) para a<l.

Gráfico de V(x) para a<l.

A energia potencial mínima para este caso é: E_0 = \min \left( V(x) \right) = 0.

O estado de menor energia no caso a>l possui a simetria por reflexão x \to -x, enquanto que para o caso a<l essa transformação não deixa o sistema invariante, não é uma transformação de simetria. Há uma quebra de simetria da mesma forma que no modelo mecânica anterior da conta num aro circular.

Analisando a energia potencial mínima em função do parâmetro a, E_0 (a), vemos que há uma descontinuidade na segunda derivada \frac{d^2 E_{0}(a)}{da^2} em a=l. Isso é facilmente visto no gráfico abaixo:

Gráfico da energia potencial minima em função de a.

Gráfico da energia potencial mínima em função de a.

Esta descontinuidade na segunda derivada é análoga as encontradas nas transições de fase em segunda ordem da termodinâmica.

Analogia com a Quebra de Simetria da Teoria Quântica de Campos

Essa é a analogia do que acontece no tão falado modelo de Higgs. A presença desse campo introduz uma interação que pode ser entendida como um potencial clássico da seguinte forma:

Perceba a semelhança. Esse potencial, carinhosamente chamado de chapéu mexicano, tem mais graus de liberdade: enquanto movimentos radiais aumentam a energia, movimentos ao redor do chapéu tem mesma energia do vácuo. Isso, na linguagem de teoria quântica de campos, quer dizer que a quebra da simetria é parcial, ainda há uma direção onde há excitações do campo sem massa. Essa excitação sem massa é o fóton e ele é o responsável pela interação eletromagnética. As partículas massivas, que são as excitações correspondentes ao movimento radial no chapéu, são os bósons vetoriais da força nuclear fraca, responsáveis pelos decaimentos radioativos.

Mas voltemos ao nosso primeiro modelo mecânica da conta no aro. Na verdade, o vácuo não é o mínimo do potencial clássico, mas sim do potencial quântico. Vamos introduzir alguns fenômenos quânticos e ver o que acontece. Imagine que a conta está sentada num vácuo, seja ele de simetria quebrada ou não. Ela certamente não tem energia para dar uma volta inteira do aro. No entanto, quanticamente, há um efeito chamado tunelamento em que partículas tem uma certa probablidade de atravessar uma barreira de potencial mesmo que classicamente ela não tenha energia para isso. Então, nesse caso, a partícula sentada no vácuo pode, de repente, dar uma volta inteira no aro! Estranhezas do mundo quântico.

Temos então que imaginar que há uma infinitude de vácuos, um para cada número de voltas que a partícula dá no aro. Algo do tipo:

Em teoria quânticas de campos, o responsável por esse tunelamento são os ínstantons e o vácuo real da teoria é uma superposição de todos esses vácuos. Isso é conhecido em mecânica quântica básica como teorema de Bloch e, no estudo em teoria quântica de campos, como vácuo-\theta.

Esses dois fenômenos: quebra espontânea de simetria e ínstantons, são amplamente estudados em TQC, seja teoricamente, seja fenomenologicamente. E muitas dessa fenomenologia poderá ser explorada no LHC. A idéia de vácuos falsos e a energia que se ganha ao decair para os vácuos verdadeiros também tem aplicações interessantes em cosmologia. 😎


Escrito em colaboração com Rafael Lopes de Sá

Referência:
LEMOS, N. A. Mecânica Analítica. Editora Livraria da Física. 2004. São Paulo.

Pai da Wikipedia, Jimmy Wales, participará de debate, dia 10 de novembro, em São Paulo

segunda-feira, 20 out 2008; \43\America/New_York\America/New_York\k 43 Deixe um comentário

É notoriamente bastante comum vermos o uso da Wikipedia, em fóruns de discussão na Web, como fonte de informação, mesmo quando o artigo não é muito bom (em português a situação ainda é bem triste). Então vou divulgar aqui também.

Seguem abaixo alguns detalhes sobre o evento, extraídos da página da Wikimedia.

Os desafios e oportunidades para produções colaborativas de conhecimentos livres no Brasil é tema de debate no Centro Cultural São Paulo, às 19h30 do dia 10 de novembro de 2008 (segunda-feira). O evento, denominado WikiBrasil: Mutirão de Conhecimentos Livres, celebra também o início da atuação da Wikimedia no Brasil.

O debate também contará com a participação de Ethevaldo Siqueira, Gilberto Dimenstein, Gilson Schwartz, Karen Worcman, Ladislau Dowbor, Lala Dezeinhelin, Reinaldo Pamponet, Renato Rovai e Sérgio Amadeu.

A bilheteria do Centro Cultural São Paulo (Rua Vergueiro, 1000) distribuirá para o público senhas gratuitas uma hora antes do início do evento. A sala Adoniran Barbosa tem capacidade para 600 pessoas (já tem mais de 160 inscritos e de ontem para hoje foram mais de 60!) e será dada prioridade aos inscritos com antecedência AQUI.

Os interessados de outras localidades poderão acompanhar o evento e enviar perguntas pela Internet. Novidades e atualização serão postadas aqui nesta wiki e enviadas por twitter (acompanhar “WikiBrasil“).

Alguns responsáveis pela implementação de ferramentas para construção de conhecimento colaborativamente na Universidade de São Paulo, o Stoa, também estarão lá.

Quem aqui nunca usou algum artigo da Wikipedia, pelo menos como fonte de referências? 😉

Inscreva-se!

Atualização3/11/2008

Entrour no ar o Hotsite dedicado ao Evento WikiBrasil – Mutirão de Conhecimentos Livres.
Site – www.wikibr.org

Mais informações

Dualidades – Parte 2 (Supersimetria)

segunda-feira, 20 out 2008; \43\America/New_York\America/New_York\k 43 2 comentários

Vamos continuar com minha tentativa, que ser tornará cada vez mais impossível, de fazer essa introdução sobre dualidades em forma de divulgação científica.


 

Na última vez falamos sobre monopolos magnéticos e seu papel em teorias duais. Chegamos a uma teoria que tem um monopolo bem comportado, a teoria de Yang-Mills-Higgs, mas fechamos o post com dois problemas: as correções quânticas ao limite BPS e o erro do spin. Vamos tentar consentar isso.

Primeiro, vamos discutir sobre uma extensão da proposta de dualidade. Nós vimos que a dualidade eletromagnética é como se fosse uma raiz quadrada da simetria de conjugação de carga. No entanto, isso pode ser estendido se introduzirmos um termo na teoria de Yang-Mills-Higgs chamado termo-\theta. Não há nada que impeça a introdução desse termo: ele não quebra nenhuma simetria nem torna a teoria mal definida. Ele é o responsável pela quebra da simetria CP, assunto que foi prêmio Nobel esse ano. O fato desse termo ser muito pequeno é um problema em aberto na nossa compreensão do modelo padrão das partículas fundamentais, chamado problema de CP forte. Apesar de muito pequeno, esse termo é interessante porque ele parametriza os vácuos da teoria de Yang-Mills-Higgs. O vácuo da teoria de YMH é algo bem complexo e uma das entidades mais estudadas em física teórica. Esse termo mistura diversos desses vácuos através de tunelamentos quânticos por ínstantons. Quando se leva em consideração a física dos ínstantons, percebe-se que esse termo \theta é periódico. Quando se junta essa periodicidade à dualidade eletromagnética, a simetria fica estendida a um grupo que é conhecido na matemática como SL(2,Z). Esse grupo vive aparecendo na matemática quando se estuda números complexos e no youtube tem um vídeo bonito sobre elas:

No que se refere aos monopolos magnéticos esse termo resulta em duas mudanças. Primeiro, ele muda as cargas magnéticas e elétricas, o que é conhecido como efeito Witten. Além disso, esse grupo, diferentemente da dualidade eletromagnética usual, é de ordem infinita. Isso quer dizer que em vez de só trocar monopolos por bósons vetoriais, podemos aplicar ele infintas vezes gerando cada vez estados novos, chamados dyons, porque eles vão ter carga elétrica e magnética. O argumento de Sen, que falei no post anterior, diz respeito justamente ao espectro desses dyons.

Esse grupo também aparece como simetrias de teorias definas num toróide. Isso é bem importante em teoria de supercordas quando se calcula amplitudes de espalhamentos. Podemos importar essa idéia e imaginar que a teoria com monopolos é uma teoria numa dimensão superior, onde essa simetria do toróide é manifesta. Essa discussão pode ser levada adiante e ela desemboca nas dualidades em teoria de supercordas e teoria M onde há naturalmente uma dualidade SL(2,Z), mas isso fica para outro post (até porque eu teria que estudar mais para contar a história decentemente). Vamos, por enquanto, ficar só com a idéia de que podemos começar a escrever a teoria numa dimensão superior e ver seu efeito em quatro dimensões.

Vou fazer uma pausa nessa idéia de dimensões superiores e discutir uma outra idéia que é objeto de muitos estudos em física teórica: supersimetria. A supersimetria é uma simetria proposta que resulta na existência de um parceiro para cada partícula existente. Esses parceiros supersimétricos nunca foram observados, mas há muito gente procurando e vai ter muito mais quando o LHC começar a funcionar definitivamente. Esses parceiros são desejáveis porque eles cancelam quase todas as correções quânticas das partículas usuais. Isso cancela divergências que, de outra forma, tornariam teorias quânticas mais difíceis de serem bem definidas. Num nível não perturbativo, nem todas as correções se cancelam, mas até isso é interessante. A idéia é que talvez a supersimetria proteja o limite de BPS fazendo com que ele seja exato inclusive na teoria quântica, possibilitando uma teoria quântica com dualidade eletromagnética.

Quando temos uma teoria supersimétrica, não é mais exatamente correto falar em partículas. Mas sim no multipleto contendo a partícula e seu parceiro supersimétrico. Podemos imaginar inclusive teorias com multipletos bem grandes onde não há apenas duas partículas que sejam parceiros mas mais partículas. Isso chama-se supersimetria extendida. Há várias formas de se estender consistentemente esse multipleto. A forma mais econômica, ie, com o menos número de parceiros, é quando as massas obedecem uma igualdade que tem exatamente a mesma forma do limite BPS. Hum…. só que em vez de cargas magnéticas temos agora objetos topológicos escritos em termos das condições de contorno dos campos. Se você se lembrar da discussão sobre monopolos de Dirac, você vai ver que isso é uma excelente idéia, pois desde o início, a carga magnética era um objeto topológico. Mas mais do que isso, sendo essa uma propriedade da supersimetria, ela é válida inclusive na teoria quântica.*

Vamos agora juntar as duas idéias: começemos com uma teoria supersimétrica numa dimensão superior e reduzamos às nossas quatro dimensões. Por exemplo, se começarmos com uma teoria supersimétrica de Yang-Mills em seis dimensões, obtemos uma teoria de Yang-Mills-Higgs em quatro dimensões com supersimetria extendida (dobrada, o que é chamado \mathcal{N}=2). Essa teoria tem então monopolos magnéticos! Mais do que isso, podemos mostrar que a lei e conservação topológica que falei anteriormente é exatamente o limite BPS. 🙂 Fantástico. Essa idéia pode ser aplicada em diversas situações, inclusive em sistemas mais simples na mecânica quântica tradicional. Vale a pena dar uma lida:

Supersymmetry algebras that include topological charges. D Olive, E Witten – Phys. Lett. B, 1978

Perceba que um dos problemas que tínhamos no início do post foi resolvido. O outro persiste porque, ao se estudar detalhadamente o multipleto supersimétrico, percebe-se que o monopolo e o bóson vetorial ainda vão ter spins diferentes. Isso não tira o interesse na teoria. Muito pelo contrário, essa teoria tem várias surpresas que foram descobertas por Witten e Seiberg (um review pedagógico: L Alvarez-Gaume, SF Hassan – Arxiv preprint hep-th/9701069, e certamente eu vou fazer um post sobre essas teorias mais detalhado no futuro).

Como resolver o segundo problema? Se fomos até seis dimensões, por que não continuar? Se usarmos a mesma idéia de começar com a teoria de Yang-Mills supersimétrica em dez dimensões e olharmos para a teoria de Yang-Mills-Higgs que ela implica em quatro, veremos que o monopolo e o bóson vetorial agora tem o mesmo spin, ambos dentro de um multipleto extendido \mathcal{N}=4. Isso é muito interessante, não só pelo resultado, mas porque essa teoria de SYM em dez dimensões é o limite de interações fracas da teoria de supercordas! Veja como a teoria de supercordas vive reaparecendo. A teoria de supercordas, mesmo que ela não seja a teoria final, tem um papel explicador tão grande que é difícil levar a sério as pessoas que dizem que ela está errada. Nos próximos posts vamos explorar mais essa teoria e ver o que ela nos ensina sobre dualidades eletromagnéticas.


Referências:

Notas:
* (Edit: 20/10/08) Ok, eu não estou sendo completamente sincero aqui, até porque a teoria não é completamente supersimétrica: o vácuo de monopolo só preserva metade das supersimetrias. O limite BPS nesses modelos é uma igualdade entre uma massa e uma quantidade topológica. O problema é que essa teoria é interagente, então a massa recebe correções quânticas dos campos massivos. Só que esses campos massivos vão a zero no infinito, como já sabíamos desde o trabalho de Yukawa, e então eles não podem introduzir correções quânticas nas cargas topológicas (condições de contorno da teoria). No entanto, há uma correção, que vem de uma anomalia. Agora, explicar isso nos levaria mais adiante do que eu gostaria… veja o artigo do Witten e Olive para ver que, mesmo pessoas muito inteligentes não perceberam isso de primeira.

Eu acho que, para o propósito desses posts, vale mais a pena pegar a idéia de que sob uma dualidade eletromagnética leis de conservação de Nöther, ie. aquelas que só são válidas quando as equações de movimento são obedecidas, são trocadas por leis de conservação topológicas. E vice-versa.

Gravidade d=3 [2]

domingo, 19 out 2008; \42\America/New_York\America/New_York\k 42 Deixe um comentário

Agora já entendemos que o número de graus de liberdade na teoria da gravitação pura é bastante reduzido. Quais consequencias imediatas isso acarreta?

As eq. de movimento da relatividade Geral são as chamadas Eq. de Einstein. Elas são R_{\mu\nu}-\frac{1}{2}g_{\mu\nu}R=0 (desconsiderando qualquer campo de matéria). Dela, podemos imediatamente descobrir que R=0 e R_{\mu\nu}=0 e portanto o Tensor de Riemann mencionado no post anterior também será identicamente nulo.

Isso poderia passar, para alguém que estudou um pouco de Relatividade Geral, que a teoria de Gravidade em d=3 é uma teoria trivial, já que o espaço seria sempre plano, e portanto sem dinamica. Só que nesse esquema ainda falta um ingrediente importate: A Topologia. As equações de Einstein não determinam a topologia do espaço, e portanto nosso trabalho agora será estudar ‘os graus de liberdade globais’, que surgem na teoria, advindos dos diferentes tipos de topologias.

Isso leva diretamente a primeira descriação desse modelo, que é chamada de Estruturas Geométricas.

Dúvida, pseudo-ciência e liberdade de expressão

sábado, 18 out 2008; \42\America/New_York\America/New_York\k 42 6 comentários

Todos os aficcionados por ciência tem por hobby delatar e atacar os divulgadores de bad-science, ou pseudo-ciência – aqueles estudos com ares pretenciosos de ciência mas que no fundo não têm sustentação objetiva. Alguns até diriam que é o papel dos acadêmicos da ciência tomarem a frente nessa batalha e capitanear os esforços pela erradicação da pseudo-ciência, inspirados em Carl Sagan, Richard Dawkins e outros heróis. Entretanto esbarramos aí em questões complicadas, às quais eu pretendo discutir sem dar respostas – uma vez que eu não as tenho. Creio aliás que são questões onde é mais útil pensar sobre o assunto com cuidado do que ter respostas (1).

A primeira questão é a óbvia questão demarcatória: que é pseudo-ciência? Que venham os falsificacionistas, os kuhnianos, os lakatosianos, Hume, Feyerabend e todos os filósofos da ciência de mãos dadas admitir que nunca resolveram essa questão. Não parece, pelo menos por enquanto, ser possível definir ciência sem excluir ou incluir coisas que não gostaríamos que estivessem lá. Ciência e não-ciência não são classes de equivalência de sistemas lógicos. O que podemos fazer é outra pergunta: que atitudes são esperadas de um cientista, e quais atitudes são esperadas de um pseudo-cientista? E logo depois podemos nos perguntar porque as atitudes do cientista são preferíveis às do pseudo-cientista.

Para atacar essa pergunta vou citar, o que é um péssimo costume pessoal, um grande cientista:

É a nossa responsabilidade como cientistas, sabendo do grande progresso que vem de uma satisfatória filosofia da ignorância, (…) ensinar como a dúvida não deve ser temida mas bem-vinda e discutida; e demandar essa liberdade, como nosso dever perante todas as futuras gerações.

Richard P. Feynman, What Do You Care What Other People Think(3)

Meus grifos e minha tradução (perdoem-me por qualquer erro). Essa citação, usada numa bela palestra do Prof. Nestor Caticha sobre a vida de Feynman semana passada no Convite à Física (2), aponta na direção do que é considerado entre os cientistas um padrão de comportamento desejável (porém nem sempre seguido): honestidade intelectual, particularmente honestidade com a dúvida. Ter dúvida e não se sentir constrangido, admitir não saber e admitir que a nossa capacidade de conhecer é limitada e que seu produto é sujeito à revisão é a atitude esperada de cientista. Essa dúvida entretanto não é passiva. O estado de dúvida é o estado de busca da sanação dessa dúvida.

O pseudo-cientista arquetípico não age assim. Ele brande a certeza em uma verdade revelada, que lhe foi transmitida por meios misteriosos e que todos os outros não conseguem enxergar. Ele crê ter o mundo contra sí, contra a sua verdade auto-evidente.

Por que é bom agir como um cientista e não como um pseudo-cientista? Eu não sou um estudioso de ética para atacar essa pergunta. Eu estaria muito mais disposto a responder: o que a sociedade ganha se as pessoas agirem como cientistas e não como pseudo-cientistas? Há dezenas de possíveis lucros para a sociedade: governantes dispostos a revisarem suas crenças e projetos são mais capazes de prever, evitar e consertar erros administrativos, modelos de gestão adaptativos que se revisam periodicamente são mais eficientes, pessoas com dúvidas são curiosas e aprendem mais, … enfim, um mundo onde as dúvidas são expressas e sanadas é mais eficiente que um mundo onde as dúvidas são suprimidas em favor da verdade revelada.

Outro ponto, muito mais complicado que esse é: devem os pseudo-cientistas ter liberdade de expressão para sair pelo mundo propagando suas crenças? Essa pergunta é uma dentre uma classe de perguntas muito difíceis. Por sorte essa não é tão difícil quanto as piores dentre essa classe (e.g., “deve um militante anti-democrático ser beneficiado pelas liberdades que a democracia preconiza?”). Essa pergunta é difícil por uma única razão: sua resposta não pode ser justificada sem apelar para valores subjetivos. A minha resposta para essa pergunta é um grande, sonoro, veemente e incondicional SIM. Liberdade de expressão é um valor que eu considero inegociável e incondicional. Qualquer pergunta que comece como “deve fulano ter liberdade de expressão … ?” é por mim respondida com sim antes de ouvir as condições. Mas eu não consigo justificar essa resposta sem apelar para as minhas crenças sobre o mundo (4). Porém liberdade de expressão não é liberdade para exigir qualquer tipo de apoio por parte de quem quer que seja, quanto mais apoio público, para propagação das suas idéias.

Ahá, diria um atento: o cientista tem apoio e financiamento público não só para propagar suas idéias como para ensiná-la às criancinhas, pesquisá-las, aprofundá-las, publicá-las e divulgá-las como quiser!!! Isso é fato. Mas o cientista só o tem sob duas condições, pelo menos na minha opinião:

  • a ciência, calcada na busca da sanação objetiva das dúvidas, produz progresso técnico, intelectual e filosófico. Iniciativas baseadas na certeza pseudo-científica geralmente conduzem ao estacionamento e até ao regresso;
  • ao desenvolver a sua atividade o cientista deve aprofundar a cultura da dúvida e da pesquisa objetiva, propagando essa cultura entre os seus alunos e entre os contribuintes que o financiam, para o lucro da sociedade.
Diante de toda essa pintura idealizada, cabe-me agora atacar os cientistas pela sua não-realização. Os cientistas brasileiros, guardando-se célebres exceções,  não têm divulgado satisfatóriamente suas pesquisas, não têm procurado desenvolver uma satisfatória “filosofia da ignorância” (para citar Feynman novamente) , não têm estimulado em seus alunos essa cultura de ter dúvidas e procurar resolver as boas dúvidas. Não têm sido bem sucedidos em promover o ensino de ciência, que não é o ensino de uma zoologia de fórmulas matemáticas, mas a propagação da idéia de que a admissão da dúvida e da busca de sua sanação como elementos fundamentais do progresso.
Quando a academia toma para si suas obrigações não é preciso lutar contra a pseudo-ciência. Ela simplesmente não se sustenta diante de uma visão do mundo que admite a ignorância. Em contraste, quando a academia não faz a sua obrigação, a sociedade não se vê disposta a financiá-la, não sente os benefícios de desenvolver ciência madura em suas universidades e volta-se às verdades reveladas e às certezas destrutivas.

Notas:

(1) E isso não é verdade para qualquer questão filosófica?

(2) Convite a Física são palestras semanais no Instituto de Física da USP. São destinadas ao público leigo. Aberta ao público, entrada franca. Por favor: lotem essas palestras.

(3) Leia mais sobre o papel da dúvida na ciência segundo Feynman aqui: http://laserstars.org/bio/Feynman.html

(4) E alguém pode objetar: alguém consegue justificar alguma resposta sem apelar para suas crenças ? Mas acho que vocês entenderam o que eu quis dizer…

A semana nos arXivs…

sexta-feira, 17 out 2008; \42\America/New_York\America/New_York\k 42 1 comentário

Relatório sobre falha do LHC

quinta-feira, 16 out 2008; \42\America/New_York\America/New_York\k 42 3 comentários

Uma conexão elétrica falha entre dois imãs do LHC causou um vazamento de 6 toneladas de hélio liquido no túnel de concreto, paralisando as operações do acelerador.

Uma conexão elétrica falha entre dois imãs do LHC causou um vazamento de 6 toneladas de hélio líquido no túnel de concreto, paralisando as operações do acelerador.

Da Sala de Imprensa do CERN.

Hoje o CERN divulgou um outro documento detalhando a falha do sistema criogênico do LHC. A falha foi causada por uma conexão elétrica entre dois imãs. De acordo com John Conway do Cosmic Variance, até duas semanas atrás ninguém podia entrar no túnel de concreto no setor afetado, porque ainda estava muito frio. Um total de 6 toneladas de hélio líquido que era mantido a temperatura de -271.3 ° C, vazou diretamente dos imãs ao túnel. Ocorreu dano mecânico no setor e parte do sustento dos imãs que é fixado ao chão foi quebrado e parte dos imãs foram rompidos.

O LHC ia começar a operar primeiro a energias de poucos TeV antes de adentrar uma segunda fase com energia máxima de 14 TeV, mas com esse atraso, o calendário agora está ajustado para começar diretamente na fase de energia da ordem de 10 TeV. Quando o incidente ocorreu em setembro, foi feita uma estimativa que em início de 2009 o LHC voltaria a operar, mas o novo relatório do LHC não fornece nenhuma data, deixando apenas vagamente indicado que em 2009 o projeto volta a caminhar. 😦 😥

Ninguém disse que seria fácil manter 27 km de hélio líquido a temperatura de -271.3 ° C — é o maior sistema criogênico já feito.

Espero que depois que o LHC descobrir o bóson de Higgs, nós lembremos de todas as dificuldades e percalços técnicos que antecederam a grande descoberta 😉

Outros posts sobre o LHC em português:

  1. LHC anuncia primeira data 8 Ago 2008
  2. LHC atrasará por cerca de dois meses 20 Set 2008
  3. Bobagens sobre o custo do LHC 25 Set 2008

Epistemologia: por que estudar?

quinta-feira, 16 out 2008; \42\America/New_York\America/New_York\k 42 4 comentários

É consenso que a epistemologia atualmente é uma disciplina puramente filosófica¹, se ocupando de descrever a atividade científica sem interferir com as teorias científicas. Então, estudá-la parece ser uma questão de gosto pessoal, perfumaria e literatura para as horas vagas. Mas só parece.

A sociedade ocidental deposita muita confiança no conhecimento científico, considerando ser uma referência segura para decisões que envolvam vida e morte ou que decida a culpa ou inocência de um réu. Essa confiança tem uma justificativa história: o capitalismo anda de mãos dadas com a tecnologia que a ciência propiciou para o sistema de produção.

O modo de viver mudou drasticamente com os conhecimentos científicos. Tornamo-nos dependentes da tecnologia que desenvolvemos e precisamos alimentar esse sistema com a formação de engenheiros e cientistas continuamente. Este é um pequeno panorama para mostrar que a sociedade está imersa na cultura científica, o surgimento de teoria nos moldes científicos acaba merecendo atenção e a relevância que costuma ter apenas por ser científica. E se for algum tipo de pseudociência? Um indivíduo agindo de má fé para ludibriar e tirar vantagem do próximo? Não faltam exemplos na área da medicina (curandeiros, charlatões) e da espiritualidade (quem não lembra do filme “Quem somos nós?”).

Uma razão para estudarmos epistemologia é que somos freqüentemente circundados por teorias pseudocientíficas. Nesse caso, temos o dever pedagógico² de esclarecermos que essa teoria não obedece aos critérios científicos. Temos um problema claro de demarcação, e a partir daqui somos obrigados a recorrer a alguma tese epistemológica, mesmo que o façamos sem saber disso.

Não importa qual seja a sua escolha, tem pra todos os gostos: positivistas, falseacionistas, construtivistas, reducionistas, realistas, anti-realistas… O que importa é ter um ponto de referência. Então nos deparamos com outro problema: o que uma tese epistemológica considera como sendo ciência pode não ser considerado por outra. Entretanto, esse problema não é difícil de contornar haja vista que as maiores atrocidades contra a ciência podem facilmente ser classificadas como pseudociência por praticamente qualquer tese epistemológica. As pequenas desavenças entre as teses são discutidas mais profundamente no mundo acadêmico.

Aqui fica claro porque quem almeja tornar-se professor do ensino fundamental e médio também deve ser conhecedor da epistemologia. Cabe a ele ilustrar a ciência para jovens que provavelmente terão seu primeiro e último contato com a ciência formal em sua educação. Havemos de lembrar que os livros didáticos assumem em seu discurso uma posição bastante positivista. Se pretendermos fazer um ensino plural, precisamos introduzir também um pouco do discurso de outras correntes da epistemologia.

Neste ponto alguns professores e filósofos são acusados de destruir a imagem da ciência, como se ela tivesse somente um único semblante, como se fosse um ataque ao intocável edifício da racionalidade ocidental. Lembre-se que professores de ciência são pessoas que optaram por propagar o conhecimento científico, portanto isso simplesmente não faz sentido.

Da mesma forma precisamos ser críticos quanto ao discurso filosófico de alguns³ que pretendem simplesmente negar o valor da epistemologia, como se ela não estivesse entranhada no seu próprio discurso. O Círculo de Viena tentou algo parecido e não conseguiu. Não é assim que se refuta o argumento de seus opositores.

Para concluir, a epistemologia é responsável por passar alguma imagem do que seja a ciência para o resto da sociedade. Nela cabem filósofos profissionais e cientistas, todos têm algo a dizer, a filosofia é bastante acolhedora nesse sentido.

Bons estudos.

¹Quine defende que o futuro da epistemologia é se tornar uma ciência empírica

²Uma analogia com o dever pedagógico do filósofo no mito da caverna de Platão

³Against Philosophy, cap 7 do livro Dreams of Final Theory de Weinberg, transcrito em português por Everton Z. Alvarenga.

Novo fenômeno de supercondutividade?

quarta-feira, 15 out 2008; \42\America/New_York\America/New_York\k 42 2 comentários

Ano passado foi descoberta supercondutividade no material com ferro LaOFeAs dopado com flúor, na temperatura 26 K. Atualmente, o material pode ser feito supercondutor até temperaturas de 56 K. Os especialistas da área — coisa que eu não sou — dizem que a física da supercondutividade desse material é diferente da conhecida anteriormente, porque os pares de Cooper não são formados pelo acoplamento de elétrons com fónons, explicação que eles acreditam já estar excluída experimentalmente. Atualmente eles tem buscado cálculos e dados experimentais que possam indicar que os efeitos são devidos aos mágnons, as unidades elementares da rede cristalina do sólido das ondas de spin (num certo sentido, são os análogos dos fónons para o campo magnético).

Para quem tiver interesse, algumas matérias detalhadas:

  1. Michelle Johannes, Physics 1, 28 (2008), The iron age of superconductivity (em inglês).
  2. Iron Exposed as High-Temperature Superconductor na Scientific American.

Como reconstruir o Brasil…

quarta-feira, 15 out 2008; \42\America/New_York\America/New_York\k 42 3 comentários

Acabei de trombar no seguinte artigo:

Ele foi escrito por Jeffrey Sachs (mais sobre ele em Wikipedia: Jeff Sachs e Project Syndicate: Jeffrey D. Sachs) e mostra claramente um plano para lidar com os problemas atuais nos USA.

Na verdade, a minha pergunta é: Existem esforços semelhantes ou análogos no Brasil? Ou, em outras palavras, Qual é o Plano de Nação para o Brasil? Ou seja, onde queremos estar em 10, 15, 20, 30, 50 anos?! Quem são os nossos pensadores e intelectuais que vêm à público (o artigo acima apareceu não só na Internet, mas também na revista “Fortune”) se manifestar a respeito dessa quetão (assim como fez o Jeff Sachs, no artigo acima)?

Uma das poucas respostas que eu conheço para a pergunta acima é, Projetos de Brasil.

Um outro esforço que eu também conheço é: O BRASIL TEM JEITO? (ISBN: 857110932X, ISBN-13: 9788571109322) e O BRASIL TEM JEITO?, V.2 (ISBN: 853780035X, ISBN-13: 9788537800355).

Mas, fora isso, confesso, não conheço muito mais… claro, estou filtrando todo tipo de ‘crackpots’ e porcarias afins — só estou me concentrando em esforços sérios, científicos, robustos.

😕

P.S.: Me lembro dum congresso que houve na Brown sobre o Brasil (a Brown tem um excelente conjunto de brasilianistas, incluindo o Skidmore“Coleção Skidmore” da Biblioteca da Brown) que reunia gente de vários lugares dos USA e Europa, incluindo o FHC, Skidmore e outros mais (que certamente estão sendo injustiçados pela minha falha memória). Num dado momento, eu perguntei sobre o “Projeto de Nação para o Brasil”… o silêncio e a pausa longa foram claros e notórios… seguidos de uma enxurrada de frases soltas, sem significado. Lembro também de alguns colegas, pegando no meu pé (brincando, como bons brasileiros que somos) depois da palestra, falando que aquilo não era pergunta que se fazia…

%d blogueiros gostam disto: