Arquivo

Arquivo do Autor

Engenharia na USP abre o primeiro “Endowment” nacional

sexta-feira, 17 jun 2011; \24\America/New_York\America/New_York\k 24 3 comentários

Vista aerea da Politécnica da USP

Segundo reportagem da Folha de hoje, a Escola Politécnica da USP (a unidade de engenharia do campus da capital) abriu seu “endowment”, coisa inédita no cenário das universidades nacionais. Trata-se de uma coleção de fundos originários da soma de doações de indivíduos, empresas, organizações civis, etc. A iniciativa foi dos próprios alunos que abriram o fundo com R$ 100 mil. O objetivo é utilizar o retorno do fundo aplicado no mercado financeiro para fomentar pesquisas de professores e alunos da Politécnica.

O endowment, que aqui uso a palavra estrangeira por falta de vernáculo brasileiro para designar um fundo de investimento de uma universidade para suas operações*, é uma das fontes de renda que as universidades norte-americanas utilizam. Não é a maior fonte, mas figura entre as mais expressivas. Vejamos o exemplo de Dartmouth: a universidade opera com um gasto anual de aproximadamente US$ 730 milhões atualmente, com um endowment de US$ 2.8 bilhões. De 20-30% de todos os gastos são pagos com o retorno financeiro do endowment, enquanto que até 50% pode vir do pagamento da mensalidade dos alunos, mais precisamente a tuition. Os números naturalmente variam entre universidades e também entre anos, porém é seguro dizer que o endowment paga entre 14% a 30% de todos os gastos das universidades norte-americanas privadas. Paga salário de funcionários, professores, custos operacionais, materiais, aquisições de novos prédios e investimentos de expansão do campus, mas não equipamentos e construção de laboratórios de pesquisa ou salário de alunos de pós-graduação a partir do terceiro ano. Para isto, a universidade usa de recursos externos como bolsas do governo ou de instituições privadas, como Sloan Foundation, Google, Microsoft, etc. Mas no caso da Politécnica da USP, os salários dos professores e despesas operacionais já estão segurados pelo orçamento público, então o papel do endowment seria pagar investimentos em laboratórios de pesquisa, professores e bolsas para alunos, uma forma de dinheiro suplementar as fontes FAPESP, CNPq e CAPES. Um conselho de professores da Politécnica decidirá como os recursos do endowment serão distribuídos para pesquisas na escola, e a unidade vai pagar uma instituição privada para administrar o fundo, espero eu que com o ganho do próprio endowment.

Quem ficou curioso sobre o orçamento universitário nos EUA pode fazer uma pesquisa no Google por “[instituição] budget”, a maioria das instituições publica esses dados nas suas páginas da Internet.

* Atualização 23/06/2011: a palavra em português é dotação. Obrigado ao Robson pelo esclarecimento. Mais informação e como doar a dotação da Politécnica na página oficial.

Categorias:Ars Physica, USP Tags:

Buracos negros por todo o universo

quarta-feira, 15 jun 2011; \24\America/New_York\America/New_York\k 24 2 comentários

Imagem composta do Telescópio Hubble (luz visível) e Telescópio Chandra (raios X) de galáxias a cerca de 12 bilhões de anos-luz de distância (redsfhit 6 a 7), quando o universo tinha cerca de 800 milhões de anos. A cor azul representa a imagem em raios X, vermelho no infravermelho, e demais cores no visível. Clique para ampliar.

Notícia marcante no dia de hoje: a NASA anunciou que amanhã a Nature publicará a primeira imagem em raios X do universo quando ele tinha apenas cerca de 800 milhões de anos, e… a primeira visão de buracos negros em escalas cosmológicas! Segundo o anúncio da NASA, a imagem em raios X permite estimar que para mais de 30% de todas as galáxias tem um buraco negro supermassivo no centro — astros até um bilhão de vezes mais pesados que o Sol — senão todas elas.

A imagem é do Telescópio Espacial Chandra de raios X. Este é um feito técnico impressionante, pois esses objetos a essa distância 12 bilhões de anos-luz são quase invisíveis mesmo aos melhores telescópios de raios X. A câmera do telescópio ficou 46 dias ininterruptos capturando a imagem. Buracos negros supermassivos são em princípio visíveis ao telescópio porque muitas vezes eles são acompanhados de estrelas vizinhas que começam a ter seu material sugado em direção ao buraco negro, e os elétrons do gás que compõe a estrela são acelerados com energias tipicamente próximas da região dos raios X altamente energéticos a medida que o gás entra no buraco negro (vide figura abaixo).

Simulações numéricas mostram que as primeiras estrelas do universo eram muito pesadas, viveram poucos milhões de anos e colapsaram para formar buracos negros supermassivos. O resultado de Chandra era portanto esperado.

A imagem é suplementar ao Telescópio Espacial Hubble que já mapeou a mesma região do céu na mesma distância mas na freqüência da luz visível. Os astrônomos já haviam observado que há correlações entre a massa dos buracos negros e a taxa de formação de estrelas na galáxias onde eles habitam no caso de galáxias relativamente próximas (e portanto, de idade similar a da nossa) e também com o formato da distribuição de matéria escura nas galáxia, em muito devido ao trabalho do astrônomo de Dartmouth Ryan Hickox. Porque os buracos negros influenciam a formação de estrelas e aglutinação de massa nas galáxias ainda não se sabe. O estudo que sairá amanhã na Nature é o primeiro a analisar a formação de buracos negros em galáxias tão antigas, mas os detalhes só amanhã.

Para mais sobre a relação da formação de buracos negros e galáxias, considere esse colóquio de Ryan Hickox (60min, em inglês).


Ilustração do que acontece quando uma estrela passa perto de um buraco negro. A medida que o gás cai no buraco, os elétrons do gás da estrela são acelerados e emitem raios X, visíveis ao telescópio Chandra. Crédito da foto: NASA (domínio público).

Atualização 1 16/06: artigo publicado hoje na Nature.

Conan O’Brien e formandos de 2011

segunda-feira, 13 jun 2011; \24\America/New_York\America/New_York\k 24 2 comentários

Ontem foi dia de formatura em Dartmouth, e o discurso da turma foi dado por Conan O’Brien, um comediante norte-americano que escreveu para o Saturday Night Live (1987-1991) e Os Simpsons (1992-1993) e é apresentador na TV desde 1993 e ganhador de dois Emmys. A primeira metade do vídeo é o que se espera de um grande humorista, e a segunda é uma bela mensagem a turma dos formados, por isso eu compartilho com vocês abaixo o discurso. Sei que alguns de nós mais velhos vamos nos identificar com ele, e aos mais novos, ainda estudando na faculdade ou planejando a sua pós-graduação, guardem a mensagem para mais tarde.

Se eu tiver um tempo, e mais alguém quiser colaborar, eu atualizo o post com a segunda parte do discurso traduzida para o português.

Para um pouco de informação sobre o que ele se refere no discurso, Conan foi apresentador de um programa de entrevistas na TV de 1993 a 2009 no canal NBC, onde o horário nobre era reservado para o Tonight Show apresentado na época por por Jay Leno. De 1962 a 1991, Tonight Show foi apresentado por Johnny Carson (o mesmo que Conan cita). Trata-se de um dos programas mais famosos da TV nos Estados Unidos e o de maior tempo de exibição entre todos que são exibidos hoje. Conan foi promovido ao Tonight Show em junho de 2009 mas ficou no programa apenas sete meses após a audiência cair pela metade. Devido a pressão por números de audiência, Conan foi substituído de volta por Jay Leno em 2010.

Categorias:Humor Tags:

Real e ficção na economia brasileira

quinta-feira, 2 jun 2011; \22\America/New_York\America/New_York\k 22 9 comentários

Este post apresenta opiniões sobre política econômica do autor e não necessariamente refletem as opiniões de todos os editores do blog.

Não foi com muita surpresa que eu vi essa sequência de notícias que você pode receber o fato mais importante diretamente dos títulos:

  1. DVD [no Brasil] custa mais que o triplo dos EUA
  2. iPad brasileiro é o mais caro do mundo
  3. Artigo no Financial Times vê bolha em formação no Brasil

fatos que estão também relacionados ao que eu postei sobre o fictício PIB brasileiro (comentários os quais parece que os brasileiros discordam…).

Parece vitrola quebrada, mas o elo de ligação é a tributação e a estrutura do serviço público no Brasil. A situação é tão grave que é assim: se o produto é importado, no Brasil ele é um dos mais caros do mundo por causa do excesso de tributos a importados; se o produto é nacional, ele também fica entre os mais caros do mundo, por causa do excesso de tributos internos. Eu considero a política brasileira com respeito a importações um atraso, eu vou me explicar abaixo. A tributação exagerada faz tudo ser mais caro no Brasil, onde os salários também são baixos, e o resultado vai desde um PIB surrealista — porque os serviços públicos e privados somados estão acima do preço real comparado a outros países — a anulação do poder de compra do brasileiro. No meu ver, a razão disto é que o serviço público brasileiro é muito caro, requerendo impostos que somam mais da metade de um produto no mercado. E a minha birra com isto é que o Brasil cobra para mais de 35% de imposto do PIB, acima da maioria dos países ricos, todavia oferece um serviço público de péssima qualidade.

Por quê? E qual a solução? Eu acredito que é porque o investimento do governo brasileiro não é no serviço final, é no sistema político. Por exemplo, o orçamento do Congresso Nacional e do Senado é maior que o orçamento total do MCT. Dado o orçamento total do MCT, que parte deste realmente vai para as mãos dos pesquisadores, e quanto se perde nas mãos dos diversos acessores, auxiliares, suplentes dentro do MCT e dentro das diversas secretarias e subsecretariais do serviço público? Como é possível que o Brasil tenha um investimento em educação pública (digo o número oficial do orçamento do MEC) superior ao do Canadá, mas os professores das escolas brasileiras ganham miséria? Estes últimos ganham pouco, mas ninguém do gabinete de educação das prefeituras e dos governos estaduais recebe três salários mínimos. No Brasil, os grandes salários públicos estão concentrados em certos cargos políticos e burocráticos enquanto que os serviços propriamente ditos recebem pouco investimento. Segundo os dados do IBGE deste ano, o funcionário público brasileiro em média recebe mais que o da área privada (sem incluir benefícios do setor público). Ou seja, não é que o orçamento do MEC é baixo e sim que há uma espécie de atrito financeiro no Estado brasileiro que faz com que a parcela do orçamento que é realmente investido no serviço ser baixa. E a corrupção faz parte natural disto porque o excesso de atravessadores a favorece.

A solução que ninguém gostaria de ver acontecer é começar a enxugar o estado brasileiro, diminuindo duas coisas: primeiro, acabando com o excesso de burocratas, secretários, auxiliares e tudo mais (incluindo os serviços de corregedoria e procuradoria dos próprios regularadores), e segundo, deixando serviços importantes como hospitais, planos de saúde, escolas, universidades públicas, policia e bombeiros, forças armadas, etc., mas acabando com certos excessos da participação do estado na economia, como o controle estatal de bancos e empresas (como a Petrobras e a Embraer) e acabando com leis de monopólio (como de extração de base energética). Antes que você pule da cadeira e brande de raiva “Absurdo!”, pense por que o estado brasileiro tem participação no setor privado, em primeiro lugar? Que benefício para a sociedade isso tras? Agora eu vou dar a razão de porque eu acredito que a privatização do Banco do Brasil e termino do monopólio energético iria ajudar o país: o Estado ficaria mais barato, e poderia diminuir impostos e criaria maior competição no mercado. Maior competição não vai automaticamente gerar melhor serviço mas é melhor a chance disto do que nenhuma chance. E com menos impostos, a economia cresce, os preços dos produtos ficam mais realista e o poder de compra do brasileiro aumenta. Com maior produção econonomica privada, a arrecadação do Estado não fica comprometida: você pode derrubar de 35% para 25% do PIB em imposto, mas se o PIB privado cresce, esses 25% podem representar algo mais significativo que 35% de uma economia engessada. E principalmente, com a diminuição dos burocratas, pode-se injetar o dinheiro do imposto no serviço, ao invés de deixá-lo com os secretários. Legislação que incentiva o setor privado a agir no lugar do publico localmente é outro elemento importante: leis como a Lei de Incentivo a Cultura deveriam ser emuladas para áreas como saúde, educação e ciência. Críticas de que esse sistema é ruim porque incentiva a Maria Bethânia, uma grande artista, é tolice. É como argumentar que é ruim a iniciativa privada descontar 15% de imposto de renda financiando um grande centro privado para o Miguel Nicolelis baseado no fato de que este já é um cientista bem estabelecido e com pesquisas de impacto e que no lugar disso o investimento deveria ir exclusivamente para um Centro de Estudo de Besouros da Amazônia. O incentivo privado a pesquisa reflete a própria realidade do que é ciência de interesse da sociedade ao invés do interesse de um grupo pequeno de burocratas.

OKay, chega. Por último eu quero comentar sobre a política de importação do Brasil, que eu acho absurda. A lógica parece ter sido estabelecida em algum momento da antiguidade brasileira quando alguém conseguiu convencer as pessoas que a entrada de produtos importados indiscriminada no país prejudica o mercado interno. Por que isso seria verdade? Alguém pode dizer: “porque importar diminui postos de trabalho interno”. Se uma câmera digital importada de Taiwan no Brasil custasse o mesmo que ela custa nos EUA (onde a câmera também é importada), haveria mais movimentação para a economia interna: criação de postos de trabalhos em transportadoras para levar dos portos as cidades, de gerentes de vendas e de vendedores, de técnicos da assistência técnica, de vendedores de peças, da indústria nacional fabricando acessórios, e por ai vai. Onde se criaria o emprego de assistência técnica no Brasil de novos postos de câmeras e lentes Nikon? Quem vai transportar os automóveis japoneses do porto até as concessionárias? Se o MacBook era inacessível ao brasileiro porque custava R$ 8 mil e passou ao preço norte-americano de R$1,6 mil, que mercado vai se beneficiar com a criação de novas lojas de pontos de venda de produtos da Apple, agora mais popular? A patente prova de que importação não atrapalha o mercado interno é os EUA, onde muitos produtos comercializados internamente (com excessão de alimentos, mas incluso bebidas alcóolicas) são importados. Grandes empresas estrangeiras tem hoje nos EUA o seu maior mercado (a começar pela população grande), e criam muitos postos de trabalho no país. Os únicos reais beneficiados da política tributária brasileira são alguns funcionários públicos, e exclusivamente estes.

Criação de partículas pelo vácuo pode ter sido demonstrada em laboratório

quinta-feira, 26 maio 2011; \21\America/New_York\America/New_York\k 21 6 comentários

Um dos conceitos mais difíceis de digerir na mecânica quântica relativística é o fato de que afirmar que “ali há uma partícula” é algo relativo. É devido a este fenômeno que um universo em expansão cria partículas espontaneamente, processo que acredita-se hoje deve ter sido o responsável por popular o nosso universo com prótons, elétrons, fótons, e todo o resto da matéria. É também esse o mesmo fenômeno da radiação Hawking que todo buraco negro emite. Esse efeito pode ter sido observado pela primeira vez em laboratório por Chris Wilson da Universidade Chalmers de Tecnologia de Gothenburg, Suécia, e colaboradores no RIKEN, Japão, New South Wales em Sidney e Michigan em Ann Arbor, EUA[4].

Em poucas palavras, o que eles observaram foi que um espelho se movendo no vácuo com aceleração não uniforme e velocidade próxima da luz, emite luz a uma taxa proporcional ao quadrado da velocidade do espelho em relação ao vácuo.

Este efeito foi previsto em 1970 pelo físico-matemático Gerald More e é mais conhecido como efeito Casimir dinâmico. Na prática, é quase impossível mover um espelho rápido o suficiente para criar uma taxa de partículas apreciável. Por exemplo, um espelho oscilando na frequência de 1 GHz com uma amplitude de 1 nm teria uma velocidade 10 milhões de vezes menor que a velocidade da luz, produzindo apenas um único fóton por dia, mas exigiria 100 MW de potência e o sistema inteiro deve estar a menos de 10 mK de temperatura[1]. Para uma comparação, uma usina de carvão produz cerca de 400-700 MW de potência elétrica.

O esquema realizado por Chris Wilson consistiu em usar uma guia de onda[5] com um SQUID preso em uma das extremidades. O SQUID é um dispositivo eletrônico cuja indutância pode ser finamente calibrada. A presença do SQUID no final da guia resulta em uma probabilidade alta de uma onda eletromagnética ser refletida no ponto próximo ao SQUID. Alterando a indutância do dispotivo, esse ponto pode ser deslocado no espaço. Desse modo, eles obtiveram um espelho que se move a velocidades de até 5% da velocidade da luz. Eles observam então a potência irradiada dentro da guia de luz quando o espelho efetivo começa a se mover. Algumas correlações entre voltagens previstas teoricamente são também comparadas com as medidas experimentais para ter certeza que o efeito é mesmo a criação de partículas no vácuo. Esse esquema experimental foi pela primeira vez proposto por Astrid Lambrecht, Instituto Max Planck de Óptica Quântica, Marc-Thierry Jaekel e Serge Reynaud da Ecole Normal[3].


Esquema experimental para demonstração do efeito Casimir dinâmico. Crédito da Figura: Ref. [2].

Criação de partículas pelo vácuo

Nesse outro post eu tentei explicar em termos simples como o conceito de partícula depende do observador: um estado que é vácuo para um observador A, será repleto de partículas como visto por um outro observador B que se move com aceleração constante em relação a A. No caso do efeito Casimir dinâmico, a condição de contorno dos campos muda no tempo devido a uma força externa, similar ao caso do efeito Casimir. Em termos simples, os valores de comprimento de onda admissíveis ao campo eletromagnético vão mudando a medida que a guia de onda muda de tamanho. Como os fótons são aqueles estados de comprimento de onda fixo do sistema, a medida que a guia de onda muda de tamanho ocorre surgimento de novos comprimentos de onda e o observador detecta novos fótons dentro da cavidade, mesmo quando esta incialmente encontrava-se no vácuo.

Referências e notas

  1. C. Braggio et al. 2005 Europhys. Lett. 70 754 doi: 10.1209/epl/i2005-10048-8.
  2. J. R. Johansson, G. Johansson, C. M. Wilson, F. Nori, Phys. Rev. A 82, 052509 (2010), doi: 10.1103/PhysRevA.82.052509.
  3. Astrid Lambrecht, Marc-Thierry Jaekel, Serge Reynaud. Phys. Rev. Lett. 77, 615–618 (1996), doi: 10.1103/PhysRevLett.77.615
  4. C.M. Wilson et al., arXiv:1105.4714 [quant-ph].
  5. Uma guia de onda é um dispositivo para guiar a direção de propagação de uma onda, forçando uma onda a propagar-se no seu interior, como por exemplo a fibra óptica, ou uma cavidade de metal.

Fermi-LAT pode ter confirmado resultado do PAMELA

sexta-feira, 20 maio 2011; \20\America/New_York\America/New_York\k 20 1 comentário

Hoje a Physics World reportou que a colaboração Fermi-LAT fez uma divulgação preliminar durante um congresso de que eles podem ter confirmado o excesso de pósitrons nos raios cósmicos que atingem a Terra na região de 10 a 100 GeV observados pelo PAMELA. Esse resultado é do mais confuso, porque o Fermi-LAT não observa tal excesso para os elétrons.

 Espectro de pósitrons cósmicos do satélite PAMELA.

Espectro de pósitrons cósmicos obtido pelo satélite PAMELA. A linha sólida é o cálculo Moska & Strong. Não incluido o fluxo previsto por fontes pontuais temporárias.

Muitas pessoas irão falar que esse excesso pode ser explicado com processos astrofísicos comuns, mas isso tem que ser visto com muito ceticismo porque genericamente qualquer processo de aceleração clássico deveria gerar um espectro de potência que diminui com o aumento da energia dos pósitrons, como 1/En para n > 0. Porém, o PAMELA, e agora o Fermi-LAT, observam um crescimento do número de pósitrons de 10 a 100 GeV, o que contradiz intuitivamente a possibilidade do excesso vir de aceleramento astrofísico. Além disso, por que o processo astrofísico iria acelerar pósitrons nesta energia mas não os elétrons?

A física da busca de novos materiais

quarta-feira, 11 maio 2011; \19\America/New_York\America/New_York\k 19 3 comentários

Nós falamos bastante das nossas áreas de pesquisa e áreas próximas relacionadas nesse blog, que acaba sendo, por alguma razão, também as mesmas coisas que se encontra nos textos de divulgação científica mais conhecidos como os livros do Stephen Hawking, Marcelo Gleiser e Brian Greene. Mas curiosamente, a maioria dos físicos (em número) não trabalha nem com buracos negros nem com as interações das partículas elementares, e sim com a grande área da física que estuda os materiais, como as propriedades dos sólidos.

E desde o ano passado ocorreram grandes descobertas nessa área, que eu pensei em relatar aqui para que talvez desse um gostinho dela para quem estiver interessado. Foi a confirmação experimental de um material que havia sido idealizado em teoria capaz de conduzir eletricidade de forma perfeita, em uma única direção, e apenas na sua borda. Esses são os chamados isolantes topológicos. Por “forma perfeita”, o que se quer dizer é que os elétrons não podem dar revés quando estão se movendo no material. Em um metal, como os fios de ouro usados em todos os aparelhos eletrônicos modernos, os elétrons andam bem devagar porque batem constantemente nos núcleos atômicos. Em um condutor perfeito, os elétrons tem uma direção única de propagação e por isso não podem ricochetear, movendo-se bem mais rápido.

Na mecânica quântica, os elétrons ligados aos átomos não podem possuir qualquer valor abritrário de energia, que é o que cria o espectro discreto de emissão da luz. Em um material, os elétrons que não estão presos bem perto do núcleo mas podem se mover entre diferentes átomos também tem apenas algumas energias disponíveis para se propagar. É possível existir uma banda contínua de energia disponível, digamos de 15 eV até 30 eV, depois um “buraco” de energias proibidas, digamos de 30 eV a 35 eV, e novamente outra banda de energia, p.ex. de 35 a 40 eV. Os materiais isolantes são aqueles que o número de elétrons de valência preenchem completamente uma banda, e a próxima banda está suficientemente separada em energia de modo que só quando você aplica uma tremenda diferença de potencial elétrico os elétrons conseguem saltar da sua banda preenchida para a banda livre (esta última é a chamada “banda de condução”).


Isolante comum.
Isolante topológico. Elétrons ricocheteiam na borda e se movem em uma única direção.
Crédito da Figura: Ref. [1].

Cada elétron de um isolante fica orbitando apenas um único núcleo do material (ou fica preso entre mais de um em uma ligação covalente, mas deixemos esse caso de lado para simplificar). Em uma analogia da física clássica, nós podemos imaginar que a órbita é circular. Mas como ficam os elétrons que estão presos aos átomos logo na borda do material? Se você fizer uma engenharia bem pensada, pode colocar os elétrons da borda em órbitas que não cabem no material e os elétrons serão forçados a ricochetear da borda, como na figura. Ao ricochetear na borda, o elétron pula de um átomo para o próximo. O resultado é que o material é isolante no seu miolo, mas conduz eletricidade em uma fina camada na sua borda. Se você se permitir nessa analogia um pouco mais e imaginar que os elétrons estão todos ordenados para girar sempre em uma única direção dentro do material, então os elétrons da borda não vão conduzir eletricidade em qualquer sentido: eles só se movem em uma única direção.

A física mais detalhada desses materiais é mais complicada que esse modelo clássico. A real origem da condução na borda tem a ver com o fato de que existe um estado de energia estável na borda que liga a banda de condução até a banda do isolante, tornando a diferença de energia entre as bandas degenerada na interface. Essa solução é o que se chama um instanton, e o elétron fica “saltando” entre um mínimo para o próximo das bandas de energia, criando a condução elétrica de uma forma que ainda não se tinha visto até esse sistema aparecer. Uma explicação mais realista você encontrará na Ref. [1].

O que motiva muitos físicos a trabalhar com esses problemas é que são esses novos materiais, como o grafeno e os isolantes topológicos, que podem ser usados em grandes revoluções tecnológicas, como o efeito de tunelamento entre interfaces de semicondutores levou a invenção dos diodos e transitores semicondutores, que são os componentes dos chips de silício usados em computadores, nos sensores das câmeras digitais e celulares, e quase tudo que você possa imaginar de eletrônico.

Referência
1. Hasan, M.Z. and C.L. Kane (2010). “Colloquium: Topological insulators,” Rev. Mod. Phys. vol. 82, pp. 3045-3067. Download: [UPENN] [APS]

Há também o vídeo deste colóquio (1h de duração).

A lição importante da Física

domingo, 8 maio 2011; \18\America/New_York\America/New_York\k 18 10 comentários

Este post apresenta opiniões sobre ensino de Física do autor do post e não necessariamente refletem as opiniões de todos os editores do blog.

Em uma das minhas primeiras aulas de Física na universidade, um professor já quase para se aposentar comentou que ele observou que era comum os calouros falarem apaixonadamente em demonstrar que Einstein estava errado, e quatro anos depois tornavam-se defensores da Relatividade com todos os jargões possíveis.

No nosso sistema educacional contemporâneo ao redor do mundo, professores usam livros-texto de 1000 páginas e preparam os cursos na ordem dos capítulos 1, 2, 3, … e enfatizam aos alunos ler os exemplos 1.2, 2.10, 4.5 e resolver os problemas 1.5, 2.19, 3.14 — porque um igual ao 2.19 vai cair na prova! Todo conteúdo, problemas e soluções relevantes são apresentados aos alunos em classe ou em panfletos. Mas será que as atividades que nós realizamos fora da escola tem paralelo com essa estrutura? Será o tempo que um bloco de madeira de 10.2 g leva para deslizar até o chão em um plano inclinado a 25° de uma altura de 2.4 m a lição importante que queremos ensinar em Física?

Eu creio que a maioria dos físicos concordariam comigo que no trabalho científico é difícil dizer que problemas são interessantes e com solução em um dado momento histórico. No trabalho científico mesmo quando nós concluimos um novo capítulo no conhecimento de Física, não temos claramente quais são os próximos capítulos que podem ser escritos. Quase sempre apenas se tem uma ideia vaga do sumário de três ou mais capítulos que podemos escrever. E nos forçamos a ter várias ideias, porque é quase certo que um dos sumários iniciais não vai render um capítulo inteiro. E como os capítulos em pesquisa científica são novos, um problema que tem uma solução conhecida não é de interesse: os físicos não passam tempo debatendo sobre transmissão de rádio e preferem investigar colisões de prótons em energias nunca antes observadas ou procurar interações que podem não existir da matéria escura. Muito mais valioso para ciência do que saber soluções de cor é elaborar problemas interessantes. Pense no exemplo no final do século XIX, quando buscava-se entender porque não foi possível detectar o éter luminífero, quando então Einstein se interessou por responder a pergunta de porque as equações de Maxwell não eram independentes do referencial. A formulação do problema nos termos de Einstein levou a solução dos mesmos problemas que Lorentz, Poincaré e Abraham investigavam. Foi a elaboração da pergunta, e não um conhecimento pedante de cálculo tensorial, que nos levou a Relatividade.

Eu acredito que a relevância de selecionar problemas interessantes vai além da pesquisa em ciência e insere-se no mundo empresarial, no governo, em ações sociais, jornalismo, na arte e possivelmente em quase todas relações socio-economicas humanas. Por exemplo, nos negócios, ninguém lhe dirá qual é o próximo produto de sucesso. Chegar primeiro no celular e no iPod é parte da busca do progresso. Perceber que problemas do ambiente de negócio são interessantes para serem resolvidos com intuito de aumentar a produtividade e diminuir a burocracia é tarefa espontânea que todo gerente gostaria de ter nos seus empregados. O empresário brasileiro Ricardo Semler, presidente de uma empresa com valor de mercado de mais de US$200 milhões, e cujas ideias de administração levaram-no a dar aulas na Escola de Administração do MIT e Harvard, relatou sua frustração com o sistema de ensino no Fórum Mundial de Tecnologia do Aprendizado de 2009:

Como as pessoas estão chegando a empresa, e portanto ao mercado de trabalho, das escolas? (…) Elas dirão: você precisa me dizer onde eu vou ficar, o que eu devo fazer, qual o meu plano de carreira, e nós dizemos a elas que não temos nada a falar sobre isso, ‘Você tem que encontrar essa solução’. Nós percebemos que as pessoas vem a nós de um sistema educacional onde elas aprendem submissão desde cedo. (…) Elas chegam ao mercado de trabalho prontas para seguir ordens ou seguir uma carreira, coisas que não existem mais.

A narrativa de Semler é bem familiar: professores de Física oferecem a ideia de que os problemas que devem ser resolvidos são aqueles já escritos no final do capítulo. Nós educamos com base em reprodução de conhecimento já estabelecido ao invés de criação original.

Há outro aspecto que eu acredito inibir a criatividade: o formato das avaliações de hoje. Estas enfatizam obter os coeficientes a balancear uma reação química, que o tempo de vôo de um objeto é 25 s ou que a raiz da equação é 3√2+5i no plano complexo. Se o estudante não acerta esse resultado final, ele é penalizado. Parece-me que o sistema recompensa obsessão por estar correto, inibindo tentativas audaciosas. O Brian Greene tem uma história interessante sobre isso: uma vez quando estava em uma turma de crianças, para medir o quanto elas já tinham aprendido de matemática, ele perguntou “quantos 3 cabem em 6?”, escolheu um dos braços que se levantou no ar e a menina foi ao quadro e desenhou um 6 grande com um 3 pequeno dentro! Não era exatamente a resposta que Greene procurava, mas era um 3 dentro de um 6! Em algum momento na evolução educacional desta criança esse tipo de atitude desinibida se perde. Minha experiência com alunos em Dartmouth é que pouquíssimos vão arriscar responder perguntas em classe, eles preferem ficar calados. Como vamos resolver a crise de energia ou o déficit público quando nossos alunos preferem não fazer nada do que arriscar uma solução incorreta?

Se você concordou comigo até agora, acho que podemos ver que um ensino centrado em reprodução de conhecimento ao invés de criação é um problema difícil de resolver. Eu não tenho em mente com essa crítica que podemos dispensar por completo do tradicional, mas podemos tentar encontrar um balanço adequado entre ensinar conteúdo e criação de problemas. Para ter uma ideia do que tenho em mente, considere o exemplo de como ensinamos álgebra para crianças daquelas 6a e 7a séries (escolho esse exemplo porque deve ser familiar a maioria das pessoas). Após ensinar os básicos das regras de álgebra, a criança passa o ano inteiro resolvendo problemas como “aplique a regra distributiva a (1+x)(3+y2)”. Eu lembro que na minha 8a série nós aprendemos a fórmula da Baskhara logo no primeiro mês e passamos o resto do ano resolvendo exemplos diferentes de equações do segundo grau! Uma abordagem distinta é ensinar as regras de álgebra e pedir aos alunos que pensem em problemas de álgebra. Cada aluno poderia escrever cinco ou mais equações aleatoriamente, e o professor poderia sugerir uma para o aluno investigar, uma espécie de “feira de ciências de matemática”. Se um único aluno da 7a série escrever e investigar uma equação como xn+yn=zn (último teorema de Fermat), x2 – n y2 = 1 (equação de Pell) ou ax+ b y = c (equação linear diofantina) estaremos em direção de uma nova geração de Gauss, e o mundo desesperadamente precisa de um novo Gauss. Um abordagem como essa permite os alunos escolherem que problemas de álgebra eles se interessam, que direção eles gostariam de seguir, e vão desde cedo encontrar a possibilidade da limitação do progresso com problemas mal escolhidos. Em cursos de pós-graduação, até o exame pode ter uma pergunta como “Elabore o seu próprio problema e resolva-o”, como ouvi dizer que o Prof. Jayme Tiomno fazia. Em classes de física básica universitária, algo simples pode ser feito: todo dever de casa pode incluir uma solicitação do aluno criar seu próprio problema; depois a turma pode ser dividida em grupos pequenos supervisionados por um professor e/ou monitor de disciplina que observa e ajuda os alunos a discutirem seus próprios problemas no quadro negro. Veja que essa tarefa é muito diferente de pegar um problema do livro e apresentar em sala. Se o problema está no livro, não é interessante! Alunos de turmas mais avançadas da graduação podem ser motivados a elaborarem problemas para a disciplina baseados nos seus interesses pessoais, no seu projeto de iniciação científica, ou em outras disciplinas.

Eu gostaria de concluir com um pouco de psicologia pois não quero embasar minha perspectiva de ensino em anedotas. Há algumas coisas que os neurocientistas parecem ter chegado a um consenso: 1) o cérebro humano desenvolve sua estrutura do dia do nascimento até mais ou menos 20 anos de idade e 2) a prática de uma certa tarefa está associada a especialização de regiões do cérebro para realizá-la e criação de sinapses. Em termos simples: é preciso prática para ser um bom músico, e é melhor começar quando criança. Se nós educarmos exclusivamente para obter alunos que irão fazer fantásticas e rápidas reproduções de exercícios, vamos obter resultados estelares no vestibular e concursos públicos. Mas nós não queremos só isso da educação de ciência: queremos também a habilidade do pensamento crítico e criativo. Eu acredito que motivar os alunos desde cedo a criar seus próprios problemas estimulará essa habilidade e quem sabe, a tornará bastante natural em idade adulta.

Texto baseado em um ensaio sobre ensino de Física que escrevi a pedido da Graduate School of Arts and Sciences de Dartmouth College, em ocasião do Filene Graduate Teaching Award.

Alguns vídeos inspiradores:
Ken Robinson, “Escolas matam criatividade”, com legendas em português.


 

Ricardo Semler no LATWF 2009 (são dois vídeos):
 


 

Brian Greene no Aspen Ideas Festival 2008
 

O que provocou a inflação?

quinta-feira, 5 maio 2011; \18\America/New_York\America/New_York\k 18 2 comentários

Dia sim, dia não, aparece um artigo no arXiv especulando sobre modelos específicos da inflação, e hoje mesmo apareceu um especulando sobre inflação advinda da QCD. Sabe-se pouco sobre a inflação, mas uma coisa que se sabe é o seguinte: o que causou a inflação não foi nada dentro do Modelo Padrão.

Para ocorrer inflação só é necessário um ingrediente: um campo escalar que seja a principal componente de energia do universo. Os demais requisitos são fáceis de ajustar: você sempre pode considerar uma região do espaço suficientemente pequena em comparação com as possíveis anisotropias desse campo dentro do qual a inflação ocorre, e sempre pode fazer o campo escalar decair a partir de um certo instante de tempo acoplando-o a outros campos. O que mais se tem na física de partículas são campos escalares neutros com acoplamento a outras partículas mais leves, então é fácil construir vários cenários com pións, kaons, Higgs…, você escolhe!

Mas nenhum desses pode estar certo. Isso é porque a principal função da inflação cosmológica (e a principal evidência de que ela ocorreu) é gerar a distribuição de probabilidades das anisotropias do universo. Uma vez que consideramos um campo escalar qualquer, o tamanho das anisotropias da radiação cósmica de fundo requerem que o parâmetro de Hubble na época da inflação seja de

H_* = \sqrt{\epsilon_*} \times 2.24(10)\times 10^{13} \; \text{GeV}

Ainda não é possível medir \epsilon_* com precisão, porém dentro de suposições razoáveis os dados do WMAP indicam este parâmetro deve ser da ordem de 10-2 (o valor exato depende do modelo usado para ajustar os dados). Isso sugere que durante a inflação, o parâmetro de Hubble era da ordem de 1012 GeV. Seja lá o que causou a inflação, espera-se que a física dessa escala de energia receba correções de efeitos de uma escala de energia M ainda mais alta. Então nós não podemos esperar que nenhuma teoria que recebe correções de efeitos físicos com M < 1012 GeV possa ter relação com a inflação cosmológica, como é caso de todos os campos do Modelo Padrão. Certamente você pode ajustar finamente que essas correções desapareçam, mas não há nenhuma boa motivação para isso. Dado o valor de H_* a densidade de energia durante a inflação deve ser da ordem de 1016 GeV, então um palpite mais razoável é que a inflação ocorreu devido a algum processo associado a essa escala, que pode ser algo como alguma unificação supersimétrica das forças fundamentais, ou o áxion se você olhar para o fato que M do áxion coincide com H*.

Qual é o filme?

sábado, 23 abr 2011; \16\America/New_York\America/New_York\k 16 3 comentários

De SpikedMath Comics. 🙂

Spoiler Alert! Respostas debatidas nos comentários.

Se gostou, tem também o segundo e o terceiro. Depois eu vou postar nos comentários quais as respostas que eu e meus colegas pensamos para cada um. Há alguns que eu nós não conseguimos decifrar 🙂

Categorias:Humor

A história evolutiva do homem

terça-feira, 19 abr 2011; \16\America/New_York\America/New_York\k 16 1 comentário

A um tempo atrás eu assisti um documentário fantástico da PBS, daquela mesma série que fez o documentário do Universo Elegante, foi o Becoming Human (tradução livre: “Tornando-se humano”). É o melhor documentário que já vi sobre a evolução do homem, recomendo. O filme completo de 3h está no YouTube aqui, em inglês. Não consegui achar legendas em Português. Ele também está disponível integralmente no site da PBS, mas provavelmente bloqueado para IPs dos EUA.

É verdade que meus conhecimentos do assunto são de Zé, o que aprendi na escola e em alguns livros de divulgação, mas o documentário é muito bem fundamentado por especialistas. Conta-se em detalhes a história dos paleontólogos e suas descobertas, com um enfoque grande em como são extraídas conclusões com base nos fósseis, genética e geologia. O documentário traça as espécies de hominídeos conhecidas e que passo da evolução cada uma deu. Fala-se sobre quais são os marcos da evolução dos primatas que acredita-se serem os pontos mais importantes que levaram a diferenciação do humano moderno, como o aumento da infância, a postura ereta, a adaptação para resistência a corrida em caça, o desenvolvimento da arte, a invenção da cozinha, a quase extinção do gênero Homo e a ascensão da adaptação a diferentes ambientes do Homo sapiens. Há bastante informação científica de qualidade. O filme também é atual, de 2009, e contém os avanços mais recentes como o sequenciamento do DNA dos neandertais. Vale a pena assistir!

Entropia e formação de complexidade no universo

domingo, 17 abr 2011; \15\America/New_York\America/New_York\k 15 4 comentários

Distribuição de massa no universo prevista pela Relatividade Geral, rede cósmica. As cores indicam densidade de massa, com o preto ao púrpuro ao amarelo indicando região menos a mais densa. A escala indica cerca de 44 Mpc. Uma galáxia tem cerca de 10 Kpc de diâmetro.

Quando nós olhamos para um vídeo em que um omelete se transforma em um ovo de galinha, nós sabemos que o filme está sendo exibido de trás para frente, porque no universo a entropia sempre cresce. Uma pergunta muito natural então é: como foi possível que o universo tenha formado estruturas como as galáxias e os planetas, e depois a vida na Terra, quando formar estruturas complexas parece desafiar a segunda lei da Termodinâmica?

É importante entender que a pergunta é capciosa, porque ela é baseada em uma premissa falsa: a de que a Termodinâmica é válida universalmente. Na realidade, a Termodinâmica é uma aproximação para descrever sistemas quando eles podem atingir rapidamente um estado em que suas variáveis não dependem mais do tempo. Muitas vezes isso não é possível, e a Termodinâmica é inaplicável. Isso é o caso para maior parte dos processos que ocorrem no universo. Esse tipo de fenômeno se denomina fora do equilíbiro térmico.

A formação das galáxias é um exemplo. A termodinâmica não se aplica porque o campo gravitacional depende do tempo. E o processo é complicado pela contínua aglomeração de massa que o campo gravitacional provoca. A redistribuição de massa no espaço muda de volta o campo gravitacional. O efeito combinado ao longo do tempo forma a rede cósmica, da qual eu já comentei outras vezes no blog. Do ponto de vista da Termodinâmica, a formação das galáxias pode parecer uma incógnita, mas é porque a origem das galáxias vem da dinâmica do campo gravitacional.

Outros dois exemplos importantes são a formação dos núcleos atômicos e a formação da radiação cósmica de fundo. Se nós fossemos usar a Termodinâmica em Cosmologia para descrever esses processos, iríamos obter respostas incorretas. Na formação do hélio, por exemplo, vê-se que a abundância do hélio em equilíbrio termodinâmico se torna relevante quando a temperatura é cerca de 3.5×109 K, e a Termodinâmica prevê que cerca de 31% dos bárions deveria estar em forma de hélio hoje. O valor correto é mais próximo de 25-27%. A Termodinâmica falha porque a formação do hélio precisa competir com o fato de que a densidade de prótons e nêutrons está decaindo no tempo. Os prótons e nêutrons vão se tornando menos densos por causa da expansão do universo. A formação do hélio não dura para sempre porque eventualmente a densidade é tão baixa que não permite mais reações nucleares ocorrerem. Além disso, a formação do hélio depende da presença dos nêutrons, que decaem rapidamente a medida que as reações nucleares perdem força para converter prótons em nêutrons. Se abdicarmos da Termodinâmica e calcularmos o processo dependente do tempo, chegaremos ao valor correto de 27%. A radiação cósmica de fundo se forma por um processo similar de competição em que os elétrons livres que ainda espalham fótons por efeito Compton vão desaparecendo ao serem capturados pelos núcleos para formar os átomos neutros de hidrogênio e hélio.

Quando nós não podemos usar a Termodinâmica para reações físicas mas ainda se quer fazer contas para um número grande de partículas, se usa física estatística fora do equilíbrio onde a dinâmica é comandada pelo que genericamente se chama equações de Boltzmann. O nome de Boltzmann deve indicar como já se sabia faz tempo as limitações da Termodinâmica.

O propósito desse comentário é o seguinte: não é necessária nenhuma mágica para entender como se formam estruturas complexas no universo onde vale a segunda lei da Termodinâmica. Basta aplicar as leis físicas relevantes para o processo microscópico (no caso da formação dos núcleos é a física nuclear, da formação das galáxias é a Relatividade Geral). A Termodinâmica é uma aproximação que nem sempre descreve todas as variáveis físicas, só aquelas que se tornam independentes do tempo.

Executando Mathematica remotamente

terça-feira, 12 abr 2011; \15\America/New_York\America/New_York\k 15 Deixe um comentário

O Mathematica tem uma função muito interessante de execução remota que poucas pessoas fazem uso já que a implementação original é péssima.

Se você tem a sua disposição um cluster ou grid de computação de alta performance onde o Mathematica está instalado, você pode carregar a interface gráfica do Mathematica no seu computador mas executar todos os comandos na outra máquina de melhor performance. Não é necessário usar nenhum terminal bash; o Mathematica entre os dois computadores conversam sozinhos. Pelo menos para mim essa conexão é bem mais rápida do que carregar a GUI do Mathematica inteira remotamente, i.e. usando algo como o X11 forwarding.

Primeiro, você tem que ter o Mathematica instalado nas duas máquinas. Não é necessário que sejam a mesma versão, mas observe que o núcleo do Mathematica que será executado é o do computador remoto. Qualquer pacote a ser usado deve estar instalado lá. Note também que a versão do Mathematica que será executada é a do computador remoto; então se você tiver Mathematica 8 instalado no seu computador mas o núcleo instalado no computador remoto for Mathematica 7, você não vai poder usar nada específico do Mathematica 8.

O Mathematica possui dois elementos: o núcleo (Kernel) e a interface gráfica. Os Notebooks são uma espécie de script para o kernel. Você pode ter mais de um kernel funcionando ao mesmo tempo. Por padrão, o Mathematica vem configurado para executar um único kernel. Com o tutorial que se segue, você vai adicionar mais kernels ao Mathematica que serão executados em outro computador.

Mais de um Kernel não deve ser confundido com computação em paralelo, que o Mathematica implementa com subkernels. Hoje em dia com clusters e processadores multi-core, cada Kernel do Mathematica admite subkernels, um para cada processador. Em uma máquina Dual Core por exemplo, você pode configurar dois subkernels de um dado kernel. Em uma máquina com 12 processadores, você pode ter até 12 subkernels. O Mathematica não invoca subkernels automaticamente, ele por padrão usará um único core do seu computador. Ou seja, se você tem um Intel Quad Core 2.0 GHz, o Mathematica usa apenas um dos quatro processadores 2.0GHz. Para executar mais de um subkernel você deve prefixar os seus comandos com algo como o Parallelize:

primes = Table[Prime[10^i], {i, 11}]; IntegerLength /@ primes // Parallelize // AbsoluteTiming

Por padrão, ao usar esse comando o Mathematica invocará o número máximo de subkernels possíveis. Em um Quad Core, são 4. Ele então vai dividir a tarefa entre os 4 processadores. Nem todos os processos podem ser divididos em subkernels, no entanto. Após iniciar uma execução remota do Mathematica para um cluster de alta performance, se você quiser usar todo o potencial do cluster, terá que executar comandos como o Parallelize. Em uma computação longa com muita paralelização, é recomendável inicializar os subkernels com o comando LaunchKernels[].

O Mathematica não tem uma implementação satisfatória de execução remota. Os problemas são vários, e.g. portas aleatórias de conexão, que quase sempre serão bloqueadas por Firewall. A alternativa abaixo usa uma conexão ssh do computador local para o remoto e transfere toda a comunicação do kernel remoto por ssh.

 

Passo 1: Instalar scripts

Devido a limitação do WordPress.com, eu renomeei os arquivos para .doc. Primeiro, você precisa baixar os seguintes arquivos dependendo da sua plataforma e salvá-los no seu computador. Importante: eu só testei para o MacOSX.

  • Mac OS X: tunnel e ssh-askpass para ~/Library/Mathematica/FrontEnd (sua home, não o diretório raiz), como tunnel.sh e ssh-askpass (o último sem extensão).
  • Linux: tunnel para ~/.Mathematica/FrontEnd como tunnel.sh.
  • Windows: tunnel.bat, para algo como
    \Documents and Settings\seu_usuario_windows\Application Data\Mathematica\FrontEnd, salve-o como tunnel.bat.

No Mac OS X e no Linux, após transferir e renomear os arquivos, execute o Terminal e aplique os comandos chmod +x tunnel.sh e chmod +x ssh-askpass no diretório onde os scripts foram salvos.

Passo 2: Configurar o Mathematica

No Mathematica no seu computador, siga estes passos:

  1. Acesse o menu Evaluation > Kernel Configuration Options.
  2. Clique em “Add”.
  3. Escolha um nome para o núcleo, e.g. “Cluster remoto”.
  4. Marque a opção “Append name to…” se quiser que os comandos executados no computador remoto e os resultados do computador remoto sejam explicitamente identificados no Notebook do Mathematica. Por exemplo, cada resultado será prefixado como Out [Cluster remoto]: =.
  5. No Mac, por uma questão de compatibilidade com o Linux, marque “Translate Return into New Line”.
  6. Marque “Advanced Options”

Os próximos passos requerem mais explicação:

Arguments to MLOpen deve conter verbatim, uma única linha:

-LinkMode Listen -LinkProtocol TCPIP -LinkOptions MLDontInteract -LinkHost 127.0.0.1

Launch Command para Mac ou Linux

"`userbaseDirectory`/FrontEnd/tunnel.sh" user@remote_machine
"/mathematica/default/Executables/math" "`linkname`"

e para Windows:

"`userbaseDirectory`\FrontEnd\tunnel.bat" user@remote_machine
"/mathematica/default/Executables/math" "`linkname`"

onde /mathematica ... /math deve ser substituído pelo caminho completo do executável de linha de comando do Mathematica no computador remoto. Esse arquivo estará no diretório do executável do Mathematica com nome math. Substitua também user@remote_machine pelo seu login (user) seguido do endereço IP ou hostname do computador remoto.

No Windows, você ainda precisará do PuTTY.

Pronto. Ao abrir um Notebook, o Kernel remoto pode ser escolhido no menu Evaluation > Notebook’s Kernel. Você pode forçar a inicialização do Kernel em Evaluation > Start Kernel. No Mac, uma janela aparecerá perguntando sua senha; no Linux o Terminal fará isso. Se tudo der certo, o Mathematica local irá inicializar o kernel remoto. O bash script tunnel.sh e o tunnel.bat salvam no diretório onde eles estão um arquivo .log, útil para debug.

Sobre esse tutorial: Essa estratégia foi desenvolvida por Sascha Kratky. O ssh-askpass para Mac foi escrito por Richard Brittain, especialista em computação aqui em Dartmouth College.

O universo é quântico II, novas divergências em TQC

terça-feira, 5 abr 2011; \14\America/New_York\America/New_York\k 14 5 comentários

Será que existem divergências em teorias quânticas de campos (TQC) em espaços-tempo curvos que não podem ser removidas por renormalização?

Como o título já deve dar a entender, esse segundo post já vai ser sobre um aspecto técnico.

Leia mais

O universo não foi feito para nós

domingo, 3 abr 2011; \13\America/New_York\America/New_York\k 13 12 comentários

Vale lembrar, ou conhecer, esse trecho de Pálido Ponto Azul de Carl Sagan. Legendado em português. Para ver a legenda, verifique que o botão CC esteja em vermelho. Agradecimentos ao usuário do YouTube filipesmg que preparou as legendas. Narrado pelo próprio Sagan.

Então, o que realmente procuramos na filosofia e na religião? Paliativos? Terapia? Conforto? Buscamos fábulas tranqulizadoras ou um entendimento de nossas reais circunstâncias?

Antes de ir, outra chance para Sagan:

Carl Sagan foi um cientista com uma sensibilidade rara. Hoje em dia com atenção da mídia em Hitchens e Dawkins, ou de campanhas de organizações que comparam Hitler a religiosos, o belíssimo livrinho dele As variedades da experiência científica passou desapercebido. 😦

Sinto a falta da voz da razão de Sagan.

CMS e ATLAS esperam descobrir o Higgs até 2012

quinta-feira, 31 mar 2011; \13\America/New_York\America/New_York\k 13 5 comentários

Detector CMS em fase de montagem em 2008. Foto: Michael Hoch.

Hoje a Physics World publicou uma entrevista com Guido Tonelli, porta-voz do experimento CMS, e Pippa Wells, porta-voz do ATLAS. Ambos afirmam que CMS e ATLAS darão uma resposta definitiva para a existência do bóson de Higgs até final de 2012. A expectativa é que os dados do LHC de 2011 e de 2012 serão necessários para poder vasculhar o Higgs em toda a janela de massa que ele pode existir, que é atualmente de 115 a 600 GeV (para uma comparação, a massa do próton é aproximadamente 1 GeV). O Higgs é a única partícula do Modelo Padrão que ainda não foi positivamente detectada.

Leia mais…

Novo livro de Miguel Nicolelis

quarta-feira, 30 mar 2011; \13\America/New_York\America/New_York\k 13 1 comentário

O neurocientista brasileiro Miguel Nicolelis publicou recentemente nos Estados Unidos um novo livro de divulgação científica sobre seu trabalho: Beyond Boundaries (trad. livre: Além das fronteiras, A nova neurociência que conecta cérebros a máquinas). O livro já está disponível para compra nos EUA e tem seu próprio blog com fotos e filmagens referentes a pesquisa do grupo.

Ontem, Nicolelis deu uma entrevista sobre o livro no Daily Show com Jon Stewart. Durante a entrevista, Nicolelis fala sobre o projeto o qual ele está envolvido de construir um exoesqueleto robótico para pessoas com paralisia de membros que poderia ser controlado exclusivamente com pensamentos, sem necessidade do indivíduo apertar nenhum botão. Isso seria a extensão para humanos do trabalho demonstrado com macacos (que também apareceu na palestra TED do post anterior).

Atualizarei o post quando eu tiver notícia de uma edição em português. Se você não quiser esperar, pode comprar inglês importado em uma livraria. Por exemplo, aqui.

Atualização 1, 16/06/2011: o livro em português no Brasil entitula-se Muito além do nosso eu e já está disponível nas lojas.

Quando chega a hora de questionar a bioengenharia?

segunda-feira, 28 mar 2011; \13\America/New_York\America/New_York\k 13 4 comentários

Wow. Esta palestra é de assustar…

Da TEDxPeachtree, Paul Wolpe, especialista em bioética, lista alguns dos experimentos contemporâneos que modificaram seres vivos e exploraram as mais diversas manipulações de organismos… de cérebros mantidos vivos para controlar robôs a mariposas controladas por controle remoto.

Quem colapsou a função de onda do universo?

segunda-feira, 28 mar 2011; \13\America/New_York\America/New_York\k 13 2 comentários

Como ninguém perguntou no último post 😦 faço eu aqui a pergunta. Existe uma dificuldade conceitual na idéia da origem da estrutura do universo.

Para explicar o problema, deixe-me considerar o caso dos fótons da radiação cósmica de fundo. A temperatura média observada desses fótons é 2.73 K. Essa média é obtida da seguinte forma: o satélite recebe um conjunto de fótons vindos da direção n da abóboda celeste. Cada fóton recebido por unidade de tempo tem uma temperatura diferente; mas somando todos os fótons ao longo de um tempo t suficientemente longo, é possível determinar com uma precisão menor que 1 mK qual a temperatura dos fótons vindo daquela direção, chamemo-la T(n). Como eu disse, prever o valor exato da função T(n) é impossível porque requer saber exatamente qual a posição da Terra em relação ao ponto exato no espaço onde ocorreu o último espalhamento Compton que o fóton sofreu antes de chegar no satélite. No lugar disso, se faz a média T0 sobre todos os pontos da esfera celeste, ou seja, sobre todas as direções n. Essa média independe da direção. Esse é o valor 2.7 K. Nós podemos definir o desvio da média: ΔT(n)=T(n) – T0. A média do desvio da média é zero, mas não é zero a média do produto de dois ΔT(n), isto é o desvio padrão da média. Isso é análogo em mecânica quântica ao fato que a média da posição X pode ser zero, enquanto o mesmo não vale para X2.

A idéia proposta por Mukhanov e Chibisov é que essa média do céu é igual a mesma média obtida em mecânica quântica para a mesma variável. A dificuldade conceitual é que essas duas médias tem significados diferentes. A da mecânica quântica (MQ) significa o seguinte: você prepara o universo para ter início quando o tempo é zero em um estado \Psi, e mede a temperatura dos fótons na direção n em 12 bilhões de anos depois, o que te dará um valor T(n). Você então precisa colocar o universo novamente no estado \Psi no início e medir novamente T(n) 12 bilhões de anos depois, que vai lhe dar outro valor, e assim por diante. Uma série de medidas em vários universos diferentes é a média da MQ. Já a média utilizada na teoria clássica é de um mesmo universo sobre diferentes direções. Poder-se-ia questionar que quando a função de onda do nosso universo colapsou, a distribuição do campo gravitacional congelou em uma configuração específica da mecânica quântica. Essa configuração, tirada uma média sobre o espaço, é que constitui os observáveis astronômicos, e não a média sobre todas as possíveis realizações das flutuações do campo gravitacional, que é a média da física quântica. Mais objetivamente, como, quando e por que as probabilidades quânticas, como o emaranhamento, deixaram de ser flutuações quânticas do campo gravitacional e passaram a ser flutuações clássicas de intensidade do campo gravitacional? Será que toda vez que eu observo um fóton na radiação cósmica de fundo, eu colapso a função de onda de todo o universo? 🙂

O universo é quântico I

sexta-feira, 25 mar 2011; \12\America/New_York\America/New_York\k 12 4 comentários

A gravitação quântica pode estar ali na esquina…

Este vai ser o primeiro do que eu espero ser uma série de posts sobre os recentes avanços em cálculos de gravitação quântica em Cosmologia. Serão em tom de divulgação, mas com alguns detalhes técnicos aqui e ali. Eu não vou me preocupar em dar detalhes de referências no texto porque toma tempo e quem tiver interesse é só procurar ou perguntar. 🙂

Essa história começa com o seguinte problema. Suponha que eu aqui na Terra com um telescópio queira saber toda a evolução que trouxe a sopa primordial do universo até a formação de todas as galáxias:

 

A distribuição das galáxias no céu visto da Terra depende da posição relativa da Terra as galáxias vizinhas, o que nenhuma teoria cosmológica pode nos dizer. O que nós podemos calcular são na verdade aspectos probabilísticos do universo, como a densidade de massa média em um volume que contém muitas galáxias, ou o número de galáxias a uma dada distância d de outra galáxia. Olhando cada galáxia nas figuras dos telescópios e determinando quantas galáxias estão ao redor dela a uma certa distância d e depois tirando a média dessa quantidade para todas as galáxias vistas no telescópio pode-se tirar um estimador aproximado de como as galáxias estão distribuídas, e então comparar essa função de d com uma previsão da física.

Naturalmente, a física clássica não pode fornecer essa previsão: não faz parte do arcabouço conceitual clássico o conceito de probabilidades associadas aos observáveis físicos. As equações da Relatividade Geral para um fluido como a matéria escura, uma vez dadas as condições iniciais, tem uma evolução futura única. Quando os cosmólogos nos anos 60 toparam com essa questão, a estratégia foi introduzir artificialmente variáveis aleatórias no problema. Então, por exemplo, se A(\mathbf{x}, t) é um observável cosmológico (como a massa que existe no universo), os cosmólogos passaram a escreve-lo assim:

A(\mathbf{x}, t) = \sum_n \alpha_n(\mathbf{x}) A_n (t)

onde A_n(t) é cada uma das possíveis evoluções temporais da Relatividade Geral (t é o tempo) e \alpha(\mathbf{x}) é uma variável estrangeira a teoria que tem algum tipo de distribuição de probabilidade para como o observável se distruibui no espaço, por exemplo:

\langle\alpha_n \rangle = 0
\langle \alpha_n \alpha_m \rangle = P_{nm}

etc., onde \langle O \rangle quer dizer que estamos calculando o valor médio da variável aleatória O com respeito a alguma lei de probabilidade (por exemplo, no problema de um dado não viciado, cada face pode ter uma regra de probabilidade 1/6, e nós poderíamos definir a média de cada face \langle\alpha_i\rangle = 1/6, e a chance de tirar duas faces iguais \langle\alpha_i\alpha_j\rangle = (1/6)\times(1/6)). Na física clássica não existe nada que possa nos dizer a priori qual a distribuição de probabilidades (a não ser um chute!). (Na verdade a distribuição é feita no espaço de Fourier e não sobre o espaço-tempo).

A solução desse problema foi proposta em 1981 pelos russos Viatcheslav Mukhanov e Gennadiy Vasilevich Chibisov, então do Instituto de Física Teórica de Lebedev. Muita gente também dá crédito aos físicos do ocidente que puxaram a descoberta no contexto do modelo inflacionário logo em seguida: Stephen Hawking, Alan Guth e So-Young Pi, James Bardeen, Paul Steinhardt e Michael Turner.

Mukhanov e Chibisov fizeram um cálculo proposto a eles pelo colega Starobinsky: computar as flutuações quânticas do campo gravitacional em um modelo cosmológico proposto por Starobinsky. A suspeita era que os efeitos poderiam ser “grandes” e invalidar todo o modelo cosmológico. O que Mukhanov e Chibisov encontraram é que a distribuição de probabilidades do campo gravitacional quantizado no modelo de Starobinsky era idêntica a distribuição de massa do universo que acreditava-se na época ser necessária para garantir a formação das galáxias no modelo do Big Bang (apesar de que a distribuição de galáxias ainda não tinha sido observada em 1982!). Ora, se a fórmula é idêntica, a física deve ser a mesma: eles propuseram então que a origem da distribuição das galáxias era a gravitação quântica no universo primordial. A solução é muito elegante, pois promover os observáveis cosmológicos a observáveis em mecânica quântica permite associar a eles distribuições de probabilidades de forma natural. Mais importante, permite prever a distribuição de probabilidades do universo.

Hoje em dia a idéia é assim: o universo começou no vácuo, e passou por um período em que as distâncias entre dois pontos cresceram exponencialmente — a inflação. As flutuações quânticas do vácuo são pequenas, mas durante o período inflacionário elas são esticadas de um tamanho de 10-25 cm (cem bilhões de bilhões de vezes menor que o próton) até ao tamanho de uma galáxia. Essa flutuações querem dizer que a intensidade do campo gravitacional não é a mesma no espaço, o campo gravitacional tem uma probabilidade associada a ele de ter valores diferentes, igual como as probabilidades associadas a posição do elétron no átomo de hidrogênio. Os picos e vales de intensidade do campo gravitacional são essas flutuações. Eu já tinha escrito sobre isso no blog aqui.

Mas como é possível que o formato do campo gravitacional quântico no universo primordial possa ter dado origem as galáxias, se a inflação aconteceu mais de 100 milhões de anos antes das galáxias começarem a se formar? A física posterior a inflação não iria bagunçar o campo gravitacional do universo, como por exemplo, através de transições de fases, ou as colisões de prótons a altas energias, ou a formação do plasma de quarks e gluons?

Devido a inflação, essas flutuações se tornam tão grandes — do tamanho de uma galáxia! — que elas são muito maiores que a distância que a luz pode percorrer durante boa parte da história do universo. Quando o universo tinha 3 minutos, por exemplo, a distância que a luz pode percorrer desde o início do universo é de 3 minutos-luz; em comparação, uma galáxia tem cerca de 30 mil anos-luz de diâmetro. Só quando o universo já tinha mais idade que essas flutuações quânticas começam a ser influenciadas por outros efeitos físicos. Por uma boa coincidência de escalas, a temperatura do universo aos 3 minutos de idade era cerca de 1 MeV, que é a escala de energia típica da física nuclear, então esses outros efeitos que alteram a distribuição quântica primordial são física muito bem conhecida: física nuclear “para baixo”.

É curioso como se fala tanto que a física do LHC e do RHIC tem a ver com o Big Bang quando na verdade se sabe que qualquer efeito dessas escalas de energia não tem relevância para cosmologia.

Alguém ai entendeu alguma coisa?

No próximo post eu vou falar sobre os trabalhos recentes sobre as interações dos grávitons no universo primordial que afetam os observáveis cosmológicos, que em breve pode constituir um dos primeiros testes das interações da gravitação quântica graças ao satélite Planck. E depois sobre como se trombou com as diversas dificuldades da quantização da gravidade, e como a Cosmologia tem dado uma luz sobre como fazer contas com a Relatividade Geral quantizada.

Uma palestra técnica sobre o assunto você pode ver aqui, é o seminário “Cosmological Correlations” do Steven Weinberg. Já está desatualizada, mas eu não conheço nenhuma outra mais moderna.

Você escolhe: ou reclama da corrupção, ou reclama da Maria Bethânia.

segunda-feira, 21 mar 2011; \12\America/New_York\America/New_York\k 12 13 comentários

Mas não pode reclamar dos dois.

Quando o Estado cobra imposto e o dinheiro vai para pagar o salário de um dos legislativos mais caros do planeta, muita gente, eu inclusive, reclama. Afinal, o gasto salarial da Câmara dos Deputados Federais é maior que todo o orçamento do Ministério da Ciência e Tecnologia, que também inclui o pagamento de salários dos funcionários do MCT, além do repasse para os órgãos de pesquisa federais como o Centro Brasileiro de Pesquisas Físicas (CBPF) e o Instituto Nacional de Pesquisas Espaciais (INPE), entre outros.

Agora, quando se há uma lei sensata que permite descontar uma parcela do imposto de renda — apesar de miserável, acredite, apenas 4% a 6% de uma das tarifas mais altas do mundo! — trocando o poder de decisão do Estado para onde investir o dinheiro da economia privada para a sociedade, deixando de repassar dinheiro para burocratas e finalmente aplicando-o direto na mão de algo produtivo a sociedade, surgem todas essas pessoas criticando o mecanismo. Críticas que, por sinal, partem de premissas falsas. Primeiro, a Lei Rouanet não permite a Maria Bethânia ganhar R$ 1 milhão dos cofres públicos. Essa é a definição da lei: ela permite a iniciativa privada — portanto, por definição, dinheiro que não é do governo! — investir no blog da Maria Bethânia. É uma coisa tão boa, que eu fico estupefato com todo esse cri-cri-cri em cima de Bethânia. Quer dizer então que seria melhor os 4% do imposto de renda ir para o governo do que ir direito para a produção de arte? Será mesmo que é melhor deixar esse dinheiro para essa instituição, o governo brasileiro, onde todo o dinheiro do maior projeto social do Ministério do Esporte é um esquema de desvio de verbas públicas do PC do B? Onde há mensalões do PT, do DEM e do PSDB? Onde quase a totalidade da arrecadação do imposto vai para sustentar um pequeno grupo de indivíduos, e muito pouco dele de fato vai para serviços públicos? As pessoas estão reclamando do abatimento do imposto de renda de 4% da Lei Rouanet como se esse dinheiro, uma vez no governo, fosse revertido em políticas públicas. Não é. Talvez no mundo de fantasia em que o governo brasileiro gasta mais com Ciência e Tecnologia do que pagando salário de acessor de deputado, mas no mundo real, não é.

Vale lembrar que essa lei foi o que permitiu a criação do cinema brasileiro, e colocou o país no mapa: Central do Brasil, Carandiru, Cidade de Deus, Tropa de Elite, e mais recentemente, Lixo Extraordinário; todos foram possíveis graças a iniciativa privada, e não ao governo. E ainda assim, a iniciativa privada muitas vezes tem prejuízo, digamos assim, ao incentivar a cultura, pois 4% a 6% do imposto para esse fim pode ser facilmente menos do que a empresa esteja interessada em investir no projeto.

Se o projeto de Bethânia é descabido, ainda bem que existe a Lei Rouanet, porque é graças a ela que quem vai decidir é a sociedade civil. Se não fosse por essa lei, e os artistas dependessem de verba pública do MinC, a decisão seria exclusiva dos burocratas da situação. Que provavelmente aprovariam o projeto, e depois desviariam o dinheiro. Como o dinheiro do projeto não é nem um centavo do MinC, vamos frisar isso aqui, vai da iniciativa privada decidir se vai ou não financia-lo.

Eu aplaudo a lei Rouanet. E vaias para quem está reclamando de Bethânia. O ideal seria essa lei existir para outros setores também, como pesquisa científica. Assim pesquisadores brasileiros poderiam captar recursos sem depender da miséria do repasse do governo brasileiro para isso.

Uma obra de arte como poucas

segunda-feira, 14 mar 2011; \11\America/New_York\America/New_York\k 11 1 comentário

Uma obra de arte forte constrói-se em nós com uma multitude de aspectos, a criatividade do tema, da concepção, a estética, o esforço e técnica envolvidos, e, como não, o seu significado. Por esse olhar, a série de fotografias do artista plástico brasileiro Vik Muniz são uma das formas de arte mais sublimes. Muniz foi a um dos maiores aterros sanitários do mundo, o Jardim Gramacho no Rio de Janeiro, e transformou lixo em arte durante quase todo o ano de 2008, e com seu trabalho mudou a vida das pessoas dentro de uma das comunidades mais pobres do Brasil, e possivelmente, do mundo. Um grupo de catadores de lixo brasileiros de repente encontra um artista plástico mundialmente reconhecido que mora a 25 anos nos Estados Unidos, que os convida para participar ativamente de sua próxima obra. Eles não serão apenas os sujeitos das peças; eles serão os artistas que as pintarão dentro do ateliê. Como fica o universo de uma pessoa que antes vivia em uma das mais degradantes condições de trabalho imagináveis após ela se transformar em um criador de uma obra de arte que vai a leilão em Londres e transcorre o mundo em galerias? Só alguém que viveu tal experiência pode saber. “Eu nunca esperava ter uma foto minha em um museu. A gente se põe muito pequena, e as pessoas lá fora acham a gente tão grande, tão bonito”, descreveu emocionada a Irmã em uma entrevista a TV brasileira dentro do Museu de Arte Moderna do Rio de Janeiro. Ela vendia almoço para os catadores dentro do aterro. Aos demais, como eu, resta assistir o papel transformativo da arte em Lixo Extraordinário (Waste Land), um filme inspirador e de levantar a alma. A película de Muniz ganhou o prêmio de melhor documentário de 2010 escolhido pela audiência do Festival de Sundance, o prêmio Panorama de melhor filme no Festival de Berlim, e Prêmio Direitos Humanos da Anistia Internacional. Ele deve chegar as lojas em DVD essa semana (já disponível nos EUA para download). De uma indústria cinematográfica que evidenciou a corrupção e violência do país em Carandiru, Cidade de Deus e Tropa de Elite, é formidável ver um filme que pinta uma comunidade de forma tão bela.

Irmã, 2008. Clique para ampliar. Direitos reservados do artista, imagem exibida com autorização.
 

Mãe e filhos (Suellen), 2008. Clique para ampliar. Direitos reservados do artista, imagem exibida com autorização.

Leia mais…

Categorias:Ars Physica Tags:,

Relatividade Geral no Mathematica

sábado, 5 mar 2011; \09\America/New_York\America/New_York\k 09 4 comentários

Esse post é diferente do que eu escrevo usualmente, será um tutorial de um programa em desenvolvimento para fazer contas simbólicas em gravitação no Mathematica. Isso pode ser muito últil em um curso de Relatividade Geral da pós-graduação e teoria quântica de campos em espaço-tempos curvos, além de pesquisa.

Primeiro, você vai precisar do pacote xAct:

http://www.xact.es/

O xAct é dividido em vários subpacotes, eu vou me concentrar nos dois primeiros destes aqui:

  1. xTensor: permite usar a mesma notação de tensores usada na física, dentro do Mathematica. É a função principal do xAct.
  2. xCoba: permite definir sistemas de coordenadas.
  3. xPert: teoria de perturbação em gravitação.

Eu coloquei o terceiro acima para chamar a sua atenção. O objetivo do xAct é permitir escrever contas complicadas usando tensores, o que se tornou necessário com o avanço da cosmologia que hoje já requer perturbação em segunda ordem em Relatividade Geral.

Leia mais…

%d blogueiros gostam disto: