Archive

Archive for março \31\UTC 2011

CMS e ATLAS esperam descobrir o Higgs até 2012

quinta-feira, 31 mar 2011; \13\UTC\UTC\k 13 5 comentários

Detector CMS em fase de montagem em 2008. Foto: Michael Hoch.

Hoje a Physics World publicou uma entrevista com Guido Tonelli, porta-voz do experimento CMS, e Pippa Wells, porta-voz do ATLAS. Ambos afirmam que CMS e ATLAS darão uma resposta definitiva para a existência do bóson de Higgs até final de 2012. A expectativa é que os dados do LHC de 2011 e de 2012 serão necessários para poder vasculhar o Higgs em toda a janela de massa que ele pode existir, que é atualmente de 115 a 600 GeV (para uma comparação, a massa do próton é aproximadamente 1 GeV). O Higgs é a única partícula do Modelo Padrão que ainda não foi positivamente detectada.

Leia mais…

Novo livro de Miguel Nicolelis

quarta-feira, 30 mar 2011; \13\UTC\UTC\k 13 1 comentário

O neurocientista brasileiro Miguel Nicolelis publicou recentemente nos Estados Unidos um novo livro de divulgação científica sobre seu trabalho: Beyond Boundaries (trad. livre: Além das fronteiras, A nova neurociência que conecta cérebros a máquinas). O livro já está disponível para compra nos EUA e tem seu próprio blog com fotos e filmagens referentes a pesquisa do grupo.

Ontem, Nicolelis deu uma entrevista sobre o livro no Daily Show com Jon Stewart. Durante a entrevista, Nicolelis fala sobre o projeto o qual ele está envolvido de construir um exoesqueleto robótico para pessoas com paralisia de membros que poderia ser controlado exclusivamente com pensamentos, sem necessidade do indivíduo apertar nenhum botão. Isso seria a extensão para humanos do trabalho demonstrado com macacos (que também apareceu na palestra TED do post anterior).

Atualizarei o post quando eu tiver notícia de uma edição em português. Se você não quiser esperar, pode comprar inglês importado em uma livraria. Por exemplo, aqui.

Atualização 1, 16/06/2011: o livro em português no Brasil entitula-se Muito além do nosso eu e já está disponível nas lojas.

Quando chega a hora de questionar a bioengenharia?

segunda-feira, 28 mar 2011; \13\UTC\UTC\k 13 4 comentários

Wow. Esta palestra é de assustar…

Da TEDxPeachtree, Paul Wolpe, especialista em bioética, lista alguns dos experimentos contemporâneos que modificaram seres vivos e exploraram as mais diversas manipulações de organismos… de cérebros mantidos vivos para controlar robôs a mariposas controladas por controle remoto.

Quem colapsou a função de onda do universo?

segunda-feira, 28 mar 2011; \13\UTC\UTC\k 13 2 comentários

Como ninguém perguntou no último post 😦 faço eu aqui a pergunta. Existe uma dificuldade conceitual na idéia da origem da estrutura do universo.

Para explicar o problema, deixe-me considerar o caso dos fótons da radiação cósmica de fundo. A temperatura média observada desses fótons é 2.73 K. Essa média é obtida da seguinte forma: o satélite recebe um conjunto de fótons vindos da direção n da abóboda celeste. Cada fóton recebido por unidade de tempo tem uma temperatura diferente; mas somando todos os fótons ao longo de um tempo t suficientemente longo, é possível determinar com uma precisão menor que 1 mK qual a temperatura dos fótons vindo daquela direção, chamemo-la T(n). Como eu disse, prever o valor exato da função T(n) é impossível porque requer saber exatamente qual a posição da Terra em relação ao ponto exato no espaço onde ocorreu o último espalhamento Compton que o fóton sofreu antes de chegar no satélite. No lugar disso, se faz a média T0 sobre todos os pontos da esfera celeste, ou seja, sobre todas as direções n. Essa média independe da direção. Esse é o valor 2.7 K. Nós podemos definir o desvio da média: ΔT(n)=T(n) – T0. A média do desvio da média é zero, mas não é zero a média do produto de dois ΔT(n), isto é o desvio padrão da média. Isso é análogo em mecânica quântica ao fato que a média da posição X pode ser zero, enquanto o mesmo não vale para X2.

A idéia proposta por Mukhanov e Chibisov é que essa média do céu é igual a mesma média obtida em mecânica quântica para a mesma variável. A dificuldade conceitual é que essas duas médias tem significados diferentes. A da mecânica quântica (MQ) significa o seguinte: você prepara o universo para ter início quando o tempo é zero em um estado \Psi, e mede a temperatura dos fótons na direção n em 12 bilhões de anos depois, o que te dará um valor T(n). Você então precisa colocar o universo novamente no estado \Psi no início e medir novamente T(n) 12 bilhões de anos depois, que vai lhe dar outro valor, e assim por diante. Uma série de medidas em vários universos diferentes é a média da MQ. Já a média utilizada na teoria clássica é de um mesmo universo sobre diferentes direções. Poder-se-ia questionar que quando a função de onda do nosso universo colapsou, a distribuição do campo gravitacional congelou em uma configuração específica da mecânica quântica. Essa configuração, tirada uma média sobre o espaço, é que constitui os observáveis astronômicos, e não a média sobre todas as possíveis realizações das flutuações do campo gravitacional, que é a média da física quântica. Mais objetivamente, como, quando e por que as probabilidades quânticas, como o emaranhamento, deixaram de ser flutuações quânticas do campo gravitacional e passaram a ser flutuações clássicas de intensidade do campo gravitacional? Será que toda vez que eu observo um fóton na radiação cósmica de fundo, eu colapso a função de onda de todo o universo? 🙂

O universo é quântico I

sexta-feira, 25 mar 2011; \12\UTC\UTC\k 12 4 comentários

A gravitação quântica pode estar ali na esquina…

Este vai ser o primeiro do que eu espero ser uma série de posts sobre os recentes avanços em cálculos de gravitação quântica em Cosmologia. Serão em tom de divulgação, mas com alguns detalhes técnicos aqui e ali. Eu não vou me preocupar em dar detalhes de referências no texto porque toma tempo e quem tiver interesse é só procurar ou perguntar. 🙂

Essa história começa com o seguinte problema. Suponha que eu aqui na Terra com um telescópio queira saber toda a evolução que trouxe a sopa primordial do universo até a formação de todas as galáxias:

 

A distribuição das galáxias no céu visto da Terra depende da posição relativa da Terra as galáxias vizinhas, o que nenhuma teoria cosmológica pode nos dizer. O que nós podemos calcular são na verdade aspectos probabilísticos do universo, como a densidade de massa média em um volume que contém muitas galáxias, ou o número de galáxias a uma dada distância d de outra galáxia. Olhando cada galáxia nas figuras dos telescópios e determinando quantas galáxias estão ao redor dela a uma certa distância d e depois tirando a média dessa quantidade para todas as galáxias vistas no telescópio pode-se tirar um estimador aproximado de como as galáxias estão distribuídas, e então comparar essa função de d com uma previsão da física.

Naturalmente, a física clássica não pode fornecer essa previsão: não faz parte do arcabouço conceitual clássico o conceito de probabilidades associadas aos observáveis físicos. As equações da Relatividade Geral para um fluido como a matéria escura, uma vez dadas as condições iniciais, tem uma evolução futura única. Quando os cosmólogos nos anos 60 toparam com essa questão, a estratégia foi introduzir artificialmente variáveis aleatórias no problema. Então, por exemplo, se A(\mathbf{x}, t) é um observável cosmológico (como a massa que existe no universo), os cosmólogos passaram a escreve-lo assim:

A(\mathbf{x}, t) = \sum_n \alpha_n(\mathbf{x}) A_n (t)

onde A_n(t) é cada uma das possíveis evoluções temporais da Relatividade Geral (t é o tempo) e \alpha(\mathbf{x}) é uma variável estrangeira a teoria que tem algum tipo de distribuição de probabilidade para como o observável se distruibui no espaço, por exemplo:

\langle\alpha_n \rangle = 0
\langle \alpha_n \alpha_m \rangle = P_{nm}

etc., onde \langle O \rangle quer dizer que estamos calculando o valor médio da variável aleatória O com respeito a alguma lei de probabilidade (por exemplo, no problema de um dado não viciado, cada face pode ter uma regra de probabilidade 1/6, e nós poderíamos definir a média de cada face \langle\alpha_i\rangle = 1/6, e a chance de tirar duas faces iguais \langle\alpha_i\alpha_j\rangle = (1/6)\times(1/6)). Na física clássica não existe nada que possa nos dizer a priori qual a distribuição de probabilidades (a não ser um chute!). (Na verdade a distribuição é feita no espaço de Fourier e não sobre o espaço-tempo).

A solução desse problema foi proposta em 1981 pelos russos Viatcheslav Mukhanov e Gennadiy Vasilevich Chibisov, então do Instituto de Física Teórica de Lebedev. Muita gente também dá crédito aos físicos do ocidente que puxaram a descoberta no contexto do modelo inflacionário logo em seguida: Stephen Hawking, Alan Guth e So-Young Pi, James Bardeen, Paul Steinhardt e Michael Turner.

Mukhanov e Chibisov fizeram um cálculo proposto a eles pelo colega Starobinsky: computar as flutuações quânticas do campo gravitacional em um modelo cosmológico proposto por Starobinsky. A suspeita era que os efeitos poderiam ser “grandes” e invalidar todo o modelo cosmológico. O que Mukhanov e Chibisov encontraram é que a distribuição de probabilidades do campo gravitacional quantizado no modelo de Starobinsky era idêntica a distribuição de massa do universo que acreditava-se na época ser necessária para garantir a formação das galáxias no modelo do Big Bang (apesar de que a distribuição de galáxias ainda não tinha sido observada em 1982!). Ora, se a fórmula é idêntica, a física deve ser a mesma: eles propuseram então que a origem da distribuição das galáxias era a gravitação quântica no universo primordial. A solução é muito elegante, pois promover os observáveis cosmológicos a observáveis em mecânica quântica permite associar a eles distribuições de probabilidades de forma natural. Mais importante, permite prever a distribuição de probabilidades do universo.

Hoje em dia a idéia é assim: o universo começou no vácuo, e passou por um período em que as distâncias entre dois pontos cresceram exponencialmente — a inflação. As flutuações quânticas do vácuo são pequenas, mas durante o período inflacionário elas são esticadas de um tamanho de 10-25 cm (cem bilhões de bilhões de vezes menor que o próton) até ao tamanho de uma galáxia. Essa flutuações querem dizer que a intensidade do campo gravitacional não é a mesma no espaço, o campo gravitacional tem uma probabilidade associada a ele de ter valores diferentes, igual como as probabilidades associadas a posição do elétron no átomo de hidrogênio. Os picos e vales de intensidade do campo gravitacional são essas flutuações. Eu já tinha escrito sobre isso no blog aqui.

Mas como é possível que o formato do campo gravitacional quântico no universo primordial possa ter dado origem as galáxias, se a inflação aconteceu mais de 100 milhões de anos antes das galáxias começarem a se formar? A física posterior a inflação não iria bagunçar o campo gravitacional do universo, como por exemplo, através de transições de fases, ou as colisões de prótons a altas energias, ou a formação do plasma de quarks e gluons?

Devido a inflação, essas flutuações se tornam tão grandes — do tamanho de uma galáxia! — que elas são muito maiores que a distância que a luz pode percorrer durante boa parte da história do universo. Quando o universo tinha 3 minutos, por exemplo, a distância que a luz pode percorrer desde o início do universo é de 3 minutos-luz; em comparação, uma galáxia tem cerca de 30 mil anos-luz de diâmetro. Só quando o universo já tinha mais idade que essas flutuações quânticas começam a ser influenciadas por outros efeitos físicos. Por uma boa coincidência de escalas, a temperatura do universo aos 3 minutos de idade era cerca de 1 MeV, que é a escala de energia típica da física nuclear, então esses outros efeitos que alteram a distribuição quântica primordial são física muito bem conhecida: física nuclear “para baixo”.

É curioso como se fala tanto que a física do LHC e do RHIC tem a ver com o Big Bang quando na verdade se sabe que qualquer efeito dessas escalas de energia não tem relevância para cosmologia.

Alguém ai entendeu alguma coisa?

No próximo post eu vou falar sobre os trabalhos recentes sobre as interações dos grávitons no universo primordial que afetam os observáveis cosmológicos, que em breve pode constituir um dos primeiros testes das interações da gravitação quântica graças ao satélite Planck. E depois sobre como se trombou com as diversas dificuldades da quantização da gravidade, e como a Cosmologia tem dado uma luz sobre como fazer contas com a Relatividade Geral quantizada.

Uma palestra técnica sobre o assunto você pode ver aqui, é o seminário “Cosmological Correlations” do Steven Weinberg. Já está desatualizada, mas eu não conheço nenhuma outra mais moderna.

Você escolhe: ou reclama da corrupção, ou reclama da Maria Bethânia.

segunda-feira, 21 mar 2011; \12\UTC\UTC\k 12 13 comentários

Mas não pode reclamar dos dois.

Quando o Estado cobra imposto e o dinheiro vai para pagar o salário de um dos legislativos mais caros do planeta, muita gente, eu inclusive, reclama. Afinal, o gasto salarial da Câmara dos Deputados Federais é maior que todo o orçamento do Ministério da Ciência e Tecnologia, que também inclui o pagamento de salários dos funcionários do MCT, além do repasse para os órgãos de pesquisa federais como o Centro Brasileiro de Pesquisas Físicas (CBPF) e o Instituto Nacional de Pesquisas Espaciais (INPE), entre outros.

Agora, quando se há uma lei sensata que permite descontar uma parcela do imposto de renda — apesar de miserável, acredite, apenas 4% a 6% de uma das tarifas mais altas do mundo! — trocando o poder de decisão do Estado para onde investir o dinheiro da economia privada para a sociedade, deixando de repassar dinheiro para burocratas e finalmente aplicando-o direto na mão de algo produtivo a sociedade, surgem todas essas pessoas criticando o mecanismo. Críticas que, por sinal, partem de premissas falsas. Primeiro, a Lei Rouanet não permite a Maria Bethânia ganhar R$ 1 milhão dos cofres públicos. Essa é a definição da lei: ela permite a iniciativa privada — portanto, por definição, dinheiro que não é do governo! — investir no blog da Maria Bethânia. É uma coisa tão boa, que eu fico estupefato com todo esse cri-cri-cri em cima de Bethânia. Quer dizer então que seria melhor os 4% do imposto de renda ir para o governo do que ir direito para a produção de arte? Será mesmo que é melhor deixar esse dinheiro para essa instituição, o governo brasileiro, onde todo o dinheiro do maior projeto social do Ministério do Esporte é um esquema de desvio de verbas públicas do PC do B? Onde há mensalões do PT, do DEM e do PSDB? Onde quase a totalidade da arrecadação do imposto vai para sustentar um pequeno grupo de indivíduos, e muito pouco dele de fato vai para serviços públicos? As pessoas estão reclamando do abatimento do imposto de renda de 4% da Lei Rouanet como se esse dinheiro, uma vez no governo, fosse revertido em políticas públicas. Não é. Talvez no mundo de fantasia em que o governo brasileiro gasta mais com Ciência e Tecnologia do que pagando salário de acessor de deputado, mas no mundo real, não é.

Vale lembrar que essa lei foi o que permitiu a criação do cinema brasileiro, e colocou o país no mapa: Central do Brasil, Carandiru, Cidade de Deus, Tropa de Elite, e mais recentemente, Lixo Extraordinário; todos foram possíveis graças a iniciativa privada, e não ao governo. E ainda assim, a iniciativa privada muitas vezes tem prejuízo, digamos assim, ao incentivar a cultura, pois 4% a 6% do imposto para esse fim pode ser facilmente menos do que a empresa esteja interessada em investir no projeto.

Se o projeto de Bethânia é descabido, ainda bem que existe a Lei Rouanet, porque é graças a ela que quem vai decidir é a sociedade civil. Se não fosse por essa lei, e os artistas dependessem de verba pública do MinC, a decisão seria exclusiva dos burocratas da situação. Que provavelmente aprovariam o projeto, e depois desviariam o dinheiro. Como o dinheiro do projeto não é nem um centavo do MinC, vamos frisar isso aqui, vai da iniciativa privada decidir se vai ou não financia-lo.

Eu aplaudo a lei Rouanet. E vaias para quem está reclamando de Bethânia. O ideal seria essa lei existir para outros setores também, como pesquisa científica. Assim pesquisadores brasileiros poderiam captar recursos sem depender da miséria do repasse do governo brasileiro para isso.

As cidades mais científicas do mundo…

sábado, 19 mar 2011; \11\UTC\UTC\k 11 Deixe um comentário

O Physics arXiv blog publicou uma matéria interessante. Mas, antes de falar da notícia, eu tenho que avisar que não estou entre os maiores fãs desse blog — na verdade, minha opinião flutua bastante: alguns artigos são bons, outros ficam bem longe disso… mas, em todos os casos, o Physics arXiv blog é bem enviesado (a seleção dos tópicos que aparecem por lá deixa isso claro além de qualquer dúvida, isso pra não falar sobre o nível das discussões, sempre bem ‘passageiro’) — e isso sempre me incomoda muito.

De qualquer forma, e sem mais delongas… eis o artigo: Mashups Reveal World’s Top Scientific Cities. O original pode ser lido diretamente nos arXivs: Which cities produce worldwide more excellent papers than can be expected? A new mapping approach—using Google Maps—based on statistical significance testing.

A discussão no ‘Physics arXiv blog’ não passa de “mais do mesmo”: ciênci-o-metria. Infelizmente, perde-se a chance de se avaliar o artigo propriamente dito, escolhendo-se apenas notificar a “mensagem” contida no mesmo. Parece até mesmo um órgão de Relações Públicas, apenas alardeando e propagandeando.

O artigo propriamente dito é de tão baixa qualidade que a vontade que se tem é de apenas se repetir o adágio invisível, que diz que os artigos dos arXivs não escritos em [La]TeX são sempre de qualidade duvidosa — pior ainda quando são escritos em Word, ou algum editor de pior qualidade ainda; sem identação apropriada (quem ainda usa ‘identação à esquerda’, ao invés de ‘justificado’? :razz:): via de regra, a falta de atenção a esse tipo de detalhe num artigo costuma refletir a baixa qualidade do material escrito. Mas, como eu disse, esse é apenas um “adágio invisível”, uma unspoken rule, que não se vê, não se ouve, e cujo perfume não se sente. 😳 🙄

De qualquer forma, a máquina de salsicha continua na ativa: como se mensurar o imensurável: quais trabalhos científicos têm mais qualidade, quais são mais dignos de fomento, quais têm mais impacto na comunidade?

Todas essas são questões relevantes, claro, mas uma lição que a Ciência tem que aprender com a Arte é que a medição da criatividade é algo estupidamente difícil. Aliás, nem é preciso se apelar para o lado mais humanista desta questão: basta apenas se aprender Sistemas Dinâmicos corretamente (o que, de fato, parece ser algo tão complicado quanto nos dias de hoje). A razão deste meu argumento é bem simples: como se pode avaliar algo que possui resultados de médio a longo prazo (sem esperarmos por tal prazo)?

A resposta é simples: não é possível se avaliar nada que dependa de médio a longo prazo sem esperarmos tal prazo passar e medirmos o resultado efetivo do que se deseja avaliar. Ou seja, precisamos esperar o tempo passar pra podermos sequer ter a chance de sermos justos nesta empreitada! Ou seja, falando um pouco mais rigorosamente, é preciso termos acesso a todos os dados para podermos conhecer o problema de modo completo.

Infelizmente, com a idéia de que as Universidades devem ser “profissionalizadas” (sabe-se lá o que isso significa :razz:) e, mais ainda, de que toda a empreitada científica deve ser “profissionalizada”, todo esse tipo de questão métrica se torna relevante: como se pode escolher aquilo que há de “melhor” para se fomentar? Assim como numa empresa, numa linha de montagem, é preciso haver alguma forma de “selo de garantia”, alguma forma de “controle de qualidade”. (Note que não estou falando do processo de ensino de estudantes, mas sim de pesquisa científica — falar de ensino por si só abriria outra Caixa de Pandora!)

Entretanto, ao contrário de empresas, fábricas e linhas de montagem, Universidades e Pesquisa Científica [fundamental] possuem planos de ação, missões, de longo prazo, de longuíssimo prazo: há universidades com cerca de 1000 anos de existência: quantas empresas, fábricas e linhas de montagem podem dizer o mesmo?! A própria Revolução Industrial tem apenas cerca de 250 anos!

Felizmente ou não, esta é a natureza da busca pelo conhecimento, e este é o papel da Ciência, principalmente daquela dita fundamental (que costuma dar frutos bem distante das aplicações do dia-a-dia). Por outro lado, hoje em dia, na nossa Era da Informação, é possível se converter algo tão abstrato quanto Teoria dos Grafos em compiladores e navegadores. Este é o caminho da Ciência e do Conhecimento: a menos que se tenha acesso a toda informação, só se pode ver aquilo que está no curto prazo… 😉

Isso tudo só server pra fazer com qua a analogia posta acima — entre Sistemas Dinâmicos e Funções de Partição — fique ainda mais clara aos olhos: quando vc tem acesso à Função de Partição dum problema, vc tem em mãos toda a informação necessária pra resolver o problema completamente; no caso de Sistemas Dinâmicos, como o nome indica (dependência temporal), é muito difícil de se calcular o que vai acontecer no futuro (não-linearidades, caos, etc). E, no final das contas, tudo que se quer medir são os Fenômenos Críticos, as Transições de Fases, e as Propriedades de Escala do sistema em questão.

A mensagem é clara: sem uma visão mais global é impossível se poder qualificar e medir justamente um trabalho científico. Incontáveis exemplos, de Einstein à Wilson, todos nobelistas, jamais teriam os “índices” e os “fatores de impacto” necessários, hoje, para serem contratados em regime de ‘tenure track’ — isso é claro pra qualquer um que já tenha feito o exercício mental requerido por esta questão.

Algumas empresas e alguns nichos industriais já descobriram esse fato básico da natureza humana… aliás, no âmbito de Sistemas Dinâmicos tudo isso tem nome: Cisne Negro e Dragões Reis. 😈

Infelizmente, parece que esse aprendizado e essa mensagem ainda não chegaram na academia — um fato bem irônico, posto que a academia é o lugar onde tais idéias (transições de fase, cisne negros e dragões reis) nasceram! 😳 Então, por enquanto, nós ainda vamos nos debelando com índices e fatores de impacto e outras bobeiras afins. Eu gostaria que fosse feito um estudo com as revistas de maior impacto, procurando-se saber quantos dos artigos publicados nestas revistas deram origens a novos caminhos e novos ramos em seus respectivos campos da Ciência. Taí uma perguntinha bem capiciosa e que por motivos “mágicos” ainda ninguém teve a idéia de responder… 🙄 (Diquinha: eu não me lembro de Einstein ter publicado na Nature nem na Science, então nem as Relatividades nem a Mecânica Quântica (ou Teoria Quântica de Campos) tiveram suas origens nas revistas ditas de alto impacto; o mesmo vale, por exemplo, para as chamadas Transições Quânticas de Fase: o Kosterlitz não publicou numa revista de alto impacto — aliás, porque ninguém pergunta pro Kosterlitz o que ele pensa disso tudo, afinal de contas ele deu origem a todo um ramo da Física, logo deve saber o que significa “alto impacto científico”, não?! :razz:)

Pra finalizar, vou apenas me resignar a dizer que a análise estatística feita no tal artigo é de baixa qualidade, não apenas porque não leva em conta os cisnes negros e os dragões reis, mas também porque não leva em conta tantos outros métodos que a tornariam bem mais robusta. É uma pena, porque os “efeitos visuais”, os “efeitos especiais”, do artigo são bem bonitinhos… [bonitinhos mas ordinários! :razz:]

[]’s.

Atualizado (2011-Mar-19 @ 11:15h EDT): Ah… a ironia do destino. Assim que acabei de escrever o post acima, trombei no seguinte livro: Little Bets: How Breakthrough Ideas Emerge from Small Discoveries. O ponto do livro é clararamente exposto no título, mas também já foi feito por Asimov,

“The most exciting phrase to hear in science, the one that heralds new discoveries, is not ‘Eureka!’ (I’ve found it!), but ‘That’s funny…'”

Isaac Asimov.

Experimentação, passo-a-passo, erros e mais erros… é assim que se faz Ciência: a idéia de que pesquisa e progresso é feito através duma seqüência de ‘acertos’, de passos corretos, não poderia estar mais distante da realidade… c’est la vie

%d blogueiros gostam disto: