Arquivo

Posts Tagged ‘noticia’

Engenharia na USP abre o primeiro “Endowment” nacional

sexta-feira, 17 jun 2011; \24\America/New_York\America/New_York\k 24 3 comentários

Vista aerea da Politécnica da USP

Segundo reportagem da Folha de hoje, a Escola Politécnica da USP (a unidade de engenharia do campus da capital) abriu seu “endowment”, coisa inédita no cenário das universidades nacionais. Trata-se de uma coleção de fundos originários da soma de doações de indivíduos, empresas, organizações civis, etc. A iniciativa foi dos próprios alunos que abriram o fundo com R$ 100 mil. O objetivo é utilizar o retorno do fundo aplicado no mercado financeiro para fomentar pesquisas de professores e alunos da Politécnica.

O endowment, que aqui uso a palavra estrangeira por falta de vernáculo brasileiro para designar um fundo de investimento de uma universidade para suas operações*, é uma das fontes de renda que as universidades norte-americanas utilizam. Não é a maior fonte, mas figura entre as mais expressivas. Vejamos o exemplo de Dartmouth: a universidade opera com um gasto anual de aproximadamente US$ 730 milhões atualmente, com um endowment de US$ 2.8 bilhões. De 20-30% de todos os gastos são pagos com o retorno financeiro do endowment, enquanto que até 50% pode vir do pagamento da mensalidade dos alunos, mais precisamente a tuition. Os números naturalmente variam entre universidades e também entre anos, porém é seguro dizer que o endowment paga entre 14% a 30% de todos os gastos das universidades norte-americanas privadas. Paga salário de funcionários, professores, custos operacionais, materiais, aquisições de novos prédios e investimentos de expansão do campus, mas não equipamentos e construção de laboratórios de pesquisa ou salário de alunos de pós-graduação a partir do terceiro ano. Para isto, a universidade usa de recursos externos como bolsas do governo ou de instituições privadas, como Sloan Foundation, Google, Microsoft, etc. Mas no caso da Politécnica da USP, os salários dos professores e despesas operacionais já estão segurados pelo orçamento público, então o papel do endowment seria pagar investimentos em laboratórios de pesquisa, professores e bolsas para alunos, uma forma de dinheiro suplementar as fontes FAPESP, CNPq e CAPES. Um conselho de professores da Politécnica decidirá como os recursos do endowment serão distribuídos para pesquisas na escola, e a unidade vai pagar uma instituição privada para administrar o fundo, espero eu que com o ganho do próprio endowment.

Quem ficou curioso sobre o orçamento universitário nos EUA pode fazer uma pesquisa no Google por “[instituição] budget”, a maioria das instituições publica esses dados nas suas páginas da Internet.

* Atualização 23/06/2011: a palavra em português é dotação. Obrigado ao Robson pelo esclarecimento. Mais informação e como doar a dotação da Politécnica na página oficial.

Categorias:Ars Physica, USP Tags:

CMS e ATLAS esperam descobrir o Higgs até 2012

quinta-feira, 31 mar 2011; \13\America/New_York\America/New_York\k 13 5 comentários

Detector CMS em fase de montagem em 2008. Foto: Michael Hoch.

Hoje a Physics World publicou uma entrevista com Guido Tonelli, porta-voz do experimento CMS, e Pippa Wells, porta-voz do ATLAS. Ambos afirmam que CMS e ATLAS darão uma resposta definitiva para a existência do bóson de Higgs até final de 2012. A expectativa é que os dados do LHC de 2011 e de 2012 serão necessários para poder vasculhar o Higgs em toda a janela de massa que ele pode existir, que é atualmente de 115 a 600 GeV (para uma comparação, a massa do próton é aproximadamente 1 GeV). O Higgs é a única partícula do Modelo Padrão que ainda não foi positivamente detectada.

Leia mais…

Demonstrado novo parâmetro cosmológico

quinta-feira, 11 mar 2010; \10\America/New_York\America/New_York\k 10 1 comentário

Em 2007, Pengjie Zhang e outros cosmólogos teóricos sugeriram que a observação da posição e velocidade das galáxias com o desvio da propagação da luz dessas galáxias até nós serviria de uma medida da distribuição de massa do universo. (arXiv:0704.1932). Até então, a técnica utilizada pelo projeto astronômico do telescópio Sloan Digital Sky Survey (SDSS) consistia em medir a distribuição de galáxias e o desvio para o vermelho da galáxia e extrapolar o resultado para a distribuição de massa assumindo que a matéria escura deve seguir aproximadamente a mesma distribuição espacial que os prótons e nêutrons (bárions). Isso não é exatamente verdade porque os bárions formam um gás que interage muito mais facilmente com os fótons da radiação cósmica de fundo do que a matéria escura, e como resultado, os bárions são mantidos a uma temperatura próxima da radiação de fundo antes da formação das estrelas. Esse gás quente de bárions tem pressão presumivelmente maior que a pressão da matéria escura. Em Relatividade Geral, nós podemos deduzir a relação entre a fração da massa de bárions que acompanha a matéria escura e pode-se dizer que o contraste de densidade de bárions é de 10% a 17% menor que o de matéria escura quando se inclui a pressão do gás. Mais importante é talvez o fato de que devido a pressão dos bárions, existem concentrações densas de matéria escura no universo onde não existem galáxias. Todas essas concentrações de matéria escura pura são perdidas na estimativa original do SDSS.

A idéia de Zhang foi de utilizar as velocidades das galáxias e suas posições e relacionar com a lente gravitacional observada. Combinando astutamente estes dois observáveis diferentes de galáxias, é possível eliminar o efeito da pressão dos bárions pelo menos para certas partes da distribuição espacial da matéria total do universo. O observável é sensível a taxa de crescimento de estruturas (quão rápido/forte é a formação das galáxias) que depende sensivelmente com a teoria da gravitação subjacenete, e dessa forma medindo-a é possível testar diferentes teorias da gravitação. No artigo de Zhang, eles mostraram que com a sensibilidade projetada do telescópio SKA, seria possível distinguir a Relatividade Geral de MOND, f(R) e uma teoria de dimensões espaciais extras (conhecida pela sigla de seus autores, DGP) — isso tudo são outros candidatos para teoria da gravitação.

Agora, uma estudante de pós-graduação de Princeton, Reinabelle Reyes, junto com vários outros astrofísicos e astrônomos, demonstrou que a técnica é eficiente (Nature 464, 256-258 (2010)) usando os dados do SDSS. Na realidade, este resultado não é um teste preciso da Relatividade Geral — embora é um teste independente –, e tampouco produziu algo de novo em termos de excluir teorias pois já era sabido de lentes gravitacionais que MOND sem matéria escura não é consistente com os dados (e.g., este post). As barras de erro ainda são muito grandes para poder discernir entre a Relatividade Geral e as alternativas, contudo o que vem como importante é a demonstração de que é possível medir o parâmetro diretamente com erros sob controle. O programa agora será diminuir as incertezas nos telescópios futuros, e quem sabe, projetar um telescópio otimizado para essa medida, que não é o caso do SDSS, de modo a permitir a exclusão ou confirmação mais definitiva de alternativas a Relatividade de Einstein.

Sean Carroll no Colbert Report

quinta-feira, 11 mar 2010; \10\America/New_York\America/New_York\k 10 1 comentário

Ontem o Sean Carroll esteve no Colbert Report falando sobre seu livro de divulgação. Como o WordPress não deixa inserir vídeos nos posts, eu só posso passar o link abaixo:

http://www.colbertnation.com/the-colbert-report-videos/267142/march-10-2010/sean-carroll

E como parte da história, a pergunta final do Steve 🙂

Dilbert.com

Físicos constroem o primeiro (quase) laser acústico

terça-feira, 23 fev 2010; \08\America/New_York\America/New_York\k 08 Deixe um comentário

Ontem foi publicado um par de artigos bem interessantes que talvez tenham sido as primeiras construções experimentais na direção de lasers acústicos, um sistema que utiliza das leis da mecânica quântica para produzir uma onda de som análoga ao feixe de laser de luz! Os experimentos foram dois diferentes, um realizado no Caltech nos EUA e outro na Universidade de Nottingham na Inglaterra (artigos técnicos aqui e aqui).

Um laser (de luz) é produzido por um fenômeno da mecânica quântica chamado de emissão estimulada. Pense por exemplo em um átomo de rubídio que pode estar em dois estados de energia E_a e E_b diferentes, com E_b > E_a. Se nós acoplarmos esse átomo com uma onda de freqüência \omega que não seja muito diferente da freqüência \omega_0 = (E_b - E_a)/\hbar, então existe tanto o fenômeno do átomo inicialmente no estado a ser excitado para o estado b como o fenômeno do átomo no estado b decair para o estado a. Quando o átomo é excitado, ele absorve energia da onda incidente, mas quando ele decai, ele fornece energia. Curiosamente, a probabilidade — em um modelo aproximado para esse sistema — é a mesma para tanto a excitação como para o decaimento ocorrer! Assim, ao fornecer constantemente a onda de freqüência \omega de fundo para um conjunto de átomos (a bomba como se diz no jargão), se inicialmente todos os átomos estavam no estado a eles são em conjunto excitados para b e em b devolvem uma outra onda de freqüência \omega_0, e ao repetir o processo várias vezes, o resultado é uma tremenda amplificação de energia que produz uma onda de freqüência \omega_0. Essa onda é o laser.

Mas ondas de luz e ondas de som tem várias similaridades, a começar pelo fato que na física clássica as duas são realizações físicas diferentes da solução de uma mesma equação — a equação da onda. E em mecânica quântica, ao fazer uma aproximação do movimento coletivo de átomos como um efeito de elasticidade contínua do material, tanto o som como a luz são descritos por equações similares. O análogo do fóton da luz para o som é o que se chama o fonon (é a partícula do fone, ora.). Então fica a pergunta natural:

É possível existir um laser de som?

Ou seja: é possível fazer átomos amplificarem um sinal de entrada com uma certa freqüência \omega criando uma onda de som de saída com freqüência bem definida, quase monofrequente, \omega_0 \approx \omega (próximo do valor de \omega) e espacialmente coerente? (Se você não sabe o que quer dizer coerente neste contexto, não se avexe). Até então isso parecia muito difícil na prática, com os processos de absorção dominando sobre os de emissão estimulada. Os dois grupos em questão parecem ter feito a primeira realização do laser de som que supera essa dificuldade.

Micrografia dos microtoróides de silica construídos pelo grupo do Caltech, original do artigo de Ivan Grudinin et al.

O grupo do Caltech construiu dois toróides de silica de poucos micrometros de diâmetro a uma pequena fração de seus raios de distância um do outro, ajustados para que um laser externo sirva de onda de fundo que excita um modo de vibração sonora dos dois toróides que é um estado excitado da ressonância acústica do sistema (ressonância acústica é aquele efeito que aconteceu na ponte de Tacoma, ou que permite a voz humana quebrar um copo de cristal). Os dois toróides então caem do estado excitado e emitem uma onda de som de freqüência de 21 MHz para o meio externo que é análoga a um laser (para comparação, o ouvido humano consegue captar som de freqüência no máximo mil vezes menor, ou seja, é mais agudo que a voz do André Matos). O efeito dessa onda de som é visto pelo acoplamento dos microtoroides com o laser, e não com um microfone (provavelmente porque seria impossível com microfones…). O grupo de Nottingham atacou o problema de forma diferente, e construiu um laser de som de freqüência de THz. Para isso eles empregam um semicondutor onde elétrons podem decair em uma cascata de estados de energia diferentes causando sempre uma perturbação sonora no sistema de mesma freqüência. Nesse segundo experimento, a amplificação sonora foi obtida, mas não o feixe de som coerente que caracterizaria melhor um laser.

No presente momento esse parece ser o primeiro passo em direção de dispositivos úteis para a indústria, medicina e instrumentação científica de ondas de som bem coerentes de alta freqüência. Por exemplo, como as ondas de som tem comprimento de onda relativamente pequeno em comparação com a onda de luz de mesma freqüência, com a mesma energia seria em princípio possível fazer imagens e medidas experimentais em materiais com resolução espacial melhor do que pode ser feita com luz.

Atualizações do Ultra Deep Field, Planck e LHC

quarta-feira, 9 dez 2009; \50\America/New_York\America/New_York\k 50 Deixe um comentário

Planck

Já faz algum tempo que eu gostaria de passar a notícia (atrasada) que o satélite Planck vai bem, obrigado. No presente momento, o cronograma atualizado da missão espera que em 2012 os resultados das medidas precisas de anisotropia da radiação cósmica de fundo se tornem públicas.

Ultra Deep Field

Logo depois que o Hubble sofreu sua atualização este ano, a câmera do Hubble Ultra Deep Field (HUDF) permitiu detectar as primeiras galáxias com redshift z ~ 8 (o recorde era z ~ 7). E ontem a imagem do HUDF foi atualizada.

Hubble Ultra Deep Field 2009

LHC

O LHC realizou a primeira colisão de prótons a energia de 2.36 TeV.

LHC: 2.36 TeV

segunda-feira, 30 nov 2009; \49\America/New_York\America/New_York\k 49 Deixe um comentário

Monitor na sala de controle do feixe do LHC mostra 1.17 TeV por feixe de prótons. Hoje o acelerador alcançou a marca de 1.18 TeV por feixe.

Aconteceu hoje: o LHC superou a marca de 1.96 TeV do Fermilab operando a uma energia combinada de 2.36 TeV dos dois feixes de prótons no anel principal! Eba! 🙂 Nos primeiros quatro meses de 2010, a equipe do feixe do LHC pretende acelerar os prótons a uma energia combinada de 7 TeV (energia do centro de massa). O objetivo é chegar a 14 TeV no centro de massa, ou seja 7 TeV em cada próton (no referencial do laboratório). Cada quark e glúon do próton terá uma energia de aproximadamente 1 TeV, fazendo o LHC um acelerador de partículas que colide quarks e glúons juntos a energias de aproximadamente 2 TeV. Essa energia é convertida no produto de decaimento das colisões quarks e glúons, e permite janela suficiente para produzir o bóson de Higgs, que deve ter da ordem de 100 GeV/c2 de massa — uma partícula elementar de massa próxima aos núcleos naturais mais pesados, como o rádio.

Notícia completa: CERN.

Crédito das fotos: CERN.

Comissão de feixe do LHC comemora o controle do feixe estável a alta energia.

Primeira colisão de prótons do LHC ocorreu hoje

segunda-feira, 23 nov 2009; \48\America/New_York\America/New_York\k 48 Deixe um comentário

Um dos primeiros eventos do LHC, reconstruído no detetor ALICE.

As 11h da manhã (hora de Brasília) de hoje, a primeira colisão de prótons foi detectada no LHC! Os prótons circularam a uma energia de 900 GeV (no referencial do centro de massa). O primeiro evento foi registrado a essa hora no ATLAS, depois outra colisão ocorreu no CMS e finalmente outras duas no LHCb e ALICE.

Se tudo correr bem, a comissão que está trabalhando no feixe de prótons do LHC pretende acelerar prótons a 2.4 TeV no centro de massa (CM) até o final de dezembro. Quando este dia chegar, o LHC será oficialmente o acelerador de partículas mais energético do mundo, sobrepujando o Tevatron no Fermilab que opera atualmente a 1.9 TeV no CM.

A presente fase do LHC tem dois objetivos: 1) testar o feixe de prótons no anel circular principal, como o tempo de vida dentro do anel, e 2) servir de dados iniciais para os experimentos calibrarem seus detetores. O objetivo do experimento na sua próxima fase é produzir colisões entre prótons a 14 TeV no CM, suficiente para descobrir — ou descartar a existência — o bóson de Higgs, a única partícula elementar do Modelo Padrão que ainda não foi detectada. O CMS e o ATLAS se encarregarão desta busca, assim como a análise de possíveis novas partículas não incluídas no Modelo Padrão. O LHCb estudará as reações de violação da simetria matéria-antimatéria e paridade do Modelo Padrão, o mecanismo de Cabibbo, Kobayashi e Maskawa, em energias mais altas e com maior precisão no setor menos estudado dessa violação, os dos quarks pesados bottom e top, e ALICE iniciará seu programa científico quando o LHC substituir o feixe de prótons por feixes de núcleos pesados para estudar o plasma de quarks e glúons.

Quando estiver em operação dentro de seu programa científico de descoberta, o LHC trará informações sobre uma escala de tamanho da Natureza ainda completamente inexplorada, uma grande revolução na física de fato. Grande parte dos físicos teóricos de partículas esperam que novos fenônemos surjam na escala estudada pelo LHC por causa do problema da hierarquia da massa do bóson de Higgs.

Mais sobre essa notícia no site oficial do CERN.

LHC volta a funcionar e prótons realizam meio percusso com sucesso

quarta-feira, 11 nov 2009; \46\America/New_York\America/New_York\k 46 Deixe um comentário

Detetor CMS do LHC visualiza passagem de um feixe de prótons no anel principal.

Neste sábado, sete de novembro, um feixe de prótons foi com sucesso injetado no acelerador de partículas LHC do CERN, viajou metade da circunferência de 27 km do acelerador, passando pelos detetores do LHCb e do CMS, reportou o CERN na segunda-feira, 9 de novembro. A imagem que você vê acima é a reconstrução de eventos causados pela passagem do feixe de prótons de baixa energia pelo anel. Este primeiro passo da aceleração de prótons pelo anel principal produziu dados que serão utilizados pela colaboração CMS para verificar o funcionamento do detetor na região de baixa energia em que a física é conhecida. O objetivo do LHC é colidir dois feixes de prótons a energias de até 7 TeV cada feixe, frente a frente. O experimento permitirá físicos estudarem a estrutura da matéria nos tamanhos de 10-18m (uma fração bilhão de bilhão de bilhão de um metro), mil vezes menor que o tamanho do próton. Para uma perspectiva: a diferença de tamanho entre uma pilha dos 100 prédios mais altos do mundo (do tamanho do antigo World Trade Center de Nova York) e uma pessoa, é a mesma entre uma bactéria e um átomo; o átomo é maior que o próton na mesma proporção que mil arranha-céus empilhados são maiores que uma pessoa, e finalmente, o LHC estudará a Natureza em uma escala 10 mil vezes menor que o próton, equivalente a diferença de tamanho de 10 mil arranha-céus empilhados em comparação a uma pessoa.

A notícia original do CERN pode ser por enquanto encontrada na página principal do site do CERN.

Primeiro computador quântico completo foi demonstrado

terça-feira, 11 ago 2009; \33\America/New_York\America/New_York\k 33 1 comentário

Da Physics World.

Primeiro computador quântico completo. A faixa mais escura do lado esquerdo da foto é a armadilha de íons (3.5 mm x 200 µm). Alterando a voltagem aplicada em cada eletrodo de ouro em contato com a armadilha, é possível deslocar os íons entre seis regiões diferentes.

Primeiro computador quântico completo. A faixa mais escura do lado esquerdo da foto é a armadilha de íons (3.5 mm x 200 µm). Alterando a voltagem aplicada em cada eletrodo de ouro em contato com a armadilha, é possível deslocar os íons entre seis regiões diferentes.

Um grupo de físicos do Instituto Nacional de Padrões e Tecnologia (NIST) dos Estados Unidos em Boulder, Colorado, demonstrou pela primeira vez um computador quântico completo.

O que é um computador quântico?

Em 1982, Richard Feynman especulou sobre a existência de um computador que utilizasse das leis da mecânica quântica para realizar tarefas inacessíveis a um sistema que obedece as leis da física clássica. Enquanto os computadores digitais modernos armazenam informação com base em dois estados possíveis do sistema (pictoriamente modelados pelos bits 0 e 1), o computador quântico obteria informação dos estados possíveis de uma molécula, átomo ou elétron. A diferença é que, por exemplo, para os estados admissíveis de polarização do elétron, embora há apenas dois estados de alinhamento da polarização (o número quântico de spin), o elétron pode ser colocado em uma superposição, o que quer dizer que há uma certa probabilidade não nula dele estar em cada um dos possíveis estados. Os estados quânticos de um sistema como fonte de informação é que se chama um qubit (abreviação de quantum bit).

Desde então teóricos demonstraram que os computadores quânticos podem de fato realizar tarefas inacessíveis aos sistemas clássicos. Em 1994, Peter Shor demonstrou um algoritmo de fatoração numérica para um computador quântico bem mais rápido que o disponível no digital. Enquanto os algoritmos digitais conhecidos requerem um número de etapas de cálculo que cresce exponencialmente com o tamanho do número a ser fatorado, o algoritmo quântico de Shor cresce apenas com uma potência. O algoritmo de Shor foi realizado experimentalmente em 2001 por um grupo na IBM Almaden e da Universidade de Stanford na Califórnia, Estados Unidos, um dos primeiros computadores quânticos que fatorou o número 15. Eles utilizaram como qubits os spins de núcleos de spin 1/2 19F e 13C.

Outra fonte de grande interesse na computação quântica é a criptografia quântica: o fato de que dois computadores quânticos podem trocar informação que é impossível fisicamente de ser descriptografada, porque ao observar a mensagem o qubit é destruído. Embora parece esotérico, o princípio é simples e quase óbvio: se Aline e Roberto compartilham um elétron que tem x% de chance de ter uma polarização para cima e (100-x)% para baixo e um interceptador escutar a mensagem, i.e. medir o spin do elétron, ele vai obter ou spin para cima ou spin para baixo. Uma vez que ele determinou o spin do elétron, o interceptador já sabe com 100% de certeza qual o spin e portanto perdeu toda a informação de x que era compartilhada por Aline e Roberto. O primeiro método de criptografia quântica foi elaborado em teoria por Charles Bennet e Gilles Brassard em 1984 na IBM Almaden, e hoje já possui diversas implementações com equipamentos eletrônicos.

O recente resultado do NIST

Até então já havia sido demonstrado individualmente quatro etapas necessárias para um computador quântico prático: 1) escrita/armazenamento de dados, 2) realizar operações lógicas, 3) transferir informações entre regiões diferentes separadas por distâncias macroscópicas e 4) ler o resultado. O experimento do NIST é o primeiro a realizar todas essas etapas em um equipamento integrado! 🙂 O equipamento mantém dois íons de berílio com carga elétrica positiva em uma armadilha (vide figura). Um pulso de laser ultravioleta é utilizado para escrever informação nos qubits — quer dizer, excitar os átomos para estados de energia determinados pela freqüência do laser. Ao aplicar um campo elétrico na armadilha através dos eletrodos de ouro, os átomos são deslocados por distâncias macroscópicas (de até a ordem de 1 mm). Os pesquisadores realizaram quinze diferentes operações lógicas com os átomos repetidas cerca de 3 mil vezes e observaram que o equipamento mantinha consistência no resultado final da computação (quer dizer, a mesma situação inicial resultava na mesma resposta final) em 94% das vezes. É essencial que o processo de computação pode ser repetido sem perda de qualidade. Esse resultado é um avanço substancial em direção a um computador quântico escalonável, i.e. que pode ser formado de muitos qubits.

Pierre Auger enfraquece relação entre UHECR e núcleos ativos de galáxias

terça-feira, 14 jul 2009; \29\America/New_York\America/New_York\k 29 Deixe um comentário

Durante a 31a Conferência Internacional de Raios Cósmicos na Polônia (7 – 15 Julho 2009), a colaboração Pierre Auger tornou pública uma maior quantidade de dados de raios cósmicos de altas energias (UHECR) — maior que 107 TeV — e concluiu que a relação entre núcleos ativos de galáxias (AGNs) e a origem destes raios cósmicos está mais fraca do que eles haviam encontrado em novembro de 2007. Acredita-se que AGNs diferem das galáxias comuns por possuírem um buraco negro central que acelera matéria produzindo radiação eletromagnética em quantidade muito superior aquela que poderia ser obtida dentro de estrelas.

Na primeira análise, publicada na revista Science, 18 de 27 eventos encontravam-se a menos de 3° de um AGN. Na nova análise de julho de 2009, 17 eventos de 44 foram encontrados na direção de AGNs. Os dados são parcos e a colaboração conclui que mais informação é necessária para creditar AGNs como fontes dos raios cósmicos de ultra energia. Uma análise estatística no momento indica todavia que a probabilidade de tal correlação ser medida para uma distribuição isotrópica de fontes é de apenas 1%. Esse resultado aparentemente favorável pode ser contudo artificial devido ao pequeno número de dados.

Física e biologia

quinta-feira, 2 jul 2009; \27\America/New_York\America/New_York\k 27 5 comentários

Um breve comentário: a edição deste mês da Physics World é dedicada a interface da Física e Biologia. No blog anteriormente eu falei sobre como os experimentos com pinça óptica permitiram enorme avanço na compreensão das máquinas biológicas moleculares. Na Physics World há matérias interessantes sobre neurociência e mecânica quântica da vida — essa útlima escrita por Paul Davies.

Satélite Planck foi lançado com sucesso

quinta-feira, 14 maio 2009; \20\America/New_York\America/New_York\k 20 1 comentário

Lançamento dos satélites Planck e Herschel, da ESA, realizado hoje na Guiana Francesa.

Lançamento dos satélites Planck e Herschel, da ESA, realizado hoje na Guiana Francesa.


O satélite Planck da Agência Espacial Européia (ESA) foi lançado hoje com sucesso da base em Kourou na Guiana Francesa. Cerca de 25 minutos depois do lançamento do foguete, o satélite foi ejetado em órbita preliminar e agora encontra-se em comunicação com a base da ESA em Darmstadt na Alemanha. Estão programadas para amanhã as primeiras manobras do satélite para entrar em sua órbita definitiva, procedimento que é estimado durar cerca de dois meses. Quando Planck estiver em sua órbita definitiva, os dados começarão a ser tomados.

Junto com Planck, a missão também colocou em órbita o satélite Herschel, que fará astronomia no infravermelho da Via Láctea e outras galáxias, fornecendo dados sobre a formação das estrelas.

Satélite Planck, sala de limpeza da base de lançamento na Guiana Francesa, 26 de fevereiro de 2009.

Satélite Planck, sala de limpeza da base de lançamento na Guiana Francesa, 26 de fevereiro de 2009.

O satélite Planck estudará a radiação cósmica de fundo (CMB) de microondas, a relíquia do Big Bang formada quando o universo tinha cerca de 400 mil anos de idade. O principal objetivo é medir as anisotropias da CMB — i.e. temperatura da radiação em função da posição no céu — com uma precisão de uma parte em um milhão, dez vezes mais preciso que o antecessor, WMAP, e também no limite de precisão atual dada a contaminação não-cosmológica de microondas no céu. Estas anisotropias contém informação sobre a semente que deu origem as galáxias no universo. Um dos modelos mais debatidos atualmente para a origem dessas anisotropias é a inflação (eu falei sobre esse mecanismo no blog aqui), e Planck permitirá investigar estes modelos com melhor precisão. As anisotropias da CMB também fornecem informação detalhada sobre o conteúdo do universo antes da formação da CMB permitindo excluir modelos de matéria escura.

Além das anisotropias, Planck medirá a polarização da CMB. Há um certo modo de polarização destes fótons que só pode ser produzido por ondas gravitacionais. Antes da formação da CMB, os fótons no universo eram absorvidos e re-emitidos tão rapidamente entre elétrons e prótons que a probabilidade de um fóton produzido por um processo físico antes da formação da CMB chegar até nós hoje é quase nula. Ao contrário dos fótons, as ondas gravitacionais tem poder de penetração muito maior trazendo detalhes do conteúdo do universo até a escala de Planck. As medidas de polarização da CMB podem refutar ou validar modelos da inflação que ocorre nesta escala.

Os primeiros dados do satélite talvez torna-se-ão públicos em 2011.


Este curto vídeo educacional da ESA fala sobre os satélites Planck e Herschel (em inglês).

Mais informações

Revolução do grafeno dá mais um passo

quinta-feira, 30 abr 2009; \18\America/New_York\America/New_York\k 18 1 comentário

Fotografia obtida por microscópico eletrônico de varredura do circuito integrado nanométrico construido a base de grafeno. As barras amarelas são eletrodos de cromo e ouro e sobre a superfície azul ligando os eletrodos há uma fina camada de grafeno.

Fotografia obtida por microscópico eletrônico de varredura do circuito integrado nanométrico construido a base de grafeno. As barras amarelas são eletrodos de cromo e ouro e sobre a superfície azul ligando os eletrodos há uma fina camada de grafeno. Figura do artigo original de R. Sordan et al.

Físicos na Itália desenvolveram o primeiro circuito integrado de grafeno, o relatório foi publicado semana passada no arxiv.

O grafeno é um nanomaterial descoberto em 2004 que consiste em uma folha bidimensional de átomos de carbono de apenas um único átomo de espessura (uma fatia atômica de grafite). Ele difere dos demais materiais semicondutores — que são os materiais com as propriedades eletrônicas adequadas para construção de diodos e transitores — por manter alta mobilidade dos elétrons mesmo quando dopado com alta densidade de impurezas. Isso reflete em uma resistência a corrente elétrica que está entre as mais baixas já encontradas em um material a temperatura e pressão atmosférica, tornando o grafeno uma potencial matéria-prima para construção de circuitos integrados de alta freqüência (acima de GHz) em escalas micrométricas de tamanho, o que pode vir a substituir a presente tecnologia dos semicondutores de silício utilizados nos computadores e eletrônicos modernos. O trabalho do grupo italiano é um passo importante nessa direção porque demonstra que estes circuitos são factíveis. Em 2007, um grupo de Harvard já havia construído o primeiro transistor de grafeno.

Para saber mais:

  1. Fledgling graphene circuit performs basic logic, Physics World.
  2. Graphene na Wikipedia.

John Maddox (1925-2009)

quarta-feira, 15 abr 2009; \16\America/New_York\America/New_York\k 16 2 comentários

Sir John Maddox

Sir John Maddox


Embora possa ser notícia um pouco atrasada, eu só fiquei sabendo agora. John Maddox faleceu em 12 de abril. Ele foi editor-chefe da Nature durante décadas. Talvez você o conheça pelo notório caso da homeopatia em 1988, quando Maddox e James Randi organizaram uma investigação que derrubou declarações de um médico, após este publicar na Nature supostas evidências de que água possuia memória, o que seria a base química da homeopatia. O relatório da Nature de Maddox e Randi concluiu que as alegações eram falsas e erros no procedimento científico foram cometidos, mas até hoje a idéia de “memória da água” persiste como um meme.

Esta semana a Nature publicou um edital especial em memória a Sir John Maddox e semana que vem publicará outros ensaios em sua homenagem.

Maddox estudou química e física na Universidade de Oxford e no King’s College de Londres, e após breve período como professor de física na Universidade de Manchester, seguiu sua brilhante carreira no jornalismo científico, até tornar-se editor da Nature em 1966.

Ele foi autor do livro O que falta descobrir, escrito em resposta ao sucesso de O Fim da ciência do jornalista John Horgan.

Outras fontes: The Times, Scientific American.

Categorias:Ars Physica Tags:

Novo valor para a massa do top, e a coincidência persiste

terça-feira, 17 mar 2009; \12\America/New_York\America/New_York\k 12 Deixe um comentário

Hoje apareceu no arxiv um artigo do CDF e D0 com o mais recente resultado da medida da massa do top:

m_\text{top} = 173.1 \pm 1.3 \,\text{GeV} \, .

Este resultado é relativamente mais preciso do que se tinha até então, e está jogando a massa do top de volta aos 173 (o valor já foi 160, passou para 170 uns anos atrás e agora se mantém bem em cima do 174). O interessante desse número para massa do top é que o valor do campo do bóson de Higgs no vácuo é v = 246.2\, \text{GeV} (nível árvore), fornecendo um acoplamento do Higgs aos férmions igual a v/\sqrt{2\,{}} =174.1 \,\text{GeV}, que é praticamente idêntico a massa do top.

A massa das partículas no Modelo Padrão é paramétrica a este valor de v : \lambda\, v, onde \lambda é um número adimensional. Para a maioria das partículas \lambda é pequeno, já que a massa de todas é bem menor que 174 GeV. Isso é importante porque acredita-se que a massa das partículas no Modelo Padrão é proveniente de um acoplamento fraco com o Higgs, que permite o uso de teoria de perturbação. Mas a massa do top está perto de desafiar essa idéia, já que ela exige um acoplamento \lambda igual a 1. Isso em si não é um problema técnico porque em detalhes a teoria de perturbação é válida mesmo quando os acoplamentos são \approx O(1) devido a um efeito quântico, sendo que a quantidade mais relevante é na realidade \lambda/(16\, \pi^2) vezes um certo logarítmo, que quase sempre é muito pequeno. Além disso, nós já conhecemos um exemplo de teoria da perturbação para partículas que milagrosamente funciona mesmo sendo uma expansão em um número da ordem de 1 que é a Lagrangiana quiral para píons e nucleons. Mas o valor da massa do top é um pouco não natural porque no Modelo Padrão não há nenhuma boa razão para esse acoplamento ser 1. Há uma coincidência de massa inexplicável ai…

Não sei se correções radiativas melhoram ou pioram a concordância do VEV do Higgs com a massa do top, alguém conhece uma referência?

Ah, e olhando rapidamente estes artigos experimentais não vi que esquema de renormalização eles estão usando para essa massa. Como a massa dos quarks depende do esquema de renormalização, isso deveria estar dito em algum lugar. Eu suponho que seja \overline{MS}.

Nova restrição a massa do Higgs

segunda-feira, 16 mar 2009; \12\America/New_York\America/New_York\k 12 9 comentários

Sexta-feira o Fermilab anunciou que CDF e D0 irão publicar em breve uma nova restrição a massa do bóson de Higgs. A região excluída é a janela 160-180 GeV/c2. Isso sugere que o Higgs, se é que existe, deve ter massa menor que 160 GeV/c2 embora a região entre 180 e 185 não pode ser excluída com muita certeza (mas é pouco provável, já excluída com uma probabilidade de uns 80%). Não há ainda um artigo publicado com o resultado, embora hoje o CDF publicou uma medida das seções de choque de mésons B (que é utilizada na procura do Higgs no Fermilab).

Região de massa permitida ao Higgs, março de 2009.

Região de massa permitida ao Higgs, março de 2009.

Pai da Wikipedia, Jimmy Wales, participará de debate, dia 10 de novembro, em São Paulo

segunda-feira, 20 out 2008; \43\America/New_York\America/New_York\k 43 Deixe um comentário

É notoriamente bastante comum vermos o uso da Wikipedia, em fóruns de discussão na Web, como fonte de informação, mesmo quando o artigo não é muito bom (em português a situação ainda é bem triste). Então vou divulgar aqui também.

Seguem abaixo alguns detalhes sobre o evento, extraídos da página da Wikimedia.

Os desafios e oportunidades para produções colaborativas de conhecimentos livres no Brasil é tema de debate no Centro Cultural São Paulo, às 19h30 do dia 10 de novembro de 2008 (segunda-feira). O evento, denominado WikiBrasil: Mutirão de Conhecimentos Livres, celebra também o início da atuação da Wikimedia no Brasil.

O debate também contará com a participação de Ethevaldo Siqueira, Gilberto Dimenstein, Gilson Schwartz, Karen Worcman, Ladislau Dowbor, Lala Dezeinhelin, Reinaldo Pamponet, Renato Rovai e Sérgio Amadeu.

A bilheteria do Centro Cultural São Paulo (Rua Vergueiro, 1000) distribuirá para o público senhas gratuitas uma hora antes do início do evento. A sala Adoniran Barbosa tem capacidade para 600 pessoas (já tem mais de 160 inscritos e de ontem para hoje foram mais de 60!) e será dada prioridade aos inscritos com antecedência AQUI.

Os interessados de outras localidades poderão acompanhar o evento e enviar perguntas pela Internet. Novidades e atualização serão postadas aqui nesta wiki e enviadas por twitter (acompanhar “WikiBrasil“).

Alguns responsáveis pela implementação de ferramentas para construção de conhecimento colaborativamente na Universidade de São Paulo, o Stoa, também estarão lá.

Quem aqui nunca usou algum artigo da Wikipedia, pelo menos como fonte de referências? 😉

Inscreva-se!

Atualização3/11/2008

Entrour no ar o Hotsite dedicado ao Evento WikiBrasil – Mutirão de Conhecimentos Livres.
Site – www.wikibr.org

Mais informações

%d blogueiros gostam disto: