Arquivo

Archive for the ‘Physics’ Category

Notícias da Semana…

sábado, 7 abr 2012; \14\America/New_York\America/New_York\k 14 Deixe um comentário

Nos últimos 7–10 dias, muitas notícias interessantíssimas apareceram. E vale a pena dar uma olhada no que está circulando pelo mundo afora.

  1. Brazil a Great Place to do Physics … and Other Things“: Esse primeiro link é sobre programa de intercâmbio da APS, e o caso da reportagem conta sobre um aluno que saiu da Columbia University, em NY, e foi para o CBPF, no RJ. Como diz o rapaz que fez o intercâmbio, “Given that Rio was one of Richard Feynman’s favorite places, I was sure the experience would be very interesting, and I quickly became excited about it.”. 🙂
  2. Brown University forges research partnership in Brazil“: Esse segundo link é sobre a parceria que a Brown University assinou nessa semana com o IMPA (RJ). A parceria, promovida pela doação de um pai dum aluno da Brown, vai promover a colaboração em pesquisas, conferências e intercâmbios entre a Brown e o IMPA pelos próximos três anos.
  3. Open grad program allows students to pursue two fields“: Esse terceiro link é sobra um programa piloto que a Brown abriu esse ano e que poderia ser resumido como “Ciências Moleculares para a pós-graduação”. A Brown tem um currículo de graduação aberto, como o do Ciências Moleculares, desde os anos 70. E, agora, eles decidiram aplicar o mesmo princípio para a pós-graduação. A idéia é de que os alunos selecionados para participar desse experimento irão cursar seus respectivos doutoramentos, que será complementado com um mestrado em alguma outra disciplina. (A Brown permitia que seus alunos tirassem um ‘double-masters’, i.e., um duplo-mestrado até alguns anos atrás, quando essa opção foi cancelada em favor dessa nova empreitada multi- e inter-disciplinar.) E é disso que trata a reportagem, desse experimento em se ter um currículo multi- e inter-disciplinar na pós-graduação. Até onde eu conheço, essa é uma atitude completamente pioneira e que não existe em nenhuma outra escola. 😈
  4. How the Modern Physics was invented in the 17th century, part 1: The Needham Question“: Essa é a primeira parte (de um total de 3) de um blog convidado da SciAm, contando a história da Física moderna. Muito interessante.
  5. How Much Is a Professor Worth?“: Essa matéria do NYT trata do tópico de um novo livro que tenta comparar o salário de professores em diferentes países. Vale a pena ler pra ver em qual posição o Brasil se encontra, e como os diferentes países se comparam. Há muitos detalhes a serem analisados nessa questão todo… mas, de qualquer maneira, é um bom começo.
  6. Sociedade Brasileira de Física — Cortes no orçamento de ciência ameaçam futuro do Brasil“: o governo decidiu cortar o orçamento em cerca de 33% (comparado ao orçamento de 2010), entrando em rota de colisão com diversas conquistas recentes da política científica federal.
  7. Carnaval Is Over“: Seria esse o fim do milagre brasileiro? A FP faz uma lista dos vários fatores que influenciam essa questão.

Parcerias científicas internacionais, flexibilização do currículo da pós-graduação, história da Física, cortes do orçamento de ciência e tecnologia, e futuro econômico do país. Todas notícias relevantes e contemporâneas.

“E agora, José?”

Adivinha quem é…?

sábado, 1 out 2011; \39\America/New_York\America/New_York\k 39 Deixe um comentário

"3 Mosqueteiros"

Pra quem gosta de quebra-cabeças, e conhece os envolvidos na ‘descoberta’ do chamado Bóson de Higgs, fica essa dica do blog do Ian Sample: quem são esses personagens do livro Massive?

PS: Eu tenho mais dessas fotos… conforme os palpites forem aparecendo, eu ponho mais alguma(s). 😈

Uma visão da DPF2011…

sábado, 13 ago 2011; \32\America/New_York\America/New_York\k 32 Deixe um comentário

Erwin Schrödinger: vivo ou morto…

quinta-feira, 11 ago 2011; \32\America/New_York\America/New_York\k 32 3 comentários

No dia 12 de Agosto de 1887 nascia o bebê Erwin Schrödingerironicamente, até o momento do nascimento, a mãe dele não sabia se ela estava grávida ou não. 😈

[N.B.: Pra quem achou a piadinha acima infâme… tem uma melhor ainda hoje: Nova animação da Pixar: Start UP, a história de um velhinho que queria levantar sua empresa com bolhas da internet. tá-dá-tush… :mrgreen:]

Conferência da Divisão de Partículas e Campos de APS…

segunda-feira, 8 ago 2011; \32\America/New_York\America/New_York\k 32 Deixe um comentário

Hoje (segunda-feira, 08-Ago-2011) começa a edição de 2011 da Conferência da Divisão de Partículas e Campos da American Physical Society.

O programa da Conferência pode ser encontrado no link de ‘Schedule’ da mesma.

Mais ainda, os “proceedings” da Conferência serão publicados através do eConf.

Há também uma página para a Conferência no Indico do CERN, DPF2011 @ Indico/CERN. (A razão pra essa duplicação de esforços está fora da minha alçada (coisas da dicotomia de se passar o tempo dividido entre duas insituições) — quando me chamaram pra ajudar na organização da DPF2011 esse tipo de decisão já havia sido tomada. :razz:)

De qualquer maneira, essa página no Indico contém links para os Resumos das palestras e posteres, índice dos autores e palestrantes. Em particular, nestas listagens e índices é possível se encontrar os PDF que já foram carregados para o servidor.

Eu e o Rafael estamos atendendo a DPF2011. Então, vcs podem esperar por twittadas, fotos, posts, etc, etc, etc… provavelmente não no estilo “cobertura ao vivo”, uma vez que tudo vai ser meio corrido, mas fica aí aberto o canal pra quem quiser fazer perguntas ou participar de alguma outra maneira. 😉

Materiais em poucas dimensões

terça-feira, 2 ago 2011; \31\America/New_York\America/New_York\k 31 Deixe um comentário

Em Física de altas energias (na verdade altíssimas energias) é comum encontrar alguns modelos ou teorias onde a dimensão do espaço físico (ou espaço-tempo) é alterada.  Em geral, aumentam-se o número de dimensões e compactificam as dimensões extras em diâmetros minúsculos para que só possam ser acessadas somente com os próximos aceleradores de partículas. Se fossem maiores já teríamos visto estas dimensões extras.

Em Nanociência o número de dimensões também pode variar, e ser diferente de três. Mas neste caso a contagem de dimensões é feita no espaço-k. Um material com relações de dispersões em n direções é dito ser n-dimensional (ou nD). Algumas pessoas preferem se referir a estes materiais como quasi-nD, para não confundir com o espaço real nD.

Por exemplo, um cristal 3D é formado pela repetição de uma célula unitária em três dimensões. Como há condições periódicas de contorno, suas propriedades eletrônicas (funções de onda, autoenergias, DOS) serão mapeadas num espaço-k de dimensão 3. Na superfície deste mesmo cristal 3D, uma das condições de periodicidade é perdida, fazendo o espaço-k desta região ser reduzido em uma dimensão também.

Alótropos de carbono de várias dimensões.

Para os alótropos de carbono, entre algumas das estruturas de baixa dimensionalidade (n<3) estão a molécula de Fulereno (0D), nanotubos de carbono (1D), nanofitas de grafeno (1D) e grafeno (2D). As bicamadas (ou multicamadas) de grafeno também são consideradas 2D, já que embora haja átomos de carbono distribuídos espacialmente em três dimensões, só há periodicidade em duas. Isto acaba se refletindo na zona de Brillouin, enquanto multicamadas de grafeno têm zona hexagonal (no plano), o grafite tem um prisma hexagonal. As superfícies (ou hiper-superfícies) da estrutura de bandas também são diferentes nestes dois materiais.

O conceito de dimensionalidade de uma nanoestrutura é simples, mas não é incomum ver algumas pessoas (as vezes até professores) errando isto. Mas pra corrigir isto sempre podemos recorrer ao velho e bom teorema de Bloch.

Entropia e formação de complexidade no universo

domingo, 17 abr 2011; \15\America/New_York\America/New_York\k 15 4 comentários

Distribuição de massa no universo prevista pela Relatividade Geral, rede cósmica. As cores indicam densidade de massa, com o preto ao púrpuro ao amarelo indicando região menos a mais densa. A escala indica cerca de 44 Mpc. Uma galáxia tem cerca de 10 Kpc de diâmetro.

Quando nós olhamos para um vídeo em que um omelete se transforma em um ovo de galinha, nós sabemos que o filme está sendo exibido de trás para frente, porque no universo a entropia sempre cresce. Uma pergunta muito natural então é: como foi possível que o universo tenha formado estruturas como as galáxias e os planetas, e depois a vida na Terra, quando formar estruturas complexas parece desafiar a segunda lei da Termodinâmica?

É importante entender que a pergunta é capciosa, porque ela é baseada em uma premissa falsa: a de que a Termodinâmica é válida universalmente. Na realidade, a Termodinâmica é uma aproximação para descrever sistemas quando eles podem atingir rapidamente um estado em que suas variáveis não dependem mais do tempo. Muitas vezes isso não é possível, e a Termodinâmica é inaplicável. Isso é o caso para maior parte dos processos que ocorrem no universo. Esse tipo de fenômeno se denomina fora do equilíbiro térmico.

A formação das galáxias é um exemplo. A termodinâmica não se aplica porque o campo gravitacional depende do tempo. E o processo é complicado pela contínua aglomeração de massa que o campo gravitacional provoca. A redistribuição de massa no espaço muda de volta o campo gravitacional. O efeito combinado ao longo do tempo forma a rede cósmica, da qual eu já comentei outras vezes no blog. Do ponto de vista da Termodinâmica, a formação das galáxias pode parecer uma incógnita, mas é porque a origem das galáxias vem da dinâmica do campo gravitacional.

Outros dois exemplos importantes são a formação dos núcleos atômicos e a formação da radiação cósmica de fundo. Se nós fossemos usar a Termodinâmica em Cosmologia para descrever esses processos, iríamos obter respostas incorretas. Na formação do hélio, por exemplo, vê-se que a abundância do hélio em equilíbrio termodinâmico se torna relevante quando a temperatura é cerca de 3.5×109 K, e a Termodinâmica prevê que cerca de 31% dos bárions deveria estar em forma de hélio hoje. O valor correto é mais próximo de 25-27%. A Termodinâmica falha porque a formação do hélio precisa competir com o fato de que a densidade de prótons e nêutrons está decaindo no tempo. Os prótons e nêutrons vão se tornando menos densos por causa da expansão do universo. A formação do hélio não dura para sempre porque eventualmente a densidade é tão baixa que não permite mais reações nucleares ocorrerem. Além disso, a formação do hélio depende da presença dos nêutrons, que decaem rapidamente a medida que as reações nucleares perdem força para converter prótons em nêutrons. Se abdicarmos da Termodinâmica e calcularmos o processo dependente do tempo, chegaremos ao valor correto de 27%. A radiação cósmica de fundo se forma por um processo similar de competição em que os elétrons livres que ainda espalham fótons por efeito Compton vão desaparecendo ao serem capturados pelos núcleos para formar os átomos neutros de hidrogênio e hélio.

Quando nós não podemos usar a Termodinâmica para reações físicas mas ainda se quer fazer contas para um número grande de partículas, se usa física estatística fora do equilíbrio onde a dinâmica é comandada pelo que genericamente se chama equações de Boltzmann. O nome de Boltzmann deve indicar como já se sabia faz tempo as limitações da Termodinâmica.

O propósito desse comentário é o seguinte: não é necessária nenhuma mágica para entender como se formam estruturas complexas no universo onde vale a segunda lei da Termodinâmica. Basta aplicar as leis físicas relevantes para o processo microscópico (no caso da formação dos núcleos é a física nuclear, da formação das galáxias é a Relatividade Geral). A Termodinâmica é uma aproximação que nem sempre descreve todas as variáveis físicas, só aquelas que se tornam independentes do tempo.

O universo é quântico II, novas divergências em TQC

terça-feira, 5 abr 2011; \14\America/New_York\America/New_York\k 14 5 comentários

Será que existem divergências em teorias quânticas de campos (TQC) em espaços-tempo curvos que não podem ser removidas por renormalização?

Como o título já deve dar a entender, esse segundo post já vai ser sobre um aspecto técnico.

Leia mais

CMS e ATLAS esperam descobrir o Higgs até 2012

quinta-feira, 31 mar 2011; \13\America/New_York\America/New_York\k 13 5 comentários

Detector CMS em fase de montagem em 2008. Foto: Michael Hoch.

Hoje a Physics World publicou uma entrevista com Guido Tonelli, porta-voz do experimento CMS, e Pippa Wells, porta-voz do ATLAS. Ambos afirmam que CMS e ATLAS darão uma resposta definitiva para a existência do bóson de Higgs até final de 2012. A expectativa é que os dados do LHC de 2011 e de 2012 serão necessários para poder vasculhar o Higgs em toda a janela de massa que ele pode existir, que é atualmente de 115 a 600 GeV (para uma comparação, a massa do próton é aproximadamente 1 GeV). O Higgs é a única partícula do Modelo Padrão que ainda não foi positivamente detectada.

Leia mais…

As cidades mais científicas do mundo…

sábado, 19 mar 2011; \11\America/New_York\America/New_York\k 11 Deixe um comentário

O Physics arXiv blog publicou uma matéria interessante. Mas, antes de falar da notícia, eu tenho que avisar que não estou entre os maiores fãs desse blog — na verdade, minha opinião flutua bastante: alguns artigos são bons, outros ficam bem longe disso… mas, em todos os casos, o Physics arXiv blog é bem enviesado (a seleção dos tópicos que aparecem por lá deixa isso claro além de qualquer dúvida, isso pra não falar sobre o nível das discussões, sempre bem ‘passageiro’) — e isso sempre me incomoda muito.

De qualquer forma, e sem mais delongas… eis o artigo: Mashups Reveal World’s Top Scientific Cities. O original pode ser lido diretamente nos arXivs: Which cities produce worldwide more excellent papers than can be expected? A new mapping approach—using Google Maps—based on statistical significance testing.

A discussão no ‘Physics arXiv blog’ não passa de “mais do mesmo”: ciênci-o-metria. Infelizmente, perde-se a chance de se avaliar o artigo propriamente dito, escolhendo-se apenas notificar a “mensagem” contida no mesmo. Parece até mesmo um órgão de Relações Públicas, apenas alardeando e propagandeando.

O artigo propriamente dito é de tão baixa qualidade que a vontade que se tem é de apenas se repetir o adágio invisível, que diz que os artigos dos arXivs não escritos em [La]TeX são sempre de qualidade duvidosa — pior ainda quando são escritos em Word, ou algum editor de pior qualidade ainda; sem identação apropriada (quem ainda usa ‘identação à esquerda’, ao invés de ‘justificado’? :razz:): via de regra, a falta de atenção a esse tipo de detalhe num artigo costuma refletir a baixa qualidade do material escrito. Mas, como eu disse, esse é apenas um “adágio invisível”, uma unspoken rule, que não se vê, não se ouve, e cujo perfume não se sente. 😳 🙄

De qualquer forma, a máquina de salsicha continua na ativa: como se mensurar o imensurável: quais trabalhos científicos têm mais qualidade, quais são mais dignos de fomento, quais têm mais impacto na comunidade?

Todas essas são questões relevantes, claro, mas uma lição que a Ciência tem que aprender com a Arte é que a medição da criatividade é algo estupidamente difícil. Aliás, nem é preciso se apelar para o lado mais humanista desta questão: basta apenas se aprender Sistemas Dinâmicos corretamente (o que, de fato, parece ser algo tão complicado quanto nos dias de hoje). A razão deste meu argumento é bem simples: como se pode avaliar algo que possui resultados de médio a longo prazo (sem esperarmos por tal prazo)?

A resposta é simples: não é possível se avaliar nada que dependa de médio a longo prazo sem esperarmos tal prazo passar e medirmos o resultado efetivo do que se deseja avaliar. Ou seja, precisamos esperar o tempo passar pra podermos sequer ter a chance de sermos justos nesta empreitada! Ou seja, falando um pouco mais rigorosamente, é preciso termos acesso a todos os dados para podermos conhecer o problema de modo completo.

Infelizmente, com a idéia de que as Universidades devem ser “profissionalizadas” (sabe-se lá o que isso significa :razz:) e, mais ainda, de que toda a empreitada científica deve ser “profissionalizada”, todo esse tipo de questão métrica se torna relevante: como se pode escolher aquilo que há de “melhor” para se fomentar? Assim como numa empresa, numa linha de montagem, é preciso haver alguma forma de “selo de garantia”, alguma forma de “controle de qualidade”. (Note que não estou falando do processo de ensino de estudantes, mas sim de pesquisa científica — falar de ensino por si só abriria outra Caixa de Pandora!)

Entretanto, ao contrário de empresas, fábricas e linhas de montagem, Universidades e Pesquisa Científica [fundamental] possuem planos de ação, missões, de longo prazo, de longuíssimo prazo: há universidades com cerca de 1000 anos de existência: quantas empresas, fábricas e linhas de montagem podem dizer o mesmo?! A própria Revolução Industrial tem apenas cerca de 250 anos!

Felizmente ou não, esta é a natureza da busca pelo conhecimento, e este é o papel da Ciência, principalmente daquela dita fundamental (que costuma dar frutos bem distante das aplicações do dia-a-dia). Por outro lado, hoje em dia, na nossa Era da Informação, é possível se converter algo tão abstrato quanto Teoria dos Grafos em compiladores e navegadores. Este é o caminho da Ciência e do Conhecimento: a menos que se tenha acesso a toda informação, só se pode ver aquilo que está no curto prazo… 😉

Isso tudo só server pra fazer com qua a analogia posta acima — entre Sistemas Dinâmicos e Funções de Partição — fique ainda mais clara aos olhos: quando vc tem acesso à Função de Partição dum problema, vc tem em mãos toda a informação necessária pra resolver o problema completamente; no caso de Sistemas Dinâmicos, como o nome indica (dependência temporal), é muito difícil de se calcular o que vai acontecer no futuro (não-linearidades, caos, etc). E, no final das contas, tudo que se quer medir são os Fenômenos Críticos, as Transições de Fases, e as Propriedades de Escala do sistema em questão.

A mensagem é clara: sem uma visão mais global é impossível se poder qualificar e medir justamente um trabalho científico. Incontáveis exemplos, de Einstein à Wilson, todos nobelistas, jamais teriam os “índices” e os “fatores de impacto” necessários, hoje, para serem contratados em regime de ‘tenure track’ — isso é claro pra qualquer um que já tenha feito o exercício mental requerido por esta questão.

Algumas empresas e alguns nichos industriais já descobriram esse fato básico da natureza humana… aliás, no âmbito de Sistemas Dinâmicos tudo isso tem nome: Cisne Negro e Dragões Reis. 😈

Infelizmente, parece que esse aprendizado e essa mensagem ainda não chegaram na academia — um fato bem irônico, posto que a academia é o lugar onde tais idéias (transições de fase, cisne negros e dragões reis) nasceram! 😳 Então, por enquanto, nós ainda vamos nos debelando com índices e fatores de impacto e outras bobeiras afins. Eu gostaria que fosse feito um estudo com as revistas de maior impacto, procurando-se saber quantos dos artigos publicados nestas revistas deram origens a novos caminhos e novos ramos em seus respectivos campos da Ciência. Taí uma perguntinha bem capiciosa e que por motivos “mágicos” ainda ninguém teve a idéia de responder… 🙄 (Diquinha: eu não me lembro de Einstein ter publicado na Nature nem na Science, então nem as Relatividades nem a Mecânica Quântica (ou Teoria Quântica de Campos) tiveram suas origens nas revistas ditas de alto impacto; o mesmo vale, por exemplo, para as chamadas Transições Quânticas de Fase: o Kosterlitz não publicou numa revista de alto impacto — aliás, porque ninguém pergunta pro Kosterlitz o que ele pensa disso tudo, afinal de contas ele deu origem a todo um ramo da Física, logo deve saber o que significa “alto impacto científico”, não?! :razz:)

Pra finalizar, vou apenas me resignar a dizer que a análise estatística feita no tal artigo é de baixa qualidade, não apenas porque não leva em conta os cisnes negros e os dragões reis, mas também porque não leva em conta tantos outros métodos que a tornariam bem mais robusta. É uma pena, porque os “efeitos visuais”, os “efeitos especiais”, do artigo são bem bonitinhos… [bonitinhos mas ordinários! :razz:]

[]’s.

Atualizado (2011-Mar-19 @ 11:15h EDT): Ah… a ironia do destino. Assim que acabei de escrever o post acima, trombei no seguinte livro: Little Bets: How Breakthrough Ideas Emerge from Small Discoveries. O ponto do livro é clararamente exposto no título, mas também já foi feito por Asimov,

“The most exciting phrase to hear in science, the one that heralds new discoveries, is not ‘Eureka!’ (I’ve found it!), but ‘That’s funny…'”

Isaac Asimov.

Experimentação, passo-a-passo, erros e mais erros… é assim que se faz Ciência: a idéia de que pesquisa e progresso é feito através duma seqüência de ‘acertos’, de passos corretos, não poderia estar mais distante da realidade… c’est la vie

Robust Discretization Schemes…

quarta-feira, 26 jan 2011; \04\America/New_York\America/New_York\k 04 3 comentários

ResearchBlogging.org

Today, the following article came up on the arXivs:

This is all fine and dandy… but my question is: “How does this paper (above) compare to the following”:

That is, GR is naturally written in terms of [pseudo-]differential forms (aka tensor densities), so the methods described above should be very appropriate to attack the problem of discretizing the path integral in such a way as to retain its symmetries.

» Robert Oeckl (2005). DISCRETE GAUGE THEORY: From Lattices to TQFT World Scientific eBooks, 1-216 DOI: 10.1142/9781860947377

Miami 2010…

domingo, 12 dez 2010; \49\America/New_York\America/New_York\k 49 1 comentário

This week I will be at the Miami 2010, so I will try and “live tweet” the conference, with some comments and pictures — the hashtag will be #miami2010.

If anyone is interested, here’s the talk I am giving on tuesday (2010-Dec-14, right after lunch 😉 ),

😈

Updated (2010-Dec-15): Here are the notes to my talk, mostly of stuff that was said and is not in the PDF above,

Neurociência e o Projeto Ersätz-Brain…

quarta-feira, 8 dez 2010; \49\America/New_York\America/New_York\k 49 Deixe um comentário

ResearchBlogging.org

Bom pessoal, como anunciado anteriormente, vamos falar um pouco sobre um certo aspecto da Neurociência: o da modelagem de redes neurais via sistemas dinâmicos, modelo de Potts e, por que não, teorias de gauge (cf. What is a gauge?, Gauge theories (scholarpedia), Preparation for Gauge Theory e Gauge Theory (José Figueroa-O’Farrill)).

O nome-do-jogo, aqui, é Projeto Ersätz-Brain, e a idéia é a de se construir uma “arquitetura” análoga a de um cérebro para aplicações cognitivas. A base dessa arquitetura são as estruturas de audição e de visão do cérebro: ao contrário do que ingenuamente se imagina, ambas essas estruturas são altamente hierarquizadas e distribuídas. Ou seja, grupos diferentes (e espacialmente distribuídos) de neurônios lidam com ‘pedaços’ diferentes da informação sendo recebida, enquanto que um outro grupo de neurônios “integra” essas informações, numa camada hierárquica superior as anteriores.

Então, a motivação é a de se construir uma arquitetura distribuída e hierárquica — ou, no jargão que nós usamos, uma “rede [neural] de redes [neurais]”: ou seja, estamos dando um passo na direção da “recursividade” da arquitetura usual de redes neurais. Alguns chamariam tal passo de meta redes neurais” e outros de rede neurall Gödeliana, ambos os nomes aludindo à natureza auto-referencial da arquitetura: “redes de redes”.

Pra dar um exemplo concreto dum problema que estamos atacando atualmente, vamos pensar em termos do Código Morse: imagine que o nosso EB é como uma criança que ainda não aprendeu a falar e se pergunte: “Como é que uma criança aprende um idioma?” Agora vamos fazer de conta que o idioma não é uma das línguas faladas ao redor do globo, mas sim Código Morse… e, ao invés de termos uma criança, temos uma arquitetura de redes neurais, um EB. 😉

O que a gente pretende fazer é colocar um sinal de código Morse como dado de entrada para o EB e, do outro lado dessa “caixa preta”, tirar a mensagem descodificada. O EB tem que aprender código Morse e identificá-lo com os símbolos usuais do alfabeto, pra assim poder dar como saída a mensagem apropriada.

Quem está acostumado com o paradigma usual de redes neurais e Teoria de Hebb já deve ter percebido que esse tipo de approach não vai funcionar no caso do EB. A pergunta, então, se põe sozinha: “E agora, José?” 😉

O insight é não pensar em termos de “memória”, mas sim em termos de “dinâmica de informação”. Ou seja, ao invés de tentarmos ficar memorizando padrões em cima de padrões, pra depois associar a outros padrões, e assim por diante… a idéia é se notar que, assim como em Teorias de Gauge, há muita informação repetida e muito ruído nesse problema. Então, se Teorias de Gauge funcionam tão bem na Física… por que não tentar implementar um pouco delas em Redes Neurais?! 😈

É exatamente isso que estamos fazendo atualmente, criando um modelo para o EB em termos de Teorias de Gauge. Ou seja, há dois tipos de “dinâmicas” em jogo, uma “interna” e outra “externa” (por falta de nomes melhores). A “interna” é como a simetria de gauge em Física, e fornece a dinâmica dos graus-de-liberdade das partículas de gauge, enquanto que a “externa” é a dinâmica dos campos propriamente ditos. Dessa forma a gente estabelece dum modo bem claro uma relação de ‘recursividade’: a dinâmica “interna” determina o estado “externo” e vice-versa (num sistema de feedback).

Então, a gente pode pensar num Modelo de Potts com 3 estados: ponto, espaço, e ‘espaço branco’ (entre palavras). Esses 3 estados estão sujeitos a uma certa “dinâmica interna” — à la BSB, cf. Learning and Forgetting in Generalized Brain-State-in-a-Box (BSB) Neural Associative Memories — que é descrita por um sistema dinâmico (BSB), e o resultado dessa dinâmica “interna” seleciona um determinado estado para a dinâmica “externa”, que é guiada, por exemplo, por uma dinâmica do tipo BSB também (mas pode ser algum outro tipo, isso não é muito relevante no momento).

Pra apimentar ainda mais esse paradigma, nós estamos implementando ‘operadores de nós’ (knot operators), que são estados topológicos e robustos perante uma gama de “perturbações” do EB. Como esses estados são robustos, é fácil transportá-los hierarquicamente, de um nível hierárquico para outro. O que leva a algumas especulações bastante não-triviais sobre o “aprendizado” do EB — ao contrário do que é normalmente feito em “Teoria Habbiana”.

Bom, por enquanto é só… quem quiser ler um pouco mais sobre o trabalho, pode dar uma olhada num artigo (um pouco antigo, é verdade — o novo vai sair quando eu acabar de escrever 😉 ) disponível no livro abaixo:

Żak, S., Lillo, W., & Hui, S. (1996). Learning and Forgetting in Generalized Brain-state-in-a-box (BSB) Neural Associative Memories Neural Networks, 9 (5), 845-854 DOI: 10.1016/0893-6080(95)00101-8

SciBloWriMo…

segunda-feira, 8 nov 2010; \45\America/New_York\America/New_York\k 45 1 comentário

O mês de Novembro é conhecido no meio literário como NaNoWriMo, National Novel Writing Month.

Um pessoal da Matemática decidiu pegar carona nessa idéia de criar o MaBlogWriMo: Math Blog Writing Month. A idéia, como descrita no link, é a de se escrever todo dia um post com até 1.000 palavras sobre matemática. 😎

Então, parafraseando ambos esses eventos, vou começar o SciBloWriMo: Science Blog Writing Month! 😈

Eu vou aproveitar que vou dar uma palestra na conferência Miami 2010 e pegar uma carona pra falar dum tema que eu já venho trabalhando há algum tempo: o espaço de soluções (aka moduli space) de teorias quânticas de campo e suas simetrias. Esse será um dos temas do SciBloWriMo aqui no AP.

O outro tema é o de um trabalho que eu venho realizando atualmente, em colaboração com um pessoal da Neurociência, sobre o funcionamento hierárquico e maçissamente paralelo do cérebro, chamado Ersätz-Brain.

Assim que os posts forem ficando prontos, eu os linko aqui,

  • Álgebra, Teoria da Representação e Picard-Lefschetz;
  • Neurociência e o Projeto Ersätz-Brain: Teoria de Gauge, Variáveis de Nós e o Funcionamento Hierárquico do Cérebro.

É isso aí: espero que ninguém esteja com medo do frio! 😉

O realejo do dia…

domingo, 4 jul 2010; \26\America/New_York\America/New_York\k 26 Deixe um comentário

Simetria e Dualidade em Matemática e Física…

quarta-feira, 23 jun 2010; \25\America/New_York\America/New_York\k 25 Deixe um comentário

Fefferman: Conformal Invariants…

quinta-feira, 13 maio 2010; \19\America/New_York\America/New_York\k 19 Deixe um comentário

Estranha natureza da matéria escura

domingo, 25 abr 2010; \16\America/New_York\America/New_York\k 16 2 comentários


Fotografia em raios X da galáxia NGC 720 do telescópio Chandra da NASA (lado esquerdo) revelaram a estrutura de matéria escura da galáxia (foto óptica ao lado direito), que agora desfavorece a existência de interações da matéria escura causadas por um bóson escuro leve.
Quem acompanha o blog viu que no final de 2008, o satélite europeu Pamela apresentou qual o número de prótons e pósitrons que bombardeiam a Terra vindo da galáxia e descobriu que para energias acima de aproximadamente 10 GeV, o número de pósitrons começa a aumentar, enquanto o número de prótons continua a diminuir[1].
Como um pósitron consegue chegar a 10 GeV de energia, que corresponde a uma temperatura de 1014 K, quando a temperatura no núcleo do Sol é de apenas 107 K? De onde veio essa energia do próton?
Em 1949, Enrico Fermi mostrou que esse tipo de energia para raios cósmicos é natural[2]. Existem prótons e elétrons espalhados pela galáxia, que vieram de processos astrofísicos, largados aqui e ali por estrelas e supernovas. Eventualmente eles encontram o campo magnético que existe na galáxia e ficam presos, mas esse campo possui inomogeneidades, gradientes, e a partícula quando encontra um pico de intensidade do campo magnético recebe uma força maior que a média que a mantém presa no campo e acaba sendo liberada com uma energia maior. Quanto mais energética é a partícula, mais difícil é desviá-la do seu caminho, então podemos em primeira aproximação imaginar que os acréscimos são inversamente proporcionais a energia que a partícula já possuia antes de receber o pontapé do campo magnético. Então a probabilidade de observar uma partícula com energia E na Terra deve ser inversamente proporcional a sua energia,

 
P(E) \propto 1/E^\gamma

onde \gamma > 0 é um fator a ser determinado experimentalmente. Esse mecanismo de Fermi não poderia explicar o súbito crescimento do número de partículas com energias acima de 10 GeV observados no Pamela e no ATIC, e por isso o crescimento foi interpretado como um sinal de nova física.
Mas se esse excesso fosse devido a aniquilação de matéria escura na galáxia produzindo pósitrons, então a probabilidade de aniquilação de matéria escura teria que ser muito maior que o valor esperado no cenário de WIMPs. Por isso, Neil Weiner e colaboradores sugeriram que deveria existir uma nova partícula leve que só interage com a matéria escura, porque tal interação introduziria um fator de aumento na probabilidade de aniquilação da matéria escura que depende da velocidade do gás de matéria escura:

 
S = \displaystyle{\frac{\pi \alpha_X / v_\text{rel}}{1 - \exp(-\pi \alpha_X/v_\text{rel})}}

Infelizmente, este mês relata Jonathan Feng e colaboradores na Phys. Rev. Lett. que essa interação já está excluída devido ao formato das galáxias[3]. Motivados por estudos numéricos do formato dos halos de matéria escura quando se inclui interações[4], eles argumentam que a introdução de interação favorece a formação de halos mais esféricos do que aqueles que seriam formados desprezando interações, e então usam os dados sobre a elipsidade do halo da galáxia NGC 720 que foi estudado com as imagens de raios X do telescópio Chandra[5] e comparam com as simulações numéricas em função da intensidade da interação da matéria escura para restringir a seção de choque. O principal resultado deles é o gráfico da Fig. 1, que mostra que o valor do aumento da seção de choque S compatível com os dados do satélite Pamela não é compatível com o valor limite de S permitido pelo formato do halo de matéria escura de NGC 720.

Fig. 1, gráfico de S versus massa da partícula de matéria escura, da ref. 2. A região verde indica a parte favorecida pelos dados do Fermi, a vermelha pelos dados do Pamela. A linha tracejada indica o limite em S extraído da forma da galáxia NGC 720, e a linha azul da abundância de matéria escura. A discrepância se dá no fato que para produzir as regiões verde e vermelho, é necessário que a partícula intermediadora da aniquilação de matéria escura tenha massa 250 MeV, que já está excluído nesta região que requer uma massa de, no máximo, 30 MeV.

Esse resultado é consistente com a interpretação de que não há nenhum excesso no espectro de raios cósmicos, como os novos dados do satélite Fermi sugerem.

Referências

  1. Velhas e novas evidências da matéria escura
  2. E. Fermi, Phys. Rev. 75, 1169–1174 (1949).
  3. J. L. Feng, M. Kaplinghat, H.-B. Yu, Phys. Rev. Lett. 104, 151301 (2010).
  4. Romeel Davé et al. ApJ 547 574 (2001).
  5. David A. Buote et al ApJ 577 183 (2002).

Origem do universo e a seta do tempo

quinta-feira, 8 abr 2010; \14\America/New_York\America/New_York\k 14 10 comentários

Uma palestra interessante do Sean Carroll sobre o problema da seta do tempo, em novembro de 2009 na Universidade de Sidney:

http://sciencestage.com/v/21993/the-origin-of-the-universe-and-the-arrow-of-time.-sean-carroll.html

Parte do que se tornou o mais recente livro do Sean. 🙂

Sean acredita que é possível demonstrar a segunda lei da Termodinâmica, no sentido de que a entropia deve crescer no tempo. Um ovo sempre vira um omelete, ele diz, mas não o inverso. No entanto, o ovo veio da galinha, mas de onde veio a entropia baixa do universo que permitiu ele aumentar em entropia com o passar do tempo?

Mas eu fiquei confuso com o argumento do Sean. Primeiro, ele diz que é possível demonstrar a segunda lei da Termodinâmica. Mas logo em seguida, ele diz:

“[Boltzmann] explica porque se você começar com menor entropia você vai para maior entropia. Mas claramente deixa uma pergunta sem resposta: por que o sistema começou com baixa entropia? (…) É fácil prever usando apenas as idéias de Boltzmann que começando hoje a entropia amanhã será maior. É impossível usando apenas as idéias de Boltzmann dizer porque a entropia era menor ontem. De fato, (…) como as leis da física são invariantes por reversão temporal, você pode provar que a entropia era maior ontem, do mesmo modo que você pode provar que ela será maior amanhã.”

Carroll parece está concordando, no final, com o conhecido paradoxo de Loschmidt (como eu falei neste outro post.), ou, de forma mais transparente na minha opinião, com o fato que, até onde eu saiba, a única equação que parece mostrar uma característica de crescimento no tempo para a entropia é o enunciado do teorema H, e esta equação é também simétrica por inversão temporal, tendo portanto duas possíveis soluções para qualquer processo físico: aumento de entropia ou diminuição de entropia, como função do tempo. A única forma de obter uma única solução para todos os processos físicos, é assumir que não é válida a inversão temporal na equação do teorema H. Contudo, isso está em conflito dentro da minha cabeça com a idéia de que a segunda lei da Termodinâmica pode ser provada.

Além desse argumento confuso, que eu até o momento não consigo concordar, eu tendo a apontar dois outros problemas com essa idéia:

  1. entropia é uma escolha de descrição estatística de sistemas, portanto é estranho dizer que o efeito só aparece por causa de uma escolha de descrição. Em princípio seria possível calcular exatamente a evolução temporal de um gás sabendo as velocidades iniciais e posições de todas as moléculas, e só existiria um único estado microscópico do sistema em cada instante de tempo. É apenas uma questão de escolha de descrição — ou aproximação fisica útil — fazer uma média temporal sobre os estados do sistema e então contar todos os estados possíveis que ele poderia estar, que é a descrição Termodinâmica. Seguindo o raciocínio de E. T. Jaynes, sabemos que essa descrição é de fato a melhor inferência estatística possível de ser feita dada um conjunto de conhecimento a priori e isso independente até mesmo da validade da Termodinâmica — i.e. de quão boa é essa aproximação estatística para a dinâmica do sistema. É muito difícil para mim acreditar que a seta do tempo desapareceria se nós tivéssemos um computador suficientemente poderoso para calcular a dinâmica de um gás ideal…
  2.  

  3. por que a gravitação parece desconsiderar essa simetria de inversão temporal? Pelo princípio de inversão temporal, para cada buraco negro, deve haver um buraco branco no universo, mas isso não é observado. O universo está em expansão com {\dot{H} < 0} e se {\dot{H} > 0} não ocorreria apenas uma inversão temporal como a positividade da energia de um gás ideal — que não é um teorema, mas um preconceito teórico bem razoável — seria violada. Em termos de teorias de campo em universos em expansão, isso se traduziria numa teoria que viola a unitariedade, com um sinal negativo para a energia cinética.

Contudo um ponto de encontro: eu acho que posso concordar com a questão reformulada da seguinte forma: porque existe uma condição de contorno para a equação do teorema H de que o valor inicial da entropia é menor que o final? Isso é apenas uma reformulação do problema.

Realejo do dia: Brian Cox no programa do Jonathan Ross…

sábado, 27 mar 2010; \12\America/New_York\America/New_York\k 12 Deixe um comentário

Realejo do dia: Marcelo Gleiser no Programa do Jô…

sábado, 27 mar 2010; \12\America/New_York\America/New_York\k 12 7 comentários

Demonstrado novo parâmetro cosmológico

quinta-feira, 11 mar 2010; \10\America/New_York\America/New_York\k 10 1 comentário

Em 2007, Pengjie Zhang e outros cosmólogos teóricos sugeriram que a observação da posição e velocidade das galáxias com o desvio da propagação da luz dessas galáxias até nós serviria de uma medida da distribuição de massa do universo. (arXiv:0704.1932). Até então, a técnica utilizada pelo projeto astronômico do telescópio Sloan Digital Sky Survey (SDSS) consistia em medir a distribuição de galáxias e o desvio para o vermelho da galáxia e extrapolar o resultado para a distribuição de massa assumindo que a matéria escura deve seguir aproximadamente a mesma distribuição espacial que os prótons e nêutrons (bárions). Isso não é exatamente verdade porque os bárions formam um gás que interage muito mais facilmente com os fótons da radiação cósmica de fundo do que a matéria escura, e como resultado, os bárions são mantidos a uma temperatura próxima da radiação de fundo antes da formação das estrelas. Esse gás quente de bárions tem pressão presumivelmente maior que a pressão da matéria escura. Em Relatividade Geral, nós podemos deduzir a relação entre a fração da massa de bárions que acompanha a matéria escura e pode-se dizer que o contraste de densidade de bárions é de 10% a 17% menor que o de matéria escura quando se inclui a pressão do gás. Mais importante é talvez o fato de que devido a pressão dos bárions, existem concentrações densas de matéria escura no universo onde não existem galáxias. Todas essas concentrações de matéria escura pura são perdidas na estimativa original do SDSS.

A idéia de Zhang foi de utilizar as velocidades das galáxias e suas posições e relacionar com a lente gravitacional observada. Combinando astutamente estes dois observáveis diferentes de galáxias, é possível eliminar o efeito da pressão dos bárions pelo menos para certas partes da distribuição espacial da matéria total do universo. O observável é sensível a taxa de crescimento de estruturas (quão rápido/forte é a formação das galáxias) que depende sensivelmente com a teoria da gravitação subjacenete, e dessa forma medindo-a é possível testar diferentes teorias da gravitação. No artigo de Zhang, eles mostraram que com a sensibilidade projetada do telescópio SKA, seria possível distinguir a Relatividade Geral de MOND, f(R) e uma teoria de dimensões espaciais extras (conhecida pela sigla de seus autores, DGP) — isso tudo são outros candidatos para teoria da gravitação.

Agora, uma estudante de pós-graduação de Princeton, Reinabelle Reyes, junto com vários outros astrofísicos e astrônomos, demonstrou que a técnica é eficiente (Nature 464, 256-258 (2010)) usando os dados do SDSS. Na realidade, este resultado não é um teste preciso da Relatividade Geral — embora é um teste independente –, e tampouco produziu algo de novo em termos de excluir teorias pois já era sabido de lentes gravitacionais que MOND sem matéria escura não é consistente com os dados (e.g., este post). As barras de erro ainda são muito grandes para poder discernir entre a Relatividade Geral e as alternativas, contudo o que vem como importante é a demonstração de que é possível medir o parâmetro diretamente com erros sob controle. O programa agora será diminuir as incertezas nos telescópios futuros, e quem sabe, projetar um telescópio otimizado para essa medida, que não é o caso do SDSS, de modo a permitir a exclusão ou confirmação mais definitiva de alternativas a Relatividade de Einstein.

Realejo do dia…

terça-feira, 9 mar 2010; \10\America/New_York\America/New_York\k 10 1 comentário

… de amanhã! 😎

%d blogueiros gostam disto: