Archive

Archive for outubro \31\UTC 2008

O apoio da ciência a Barack Obama

sexta-feira, 31 out 2008; \44\UTC\UTC\k 44 12 comentários

Um fenômeno interessante está ocorrendo no cenário científico internacional: vários profissionais e instituições estão publicamente se manifestando a favor do candidato a presidência dos Estados Unidos Barack Obama, mesmo aqueles não residentes nos EUA. Ontem, a revista Nature declarou suporte ao candidato. A revista é britânica, e segundo Sean Carroll, é a primeira vez que ela apoia um candidato a presidência dos EUA. O primeiro parágrafo do editorial diz:

O valor da investigação científica, e não uma posição da política científica em particular, sugere uma preferência para o candidato à presidência dos EUA.

Em 23 de agosto deste ano, 61 prêmios Nobel de física, química e medicina, residentes dos EUA, escreveram uma carta aberta em apoio ao candidato Obama, na qual dizem:

O país urgentemente necessita de um líder visionário que pode garantir o futuro de nossos tradicionais pontos fortes em ciência e tecnologia e que pode fazer uso destas forças para atacar vários dos nossos principais problemas: energia, doenças, mudança climática, segurança e competitividade economica. (…) Nós observamos a postura do senador Obama nestes assuntos com admiração.

Em 29 de outubro, a carta foi atualizada para conter a assinatura de 76 laureados. Entre os físicos que assinaram a carta, encontram-se: Murray Gell-Mann, Sheldon Lee Glashow, David Gross, Frank Wilczek, Yochiro Nambu, Philip Anderson, Leon Cooper, James Cronin, Val Fitch e Walter Gilbert, pilares da ciência moderna. Gell-Mann fez ele próprio um vídeo no YouTube:

Além disso, é público que os blogueiros do Cosmic Variance estão alinhados com Obama, são eles pesquisadores de instituições como CalTech, Stanford, Los Alamos, Washington University, Syracuse University, Pennsylvania University e outros.

Há várias razões para esse suporte. John McCain e Sarah Palin já fizeram comentários criticando gastos com ciência e educação. Já Obama defende publicamente mais gastos nessas áreas. O partido Republicano, nos últimos 8 anos na Casa Branca, diminuiu o suporte a ciência, redirecionou dinheiro da NASA de pesquisa científica para projetos supérfluos de viagens espaciais tripuladas e permitiu que decisões sobre legislação científica, como o uso de embriões para extração de células-tronco ou o ensino de educação sexual nas escolas, que deveriam ser feitas com base em dados técnicos, fossem contaminadas por lobby religioso.

A eleição de 2008 nos EUA tem uma importância para a ciência que transcende o território norte-americano. Os EUA responde por muito do investimento em pesquisa, e uma retirada de investimentos, ou legislações que impeçam estudos, tem um impacto global.

Micromotivos e macrocomportamento, parte I

sexta-feira, 31 out 2008; \44\UTC\UTC\k 44 5 comentários

Escolhendo como título o nome do livro famoso de um laureado pelo prêmio Sveriges Riksbank de Ciências Econômicas em Memória de Alfred Nobel [1], Thomas Schelling [2], pretendo discutir um pouco a minha área de pesquisa recente: modelagem quantitativa em ciências sociais e economia. Apesar de parecer um assunto novo, esse tipo de modelagem é na verdade bastante antigo, remontando a  Pierre de Laplace, Thomas Malthus,  David Ricardo, passando por Léon Walras, John Von Neumann e companhia. Essa é no entanto uma área de modelos bastante primários e ainda muito qualitativos. Ao longo desse período de história da modelagem quantitativa de fenômenos sociais houve um diálogo intenso (e negligenciado pelos dois lados)  com a física, particularmente a termodinâmica e a nascente mecânica estatística no final do século XIX. Ao longo das últimas duas décadas essa relação se intensificou novamente e o paradigma da mecânica estatística passou a integrar um programa de pesquisa em ciências sociais e economia com a criação de modelos microscópicos para diversos aspectos como dinâmica de opiniões, tráfego de automóveis,  negociações no mercado financeiro e outros.

A mecânica estatística é a área da física que lida com a ponte entre a dinâmica microscópia dos constituíntes da matéria e as observações macroscópicas que fazemos sobre ela. Por exemplo ela é capaz de, assumindo-se as leis de Newton para o movimento das moléculas de um gás, mostrar que as propriedades macroscópicas do mesmo devem satisfazer certas equações de estado (por exemplo a famosa lei dos gases ideias PV = nRT). É importante notar que essa ponte é feita admitindo-se um certo grau de ignorância sobre o estado microscópico do sistema e a forma correta de se fazer isso é associar uma distribuição de probabilidades aos possíveis estados microscópicos.

O primeiro problema na direção de um modelo estatístico para problemas economicos deve ser então identificar qual é a dinâmica microscópica – a forma com que cada agente economico se move no espaço de configurações. Para as moléculas dos gases temos leis newtonianas de movimento, para partículas menores temos a mecânica quântica. O que temos para pessoas tomando decisões de consumo e poupança, empresas tomando decisões de produção, governos intervindo e bancos decidindo taxas de empréstimo?

Nesse ponto é que paramos para a primeira grande crítica a esse tipo de modelagem. Partículas microscópicas não são conscientes, não aprendem, não tomam decisões racionais nem usam critérios objetivos para mover-se. São diferentes das pessoas. São mesmo? A história da modelagem das decisões economicas começou no século XIX com Léon Walras, Vilfredo Pareto e uma analogia com a mecânica. Walras criou uma teoria de equilíbrio, em analogia com o equilibrio mecânico. Claro que ninguém está propondo que pensemos nas partículas como pequenos seres racionais, mas a analogia com a mecânica e com a termodinâmica levou os economistas a admitir a idéia de que decisões racionais são tomadas através de problemas otimização (maximização de lucros, minimização de custos, etc.).

Na teoria microeconomica neoclássica as pessoas agem segundo escalas de preferência ordenadas através de um função chamada Utilidade. Construiu-se um modelo segundo o qual as pessoas agem para maximizar uma função que diz quão “felizes” elas estão com a decisão que tomaram, sujeito a vínculos que dependem das decisões das outras pessoas. A evolução dessa linguagem levou à construção do modelo de agente econômico ubíquo: o chamado Homo economicus, um agente ultra-racional, capaz de maximizar uma função  utilidade complicada de diversos parâmetros e escolher dentre todas as estratégias a que mais lhe traz benefício. Esse agente ideal tem poder computacional infinito e completo conhecimento de seu espaço de possíveis estratégias.

Esse modelo, apesar de ter bem servido à economia por um século, passou a ser questionado através de problemas em que era claro que, mesmo que houvesse um agente com esse grau de racionalidade, não há estratégias ótimas a se seguir diante da limitada informação disponível ao agente. Um desses modelos é o El Farol Bar. Hoje há modelos de agentes economicos tendem a ser mais realistas e focam-se na capacidade de aprendizado e desenvolvimento de estratégias “on-the-fly”, trocando o agente ultra-racional por um com racionalidade limitada.

Mas mesmo que nos mantenhamos no problema de agentes ultra-racionais, ainda resta a pergunta: como ligamos os modelos microscópicos de maximização de utilidade ao comportamento macroscópico da economia? Nesse campo a análise economica ofereceu poucas respostas. Há poucos estudos teóricos [3] anteriores à década de 90 por exemplo sobre quais são as propriedades de uma economia de escambo de duas mercadorias com muitos agentes neo-clássicos – que maximizam a utilidade em cada transação atingindo um equilíbrio local de Pareto. Os livros clássicos de microeconomia tratam de um problema com dois agentes e os de macroeconomia usam esses resultados para tirar conclusões globais (!). Hoje em dia é um exercício trivial simular isso em computador, mas esse é um problema que  deve ter solução analítica – não passa de um gás de agentes que quando se chocam trocam mercadorias conservadas segundo uma regra de espalhamento bem definida com taxas de transição conhecidas ainda que a regra de maximização de utilidade seja razoavelmente relaxada.

Depois desse blablablá todo (parece mesmo que estou virando economista: em dois posts usei apenas uma equação, e a mais simples que eu conheço :P), permita-me ao menos deixá-los com um tira gosto. No meu próximo post vou comentar um pequeno modelo com solução analítica em que se pode ilustrar o uso de agentes com racionalidade limitada e uma agregação que remete à mecânica estatística – apesar das analogias imperfeitas. É um pequeno modelo de decisão de tráfego, baseado no jogo da minoria. Apesar do contexto diferente, é um modelo que possui claras analogias com problemas de decisão binária que podem ser observadas no mercado financeiro (comprar ou vender?) e que possui a característica fundamental de que o agente gostaria de estar sempre na minoria.

Notas:

[1] Com freqüência denominado erroneamente de Nobel de Economia.

[2] Micromotives and Macrobehavior, Thomas Schelling.

[3] Talvez o problema não seja a escassez de resultados teóricos, mas uma falta de capacidade minha de encontrá-los.

Update:

Dias atrás o físico Jean-Phillipe Bouchaud, professor da École Polytechnique, na França, Chairman do fundo de investimentos francês CFM e pioneiro em pesquisa na interface entre economia e física estatísica escreveu um ensaio para a revista Nature apontando a necessidade desse tipo de modelagem:  Economics need a scientific revolutionNature 455, 1181 (30 October 2008).

Primeiro Videocast do AP…

quinta-feira, 30 out 2008; \44\UTC\UTC\k 44 18 comentários

Respeitável Público… é com orgulho que no melhor esquema panis et circenses eu apresento a vcs o primeiro videocast do AP — espero que vcs gostem e se divirtam! 😈

Piso Salarial de professores

quinta-feira, 30 out 2008; \44\UTC\UTC\k 44 2 comentários

O Governo Lula recém aprovou um piso salarial, minguado, para professores e os governadores já mostram os dentes, atacando a dignidade de quem dedica a vida para educar.

Se queremos o sucesso da ciencia brasileira, temos que atrair jovens lá no ensino fundamental e médio com educação de boa qualidade, que passa também pela boa remuneração do professor.

Categorias:Ars Physica Tags:

Miguel Nicolelis online no Roda Viva, nessa quarta, 29/10, às 10h15

terça-feira, 28 out 2008; \44\UTC\UTC\k 44 3 comentários

O Leandro já escreveu um post aqui no Ars Physica sobre o professor Miguel Nicolelis, Brasileiro pode levar Prêmio Nobel, importante neurocientista brasileiro e um dos líderes do Instituto Internacional de Neurociências de Natal, indicado ao prêmio Nobel de Medicina esse ano. Nessa próxima quarta, 29/10, às 10h15, o professor Nicolelis vai ser entrevistado no Roda Viva, da TV Cultura. Vocês poderão acompanhar vídeos da entrevista e bastidores, um chat com espaço para perguntas dos espectadores da Internet, fotos dos bastidores e 3 usuários de Twitter comentando a entrevista, eu (@everton137), o Rafael Evangelista (@r_evangelista) e a Caru Schwingel (@caru), no seguinte endereço

http://www.radarcultura.com.br/rodaviva

Vocês também poderão acompanhar todos twits sobre a entrevista pelo sistema de buscas do twitter, procurando por rodaviva. Aliás, como podem notar, o debate já começou! 🙂

A entrevista irá ao ar na TV Cultura dia 10 de novembro, dia mundial da ciência pela paz e pelo desenvolvimento.

Vou tirar algumas fotos para colocar no meu Flickr e vou twittando pelo celular a partir do momento que estiver indo lá. É isso, nos vemos lá!

P. S. Em tempo, o Twitter aqui do Ars Physica é  @brasilciencia. 😉

(Atualizado dia 29/10 às 16h30: adicionada data da apresentação na TV e foto do Nicolelis)

Comparando transições de fase em TQC e sistemas estatísticos

terça-feira, 28 out 2008; \44\UTC\UTC\k 44 7 comentários

Não tem um seminário de altas energias que você vai que não se fale em fases de uma teoria quântica de campos. E nem mais só nos de teoria. Depois que pessoal de física nuclear começou a fazer experimentos de colisão de íons então tudo que se houve, mesmo nos seminários mais “aplicados”, é sobre fases de teoria quântica de campos.

Eu não vou negar que acho o assunto interessante, mas mal consigo entender o que é essa fase. Fases, nesse sentido, são bem entendidas em sistemas estatísticos. Quando atingimos o limite termodinâmico, o espaço de fase do sistema se divide em regiões em que os microestados podem ficar um tempo indeterminado: são as fases ergódicas da teoria. Em cada uma dessas regiões, o potencial termodinâmico é uma função analítica das suas variáveis. Uma descrição interessante de como acontece a transição de fase foi desenvolvida por Yang e diz respeito aos zeros da função partição. Num sistema finito, esses zeros estão sempre fora do eixo real, só que quando vamos atingindo o limite termodinâmico, os zeros podem ir se condensando em torno do eixo real e se você conseguir mostrar que no limite eles tocam no eixo, eis sua transição de fase. Para quem quiser ler:

Yang, Lee. Statistical Theory of Equations of State and Phase Transition, PR 87, pg 404-419 (partes I e II)

Em alguns sistemas que são completamente integráveis dá para ver isso acontecendo, em particular, um caso que todo mundo estuda é o modelo de Ising… impressiona qualquer aluno (ou pelo menos me impressionou).

Aí a gente se pergunta: o que teorias quânticas de campos tem a ver com isso? Bem, TQC também tem uma função partição parecida com sistemas estatísticos e nada te impede de procurar os zeros dela. Tem gente que faz isso. Pode-se inclusive perfeitamente pensar em estudos numéricos. Estudo numérico aqui pode significar séries perturbativas, mas esse tipo de estudo é complicado para transições de fase, porque você nunca pode chegar no ponto da transição. Sobre estudos numéricos, tem algumas vantagens para TQC e tem algumas vantagens para sistemas estatísticos: as séries perturbativas em sistemas estatísticos costumam convergir, as de TQC não. Por outro lado, sistemas estatísticos não admitem o mesmo tipo de expansão “de alta temperatura” que os de TQC (fora os sistemas definidos em redes, como o de Ising, por sinal). Os potenciais realísticos de sistemas estatísticos não tem nem transformada de Fourier. O que é comum fazer em sistema estatístico é estudar expansões na “densidade” (como as séries do virial e de Mayer).

E aí eu chego na questão, sobre a qual nada sei, mas que acho interessante: quais são os microestados de uma teoria quântica de campos? Isso não é conhecimento de “curso” de TQC. Se há uma fase é de se esperar que haja microestados. Acho que a forma tradicional de ver isso é considerar que o “lugar natural” de uma TQC é numa rede (lattice QFT) e daí tomar um limite termodinâmico no mesmo estilo de sistemas estatísticos. Não sei se isso é tão natural para mim, fiz poucas coisa de lattice QFT na minha vida até hoje e talvez seja simplesmente falta de conhecimento.

Você também ouve por aí pessoas falando que o microestado dos campos quânticos seriam as supercordas. Eu também não sei como entender essa frase (mas se alguém souber e quiser me explicar nos comentários eu agradeço). Eu sei que a teoria de supercordas eluciodou, por exemplo, os estados microscópicos da gravitação, como no caso do entropia do buraco negro calculada por Strominger e Vafa (e as diversas correções que as pessoas já calcularam depois deles). É também verdade que o mesmo sistema que é fonte de campo gravitacional é fonte de campos de gauge em outro limite da teoria, e desse estudo que nasceu a famosa conjectura AdS/CFT. Mas eu não sei se é nesse sentido que as pessoas falam.

Bem, é um post com mais “não sei” do que sei. Espero que no futuro eu possa rir dele. 😛

A Crise e os fundos no Brasil

domingo, 26 out 2008; \43\UTC\UTC\k 43 2 comentários

Em um post recente do Daniel sobre a crise, ele comentou sobre como os fundos quantitativos (chamados por ai de quants) americanos estão se saindo na crise atual.

Estes fundos existem no Brasil, apesar de serem muito recentes e em baixa quantidade. Na contagem atual existem sete fundos quantitativos no Brasil, e a maioria deles ainda são muito pequenos (ou seja, a maior parte ainda está com menos de 100 milhões em administração). Mas vale a pena dar uma olhada como as coisas tem saído para eles, e como elas poderão ficar no futuro.

No mes de outubro, a média dos maiores fundos nacionais foi de -256% do CDI (mensal), deixando a média pouco acima do CDI no ano (só 0,42%). Isso mostra como a situação está crítica ao longo dos últimos meses, com uma volatilidade média de 7%.

Podemos então observar como os fundos quantitativos tem se saído: Escolhendo três fundos quantitativos nacionais, a média de rendimento está em 130 % do CDI, com uma volatilidade de 3%a 4 %.  E diferentemente dos fundos tradicionais, não tiveram uma mudança de regime ao longo das ultimas semanas, que causou grandes perdas nos fundos tradicionais.

O grande problema dos fundos quantitativos nacionais é que, por serem muito novos, não administram uma grande quantidade de recursos. Com esse resultado, é de se esperar que atraiam mais atenção do público, mas ainda sofrem um preconceito de serem fundos comandados por ‘maquinas’.

Glossário

CDI: Certificado de Depósito Interbancário. Títulos emitidos por bancos como forma de captação o aplicação de recursos. É a taxa utilizada como referencia por operações financeiras. Por esse motivo fundos medem seu desempenho como uma porcentagem em relação ao CDI do periodo.

Fundo Quantitativo: Fundo de Investimento que utiliza estratégias de maior complexidade matematica para decisões de como aplicar na bolsa. 

Volatilidade: Desvio Padrão da série de retornos do fundo.

%d blogueiros gostam disto: