Arquivos

Archive for sexta-feira, 31 out 2008; \44\UTC\UTC\k 44

O apoio da ciência a Barack Obama

sexta-feira, 31 out 2008; \44\UTC\UTC\k 44 12 comentários

Um fenômeno interessante está ocorrendo no cenário científico internacional: vários profissionais e instituições estão publicamente se manifestando a favor do candidato a presidência dos Estados Unidos Barack Obama, mesmo aqueles não residentes nos EUA. Ontem, a revista Nature declarou suporte ao candidato. A revista é britânica, e segundo Sean Carroll, é a primeira vez que ela apoia um candidato a presidência dos EUA. O primeiro parágrafo do editorial diz:

O valor da investigação científica, e não uma posição da política científica em particular, sugere uma preferência para o candidato à presidência dos EUA.

Em 23 de agosto deste ano, 61 prêmios Nobel de física, química e medicina, residentes dos EUA, escreveram uma carta aberta em apoio ao candidato Obama, na qual dizem:

O país urgentemente necessita de um líder visionário que pode garantir o futuro de nossos tradicionais pontos fortes em ciência e tecnologia e que pode fazer uso destas forças para atacar vários dos nossos principais problemas: energia, doenças, mudança climática, segurança e competitividade economica. (…) Nós observamos a postura do senador Obama nestes assuntos com admiração.

Em 29 de outubro, a carta foi atualizada para conter a assinatura de 76 laureados. Entre os físicos que assinaram a carta, encontram-se: Murray Gell-Mann, Sheldon Lee Glashow, David Gross, Frank Wilczek, Yochiro Nambu, Philip Anderson, Leon Cooper, James Cronin, Val Fitch e Walter Gilbert, pilares da ciência moderna. Gell-Mann fez ele próprio um vídeo no YouTube:

Além disso, é público que os blogueiros do Cosmic Variance estão alinhados com Obama, são eles pesquisadores de instituições como CalTech, Stanford, Los Alamos, Washington University, Syracuse University, Pennsylvania University e outros.

Há várias razões para esse suporte. John McCain e Sarah Palin já fizeram comentários criticando gastos com ciência e educação. Já Obama defende publicamente mais gastos nessas áreas. O partido Republicano, nos últimos 8 anos na Casa Branca, diminuiu o suporte a ciência, redirecionou dinheiro da NASA de pesquisa científica para projetos supérfluos de viagens espaciais tripuladas e permitiu que decisões sobre legislação científica, como o uso de embriões para extração de células-tronco ou o ensino de educação sexual nas escolas, que deveriam ser feitas com base em dados técnicos, fossem contaminadas por lobby religioso.

A eleição de 2008 nos EUA tem uma importância para a ciência que transcende o território norte-americano. Os EUA responde por muito do investimento em pesquisa, e uma retirada de investimentos, ou legislações que impeçam estudos, tem um impacto global.

Micromotivos e macrocomportamento, parte I

sexta-feira, 31 out 2008; \44\UTC\UTC\k 44 5 comentários

Escolhendo como título o nome do livro famoso de um laureado pelo prêmio Sveriges Riksbank de Ciências Econômicas em Memória de Alfred Nobel [1], Thomas Schelling [2], pretendo discutir um pouco a minha área de pesquisa recente: modelagem quantitativa em ciências sociais e economia. Apesar de parecer um assunto novo, esse tipo de modelagem é na verdade bastante antigo, remontando a  Pierre de Laplace, Thomas Malthus,  David Ricardo, passando por Léon Walras, John Von Neumann e companhia. Essa é no entanto uma área de modelos bastante primários e ainda muito qualitativos. Ao longo desse período de história da modelagem quantitativa de fenômenos sociais houve um diálogo intenso (e negligenciado pelos dois lados)  com a física, particularmente a termodinâmica e a nascente mecânica estatística no final do século XIX. Ao longo das últimas duas décadas essa relação se intensificou novamente e o paradigma da mecânica estatística passou a integrar um programa de pesquisa em ciências sociais e economia com a criação de modelos microscópicos para diversos aspectos como dinâmica de opiniões, tráfego de automóveis,  negociações no mercado financeiro e outros.

A mecânica estatística é a área da física que lida com a ponte entre a dinâmica microscópia dos constituíntes da matéria e as observações macroscópicas que fazemos sobre ela. Por exemplo ela é capaz de, assumindo-se as leis de Newton para o movimento das moléculas de um gás, mostrar que as propriedades macroscópicas do mesmo devem satisfazer certas equações de estado (por exemplo a famosa lei dos gases ideias PV = nRT). É importante notar que essa ponte é feita admitindo-se um certo grau de ignorância sobre o estado microscópico do sistema e a forma correta de se fazer isso é associar uma distribuição de probabilidades aos possíveis estados microscópicos.

O primeiro problema na direção de um modelo estatístico para problemas economicos deve ser então identificar qual é a dinâmica microscópica – a forma com que cada agente economico se move no espaço de configurações. Para as moléculas dos gases temos leis newtonianas de movimento, para partículas menores temos a mecânica quântica. O que temos para pessoas tomando decisões de consumo e poupança, empresas tomando decisões de produção, governos intervindo e bancos decidindo taxas de empréstimo?

Nesse ponto é que paramos para a primeira grande crítica a esse tipo de modelagem. Partículas microscópicas não são conscientes, não aprendem, não tomam decisões racionais nem usam critérios objetivos para mover-se. São diferentes das pessoas. São mesmo? A história da modelagem das decisões economicas começou no século XIX com Léon Walras, Vilfredo Pareto e uma analogia com a mecânica. Walras criou uma teoria de equilíbrio, em analogia com o equilibrio mecânico. Claro que ninguém está propondo que pensemos nas partículas como pequenos seres racionais, mas a analogia com a mecânica e com a termodinâmica levou os economistas a admitir a idéia de que decisões racionais são tomadas através de problemas otimização (maximização de lucros, minimização de custos, etc.).

Na teoria microeconomica neoclássica as pessoas agem segundo escalas de preferência ordenadas através de um função chamada Utilidade. Construiu-se um modelo segundo o qual as pessoas agem para maximizar uma função que diz quão “felizes” elas estão com a decisão que tomaram, sujeito a vínculos que dependem das decisões das outras pessoas. A evolução dessa linguagem levou à construção do modelo de agente econômico ubíquo: o chamado Homo economicus, um agente ultra-racional, capaz de maximizar uma função  utilidade complicada de diversos parâmetros e escolher dentre todas as estratégias a que mais lhe traz benefício. Esse agente ideal tem poder computacional infinito e completo conhecimento de seu espaço de possíveis estratégias.

Esse modelo, apesar de ter bem servido à economia por um século, passou a ser questionado através de problemas em que era claro que, mesmo que houvesse um agente com esse grau de racionalidade, não há estratégias ótimas a se seguir diante da limitada informação disponível ao agente. Um desses modelos é o El Farol Bar. Hoje há modelos de agentes economicos tendem a ser mais realistas e focam-se na capacidade de aprendizado e desenvolvimento de estratégias “on-the-fly”, trocando o agente ultra-racional por um com racionalidade limitada.

Mas mesmo que nos mantenhamos no problema de agentes ultra-racionais, ainda resta a pergunta: como ligamos os modelos microscópicos de maximização de utilidade ao comportamento macroscópico da economia? Nesse campo a análise economica ofereceu poucas respostas. Há poucos estudos teóricos [3] anteriores à década de 90 por exemplo sobre quais são as propriedades de uma economia de escambo de duas mercadorias com muitos agentes neo-clássicos – que maximizam a utilidade em cada transação atingindo um equilíbrio local de Pareto. Os livros clássicos de microeconomia tratam de um problema com dois agentes e os de macroeconomia usam esses resultados para tirar conclusões globais (!). Hoje em dia é um exercício trivial simular isso em computador, mas esse é um problema que  deve ter solução analítica – não passa de um gás de agentes que quando se chocam trocam mercadorias conservadas segundo uma regra de espalhamento bem definida com taxas de transição conhecidas ainda que a regra de maximização de utilidade seja razoavelmente relaxada.

Depois desse blablablá todo (parece mesmo que estou virando economista: em dois posts usei apenas uma equação, e a mais simples que eu conheço :P), permita-me ao menos deixá-los com um tira gosto. No meu próximo post vou comentar um pequeno modelo com solução analítica em que se pode ilustrar o uso de agentes com racionalidade limitada e uma agregação que remete à mecânica estatística – apesar das analogias imperfeitas. É um pequeno modelo de decisão de tráfego, baseado no jogo da minoria. Apesar do contexto diferente, é um modelo que possui claras analogias com problemas de decisão binária que podem ser observadas no mercado financeiro (comprar ou vender?) e que possui a característica fundamental de que o agente gostaria de estar sempre na minoria.

Notas:

[1] Com freqüência denominado erroneamente de Nobel de Economia.

[2] Micromotives and Macrobehavior, Thomas Schelling.

[3] Talvez o problema não seja a escassez de resultados teóricos, mas uma falta de capacidade minha de encontrá-los.

Update:

Dias atrás o físico Jean-Phillipe Bouchaud, professor da École Polytechnique, na França, Chairman do fundo de investimentos francês CFM e pioneiro em pesquisa na interface entre economia e física estatísica escreveu um ensaio para a revista Nature apontando a necessidade desse tipo de modelagem:  Economics need a scientific revolutionNature 455, 1181 (30 October 2008).

Seguir

Obtenha todo post novo entregue na sua caixa de entrada.

Junte-se a 67 outros seguidores

%d blogueiros gostam disto: