Arquivo

Posts Tagged ‘Física Estatística’

Entropia e formação de complexidade no universo

domingo, 17 abr 2011; \15\UTC\UTC\k 15 4 comentários

Distribuição de massa no universo prevista pela Relatividade Geral, rede cósmica. As cores indicam densidade de massa, com o preto ao púrpuro ao amarelo indicando região menos a mais densa. A escala indica cerca de 44 Mpc. Uma galáxia tem cerca de 10 Kpc de diâmetro.

Quando nós olhamos para um vídeo em que um omelete se transforma em um ovo de galinha, nós sabemos que o filme está sendo exibido de trás para frente, porque no universo a entropia sempre cresce. Uma pergunta muito natural então é: como foi possível que o universo tenha formado estruturas como as galáxias e os planetas, e depois a vida na Terra, quando formar estruturas complexas parece desafiar a segunda lei da Termodinâmica?

É importante entender que a pergunta é capciosa, porque ela é baseada em uma premissa falsa: a de que a Termodinâmica é válida universalmente. Na realidade, a Termodinâmica é uma aproximação para descrever sistemas quando eles podem atingir rapidamente um estado em que suas variáveis não dependem mais do tempo. Muitas vezes isso não é possível, e a Termodinâmica é inaplicável. Isso é o caso para maior parte dos processos que ocorrem no universo. Esse tipo de fenômeno se denomina fora do equilíbiro térmico.

A formação das galáxias é um exemplo. A termodinâmica não se aplica porque o campo gravitacional depende do tempo. E o processo é complicado pela contínua aglomeração de massa que o campo gravitacional provoca. A redistribuição de massa no espaço muda de volta o campo gravitacional. O efeito combinado ao longo do tempo forma a rede cósmica, da qual eu já comentei outras vezes no blog. Do ponto de vista da Termodinâmica, a formação das galáxias pode parecer uma incógnita, mas é porque a origem das galáxias vem da dinâmica do campo gravitacional.

Outros dois exemplos importantes são a formação dos núcleos atômicos e a formação da radiação cósmica de fundo. Se nós fossemos usar a Termodinâmica em Cosmologia para descrever esses processos, iríamos obter respostas incorretas. Na formação do hélio, por exemplo, vê-se que a abundância do hélio em equilíbrio termodinâmico se torna relevante quando a temperatura é cerca de 3.5×109 K, e a Termodinâmica prevê que cerca de 31% dos bárions deveria estar em forma de hélio hoje. O valor correto é mais próximo de 25-27%. A Termodinâmica falha porque a formação do hélio precisa competir com o fato de que a densidade de prótons e nêutrons está decaindo no tempo. Os prótons e nêutrons vão se tornando menos densos por causa da expansão do universo. A formação do hélio não dura para sempre porque eventualmente a densidade é tão baixa que não permite mais reações nucleares ocorrerem. Além disso, a formação do hélio depende da presença dos nêutrons, que decaem rapidamente a medida que as reações nucleares perdem força para converter prótons em nêutrons. Se abdicarmos da Termodinâmica e calcularmos o processo dependente do tempo, chegaremos ao valor correto de 27%. A radiação cósmica de fundo se forma por um processo similar de competição em que os elétrons livres que ainda espalham fótons por efeito Compton vão desaparecendo ao serem capturados pelos núcleos para formar os átomos neutros de hidrogênio e hélio.

Quando nós não podemos usar a Termodinâmica para reações físicas mas ainda se quer fazer contas para um número grande de partículas, se usa física estatística fora do equilíbrio onde a dinâmica é comandada pelo que genericamente se chama equações de Boltzmann. O nome de Boltzmann deve indicar como já se sabia faz tempo as limitações da Termodinâmica.

O propósito desse comentário é o seguinte: não é necessária nenhuma mágica para entender como se formam estruturas complexas no universo onde vale a segunda lei da Termodinâmica. Basta aplicar as leis físicas relevantes para o processo microscópico (no caso da formação dos núcleos é a física nuclear, da formação das galáxias é a Relatividade Geral). A Termodinâmica é uma aproximação que nem sempre descreve todas as variáveis físicas, só aquelas que se tornam independentes do tempo.

Informação, entropia, geometria e teorias de campo médio.

domingo, 15 nov 2009; \46\UTC\UTC\k 46 1 comentário

(eu perdi um sinal em algum lugar por aí, se você achar por favor indique no comentário)

Este post é uma espécie de continuação do post sobre Lógica Bayesiana, ainda que não exatamente. Mas estamos no mesmo espírito. Lá eu discuti a respeito de como raciocinar sobre informação incompleta. Entretanto, quando há informação incompleta uma coisa é certa: com o tempo podemos ganhar informação. E se há nova informação relevante para saber sobre algo, a probabilidade que atribuo – no sentido do post anterir, o registro quantitativo da minha crença racional sobre esse algo – deve certamente mudar.

A grande pergunta então parece ser: como eu devo mudar minha atribuição de probabilidades – minha crença racional – quando adquiro nova informação? Bem, isso sugere uma forma de quantificar informação: se informação causa mudança na minha atribuição de probabilidades, então se eu puder medir quão longe estão minhas atribuições prévia (prior, antes da nova informação) e posterior (posterior, depois da nova informação), então poderei medir quão importante é essa nova informação. Vamos fazer como antes então e propor uma medida de informação e vinculos que nos permitam restringi-la a uma medida única(1).

Leia mais…

Micromotivos e macrocomportamento, parte I

sexta-feira, 31 out 2008; \44\UTC\UTC\k 44 5 comentários

Escolhendo como título o nome do livro famoso de um laureado pelo prêmio Sveriges Riksbank de Ciências Econômicas em Memória de Alfred Nobel [1], Thomas Schelling [2], pretendo discutir um pouco a minha área de pesquisa recente: modelagem quantitativa em ciências sociais e economia. Apesar de parecer um assunto novo, esse tipo de modelagem é na verdade bastante antigo, remontando a  Pierre de Laplace, Thomas Malthus,  David Ricardo, passando por Léon Walras, John Von Neumann e companhia. Essa é no entanto uma área de modelos bastante primários e ainda muito qualitativos. Ao longo desse período de história da modelagem quantitativa de fenômenos sociais houve um diálogo intenso (e negligenciado pelos dois lados)  com a física, particularmente a termodinâmica e a nascente mecânica estatística no final do século XIX. Ao longo das últimas duas décadas essa relação se intensificou novamente e o paradigma da mecânica estatística passou a integrar um programa de pesquisa em ciências sociais e economia com a criação de modelos microscópicos para diversos aspectos como dinâmica de opiniões, tráfego de automóveis,  negociações no mercado financeiro e outros.

A mecânica estatística é a área da física que lida com a ponte entre a dinâmica microscópia dos constituíntes da matéria e as observações macroscópicas que fazemos sobre ela. Por exemplo ela é capaz de, assumindo-se as leis de Newton para o movimento das moléculas de um gás, mostrar que as propriedades macroscópicas do mesmo devem satisfazer certas equações de estado (por exemplo a famosa lei dos gases ideias PV = nRT). É importante notar que essa ponte é feita admitindo-se um certo grau de ignorância sobre o estado microscópico do sistema e a forma correta de se fazer isso é associar uma distribuição de probabilidades aos possíveis estados microscópicos.

O primeiro problema na direção de um modelo estatístico para problemas economicos deve ser então identificar qual é a dinâmica microscópica – a forma com que cada agente economico se move no espaço de configurações. Para as moléculas dos gases temos leis newtonianas de movimento, para partículas menores temos a mecânica quântica. O que temos para pessoas tomando decisões de consumo e poupança, empresas tomando decisões de produção, governos intervindo e bancos decidindo taxas de empréstimo?

Nesse ponto é que paramos para a primeira grande crítica a esse tipo de modelagem. Partículas microscópicas não são conscientes, não aprendem, não tomam decisões racionais nem usam critérios objetivos para mover-se. São diferentes das pessoas. São mesmo? A história da modelagem das decisões economicas começou no século XIX com Léon Walras, Vilfredo Pareto e uma analogia com a mecânica. Walras criou uma teoria de equilíbrio, em analogia com o equilibrio mecânico. Claro que ninguém está propondo que pensemos nas partículas como pequenos seres racionais, mas a analogia com a mecânica e com a termodinâmica levou os economistas a admitir a idéia de que decisões racionais são tomadas através de problemas otimização (maximização de lucros, minimização de custos, etc.).

Na teoria microeconomica neoclássica as pessoas agem segundo escalas de preferência ordenadas através de um função chamada Utilidade. Construiu-se um modelo segundo o qual as pessoas agem para maximizar uma função que diz quão “felizes” elas estão com a decisão que tomaram, sujeito a vínculos que dependem das decisões das outras pessoas. A evolução dessa linguagem levou à construção do modelo de agente econômico ubíquo: o chamado Homo economicus, um agente ultra-racional, capaz de maximizar uma função  utilidade complicada de diversos parâmetros e escolher dentre todas as estratégias a que mais lhe traz benefício. Esse agente ideal tem poder computacional infinito e completo conhecimento de seu espaço de possíveis estratégias.

Esse modelo, apesar de ter bem servido à economia por um século, passou a ser questionado através de problemas em que era claro que, mesmo que houvesse um agente com esse grau de racionalidade, não há estratégias ótimas a se seguir diante da limitada informação disponível ao agente. Um desses modelos é o El Farol Bar. Hoje há modelos de agentes economicos tendem a ser mais realistas e focam-se na capacidade de aprendizado e desenvolvimento de estratégias “on-the-fly”, trocando o agente ultra-racional por um com racionalidade limitada.

Mas mesmo que nos mantenhamos no problema de agentes ultra-racionais, ainda resta a pergunta: como ligamos os modelos microscópicos de maximização de utilidade ao comportamento macroscópico da economia? Nesse campo a análise economica ofereceu poucas respostas. Há poucos estudos teóricos [3] anteriores à década de 90 por exemplo sobre quais são as propriedades de uma economia de escambo de duas mercadorias com muitos agentes neo-clássicos – que maximizam a utilidade em cada transação atingindo um equilíbrio local de Pareto. Os livros clássicos de microeconomia tratam de um problema com dois agentes e os de macroeconomia usam esses resultados para tirar conclusões globais (!). Hoje em dia é um exercício trivial simular isso em computador, mas esse é um problema que  deve ter solução analítica – não passa de um gás de agentes que quando se chocam trocam mercadorias conservadas segundo uma regra de espalhamento bem definida com taxas de transição conhecidas ainda que a regra de maximização de utilidade seja razoavelmente relaxada.

Depois desse blablablá todo (parece mesmo que estou virando economista: em dois posts usei apenas uma equação, e a mais simples que eu conheço :P), permita-me ao menos deixá-los com um tira gosto. No meu próximo post vou comentar um pequeno modelo com solução analítica em que se pode ilustrar o uso de agentes com racionalidade limitada e uma agregação que remete à mecânica estatística – apesar das analogias imperfeitas. É um pequeno modelo de decisão de tráfego, baseado no jogo da minoria. Apesar do contexto diferente, é um modelo que possui claras analogias com problemas de decisão binária que podem ser observadas no mercado financeiro (comprar ou vender?) e que possui a característica fundamental de que o agente gostaria de estar sempre na minoria.

Notas:

[1] Com freqüência denominado erroneamente de Nobel de Economia.

[2] Micromotives and Macrobehavior, Thomas Schelling.

[3] Talvez o problema não seja a escassez de resultados teóricos, mas uma falta de capacidade minha de encontrá-los.

Update:

Dias atrás o físico Jean-Phillipe Bouchaud, professor da École Polytechnique, na França, Chairman do fundo de investimentos francês CFM e pioneiro em pesquisa na interface entre economia e física estatísica escreveu um ensaio para a revista Nature apontando a necessidade desse tipo de modelagem:  Economics need a scientific revolutionNature 455, 1181 (30 October 2008).

%d blogueiros gostam disto: