Arquivo

Posts Tagged ‘termodinâmica’

Entropia e formação de complexidade no universo

domingo, 17 abr 2011; \15\UTC\UTC\k 15 4 comentários

Distribuição de massa no universo prevista pela Relatividade Geral, rede cósmica. As cores indicam densidade de massa, com o preto ao púrpuro ao amarelo indicando região menos a mais densa. A escala indica cerca de 44 Mpc. Uma galáxia tem cerca de 10 Kpc de diâmetro.

Quando nós olhamos para um vídeo em que um omelete se transforma em um ovo de galinha, nós sabemos que o filme está sendo exibido de trás para frente, porque no universo a entropia sempre cresce. Uma pergunta muito natural então é: como foi possível que o universo tenha formado estruturas como as galáxias e os planetas, e depois a vida na Terra, quando formar estruturas complexas parece desafiar a segunda lei da Termodinâmica?

É importante entender que a pergunta é capciosa, porque ela é baseada em uma premissa falsa: a de que a Termodinâmica é válida universalmente. Na realidade, a Termodinâmica é uma aproximação para descrever sistemas quando eles podem atingir rapidamente um estado em que suas variáveis não dependem mais do tempo. Muitas vezes isso não é possível, e a Termodinâmica é inaplicável. Isso é o caso para maior parte dos processos que ocorrem no universo. Esse tipo de fenômeno se denomina fora do equilíbiro térmico.

A formação das galáxias é um exemplo. A termodinâmica não se aplica porque o campo gravitacional depende do tempo. E o processo é complicado pela contínua aglomeração de massa que o campo gravitacional provoca. A redistribuição de massa no espaço muda de volta o campo gravitacional. O efeito combinado ao longo do tempo forma a rede cósmica, da qual eu já comentei outras vezes no blog. Do ponto de vista da Termodinâmica, a formação das galáxias pode parecer uma incógnita, mas é porque a origem das galáxias vem da dinâmica do campo gravitacional.

Outros dois exemplos importantes são a formação dos núcleos atômicos e a formação da radiação cósmica de fundo. Se nós fossemos usar a Termodinâmica em Cosmologia para descrever esses processos, iríamos obter respostas incorretas. Na formação do hélio, por exemplo, vê-se que a abundância do hélio em equilíbrio termodinâmico se torna relevante quando a temperatura é cerca de 3.5×109 K, e a Termodinâmica prevê que cerca de 31% dos bárions deveria estar em forma de hélio hoje. O valor correto é mais próximo de 25-27%. A Termodinâmica falha porque a formação do hélio precisa competir com o fato de que a densidade de prótons e nêutrons está decaindo no tempo. Os prótons e nêutrons vão se tornando menos densos por causa da expansão do universo. A formação do hélio não dura para sempre porque eventualmente a densidade é tão baixa que não permite mais reações nucleares ocorrerem. Além disso, a formação do hélio depende da presença dos nêutrons, que decaem rapidamente a medida que as reações nucleares perdem força para converter prótons em nêutrons. Se abdicarmos da Termodinâmica e calcularmos o processo dependente do tempo, chegaremos ao valor correto de 27%. A radiação cósmica de fundo se forma por um processo similar de competição em que os elétrons livres que ainda espalham fótons por efeito Compton vão desaparecendo ao serem capturados pelos núcleos para formar os átomos neutros de hidrogênio e hélio.

Quando nós não podemos usar a Termodinâmica para reações físicas mas ainda se quer fazer contas para um número grande de partículas, se usa física estatística fora do equilíbrio onde a dinâmica é comandada pelo que genericamente se chama equações de Boltzmann. O nome de Boltzmann deve indicar como já se sabia faz tempo as limitações da Termodinâmica.

O propósito desse comentário é o seguinte: não é necessária nenhuma mágica para entender como se formam estruturas complexas no universo onde vale a segunda lei da Termodinâmica. Basta aplicar as leis físicas relevantes para o processo microscópico (no caso da formação dos núcleos é a física nuclear, da formação das galáxias é a Relatividade Geral). A Termodinâmica é uma aproximação que nem sempre descreve todas as variáveis físicas, só aquelas que se tornam independentes do tempo.

O problema da seta do tempo

segunda-feira, 7 set 2009; \37\UTC\UTC\k 37 18 comentários

Por que podemos ir da esquerda para a direita, mas não temos acesso ao passado? Por que girar um objeto no espaço não causa os mesmos paradoxos que imaginar matar o seu avô?

O problema da seta do tempo é um dos mais célebres problemas fundamentais da Física. Ele deve ter sido percebido pela primeira vez na mecânica de Newton, quando notou-se que tipicamente os sistemas mecânicos conhecidos admitem uma inversão temporal. O que isso quer dizer? Se temos a equação de Newton,

\mathbf{F}(\mathbf{v},\mathbf{x},t) = m\mathbf{a}

e uma de suas soluções

\mathbf{x}(t) = \boldsymbol{\gamma} (t)

então temos automaticamente outra solução:

\mathbf{x}(t) = \boldsymbol{\gamma} (-t)

Isso significa que a equação de Newton não consegue distinguir passado do futuro: se eu tenho uma solução que leva uma condição inicial x_0, v_0, t_0 em x,v,t, é também solução do sistema percorrer o trajeto de x,v, t até x_0, v_0, t_0.

A primeira lei da Natureza descoberta que faz diferença entre passado e futuro é a segunda lei da Termodinâmica, quando enunciada da seguinte forma:

Se considerarmos um sistema físico em equilíbrio, i.e. estamos olhando para um conjunto de observáveis desse sistema X que independem do tempo, então existe uma função S convexa dos valores dessas variáveis tal que se permitimos um ou mais elementos do conjunto X variar, o sistema atingirá equilíbrio novamente de tal forma que S é um máximo com respeito aos valores acessíveis de X.

O que essa afirmação quer dizer é o seguinte. Suponha que você tem um gás dentro de um recipiente de volume total V. Nós dizemos que o volume acessível ao gás é V. O gás poderia ocupar um volume menor, porque não existe nada impedindo isso de acontecer (nenhum vínculo). Existe um vínculo que impede o gás de ocupar um volume maior que V que são as paredes do recipiente. A segunda lei da Termodinâmica diz que o gás ocupará um volume V’ que deve ser tal que a função S(V) é um máximo em V’ dado o vínculo de que V' \leq V. Para um gás, S(V) \propto \log V, então é possível mostrar que o máximo de fato ocorrerá para V' = V. Para resolver esse problema de maximização, é necessário introduzir uma variável extra, conjugada ao volume V, que é conhecida como multiplicador de Lagrange. Essa variável é o que se chama a pressão.

A segunda lei da Termodinâmica é na verdade uma afirmação mais forte que a que eu coloquei nesse texto, mas para o problema da seta do tempo, as demais propriedades da função S não me importam. E é isso mesmo que você está pensando, S é a entropia.

Por que essa lei parece ter algo a ver com a seta do tempo, se em Termodinâmica não existe a variável tempo? É porque se uma vez você permite S aumentar de valor, então os estados com entropia menor agora são fisicamente inacessíveis devido a convexidade de S. Por exemplo, uma função convexa é o logarítmo, então se supormos que para um gás S(V) = \log(V) , uma vez que o volume acessível ao gás V satisfaça V \leq V', o gás sempre será encontrado ocupando um volume V’, e nunca menor.

Durante as décadas de 1860 e 1870, Ludwig Boltzmann e Josiah Willard Gibbs começaram a conectar a termodinâmica com as leis da mecânica, dentro da disciplina que se chamou a Física Estatística. A peça chave para fazer essa conexão foi proposta por Boltzmann. Mas hoje em dia nós entendemos o significado dessa peça chave graças ao trabalho de Edwin Jaynes. Felizmente já há um bom post de blog sobre isso aqui. Boltzmann mostrou que aquela quantidade de informação total contida na descrição de um sistema satisfaz

- \frac{d}{dt} H( \{p_i\}) = -\frac{d}{dt} \sum_i p_i \log p_i \geq 0

Esse é o celebrado Teorema H. Esse teorema hoje pode ser demonstrado de forma genérica como conseqüência direta da mecânica quântica. É tentador identificar a quantidade acima como a entropia, e mais ainda, concluir que o problema da seta do tempo está resolvido porque o teorema supostamente nos diz que a entropia sempre aumenta no tempo. Porém, isso é incorreto em diversos níveis, de diferentes formas.

Uma inconsistência, a mais famosa, foi apontada pelo colega e professor de Boltzmann, Johann Loschmidt. Suponha que existe uma solução da equação de Newton para os constituintes do sistema que leva-o do estado i para o estado f, e suponha que a entropia só depende do estado do sistema, então se S(f) > S(i) e se existe reversibilidade temporal, há uma solução da mesma equação de Newton que leva o sistema de f para i e portanto viola a segunda lei da Termodinâmica. Não há violação do teorema H, e sim da segunda lei da Termodinâmica, pois o teorema H também admite que a informação perdida de um sistema diminua no tempo (ao invés de crescer) se você permite reversibilidade temporal na mecânica. Isso deveria ser óbvio do fato de que você pode tomar dt \rightarrow -dt. Isso levou Loschmidt a apontar que o teorema H não é equivalente a segunda lei da Termodinâmica.

O mito de que a segunda lei da Termodinâmica pode ser “provada” a partir de uma mecânica reversível continuou. Em 1971, E. T. Jaynes encontrou a recíproca do paradoxo de Loschmidt: é possível satisfazer a segunda lei da Termodinâmica e violar o teorema H.

O paradoxo de Loschmidt pode ser facilmente generalizado para a mecânica quântica. Se temos um sistema no tempo t_i descrito por uma matriz de densidade \rho_i e em t_f por \rho_f e uma evolução temporal que satisfaz o teorema H que leva o sistema do estado inicial \rho_i para o estado final \rho_f, supondo que existe um operador anti-unitário anti-linear T que representa a ação t \rightarrow -t, então ao aplicar T a equação do teorema H obtemos uma solução que leva T \rho_f T^{-1} como estado inicial para T \rho_i T^{-1} como estado final. Se de fato a entropia é uma função de estado, uma dessas soluções do teorema H viola a segunda lei da Termodinâmica.

Portanto, infelizmente, nós não podemos compreender a irreversibilidade da Termodinâmica sem assumir uma seta do tempo nas leis microscópicas da física. Isso é um indicativo, em outros, de que o problema da seta do tempo não é um efeito macroscópico.

Existe uma discussão moderna sobre o problema da seta do tempo que tenta transferir esse problema a uma natureza puramente de condição inicial. Você vai encontrar por ai a afirmação de que se for possível explicar porque o universo começou em um estado de “baixa entropia”, então “segue da física de Boltzmann” que o universo aumenta entropia. Naturalmente que isso é incorreto, baseado na idéia falsa de que a segunda lei da Termodinâmica do aumento da entropia pode ser de alguma forma derivada da mecânica. Além do fato que me parece incorreta essa afirmação por causa disso, como fica claro da construção da entropia feita por Jaynes, esta quantidade é “subjetiva” no sentido de que ela não depende do sistema mas de uma escolha de descrição de quem faz inferências estatísticas. O que eu quero dizer com isso é que se eu de fato fosse resolver a evolução temporal do sistema em toda sua glória, eu não precisaria da física estatística para obter a entropia do sistema e aplicar o princípio de maximização da entropia para saber o estado final. Há outra falha que posso apontar, que é a de que a segunda lei da Termodinâmica só é válida quando o número de partículas e o volume do sistema físico é “grande”. É possível demonstrar matematicamente que a probabilidade do sistema ser encontrado em estados que violam a segunda lei da Termodinâmica tende a zero no limite que o número de partículas vai a infinito, mas se você não tomar esse limite, pode existir uma probabilidade não-nula e observável de violar a segunda lei da Termodinâmica. Isso naturalmente só ocorre para sistemas mesoscópicos e microscópicos, onde já se espera que a Termodinâmica não seja válida. Ainda assim, é possível definir passado e futuro, sem se preocupar com o fato de que eventualmente a entropia pode espontaneamente descrescer.

No presente momento não há nenhuma explicação para a natureza da seta do tempo. Também não é possível traduzir o problema em termos de condições iniciais ou de contorno. Todas essas idéias de reduzir o problema da seta do tempo a entropia ou outras coisas na verdade abriga o nosso preconceito de raciocinar em termos de passado e futuro, o próprio conceito que estamos tentando explicar.

Dirac: Férmions e Vínculos (e outras coisas)

domingo, 26 abr 2009; \17\UTC\UTC\k 17 1 comentário

Uma das coisas interessantes sobre a história da mecânica quântica é que Schroedinger escreveu a equação de Klein-Gordon, perfeitament relativística, antes de escrever a equação que leva seu nome, que na mecânica quântica é sua versão não relativística. Ele não levou muito a sério a equação relativística porque, na sua interpretação, ela descrevia estados com probabilidade negativa.

Obviamente, em teoria quântica de campos não há problema, pois ela não descreve a evolução de um estado quântico mas sim a evolução de um operador que age sobre um estado. No entando, a interpretação errada levou Dirac a desenvolver uma nova teoria para “consertar” a equação de Klein-Gordon. Em teoria quântica de campos, a teoria de Dirac é tão boa quanto a de Klein-Gordon, só que falam de campos diferentes.

A teoria de Dirac é baseada numa ação:

S=-i\int d^4x\,\psi_A^*\gamma^0\gamma^{\mu}\partial_{\mu}\psi^A = i\int d^4x\,\psi_A^*\frac{\partial}{\partial t}\psi^A - \psi_A^*\gamma^0\gamma^k\frac{\partial}{\partial x^k}\psi^A

onde \psi^A e \psi_A^* são campos independentes. Essa ação é bem diferente do que normalmente se você porque ela é uma ação de primeira ordem em derivadas. Esse problema, junto com o problema das quantização de teorias de gauge, levou Dirac a considerar a quantização de sistemas vinculados. Vamos ver como isso funciona. Os momentos associados a \psi^A e \psi_A^* são:

p_A=-i\psi_A^*
p^{A*}=0

Note que não é possível inverter essa relação para escrever uma hamiltoniana, pois não tem “velocidade” nenhuma nessa relação. Dirac então chamou essas relações de vínculos primários

Bem, podemos então tentar formar uma hamiltoniana com o que temos. Dirac chamou isso de (densidade) hamiltoniana canônica:

\mathcal{H}_C=i\psi_A^*\gamma^0\gamma^k\frac{\partial}{\partial x^k}\psi^A

Por causa do vínculo, essa hamiltoniana não gera evoluções temporais. A argumentação não é complicada, a idéia é introduzir multiplicadores de lagrange para suprir o déficit de variáveis que seriam necessárias para inverter das velocidades para os momentos.

Numa visão mais geométrica que será necessário para minha conclusão posterior, isso quer dizer que precisamos introduzir mais variáveis para tornar o mapa entre o espaço tangente e cotangente um-para-um. A hamitoniana que gera evoluções temporais foi chamada de hamiltonana total por Dirac:

\mathcal{H}_T=i\psi_A^*\gamma^0\gamma^k\frac{\partial}{\partial x^k}\psi^A-\lambda^{A*}(p_A+i\psi_A^*)-\lambda_Ap^{A*}

onde \lambda^{A*} e \lambda_A são os multiplicadores de lagrange. A evolução temporal dos vínculos, usando os parênteses de Poisson canônicos \{p_A,\psi^B\}=-\delta_A^B e \{p^{A*},\psi_B^*\}=-\delta_B^A:

i\lambda_A=-i\frac{\partial}{\partial x^k}\psi_A^*\gamma^0\gamma^k
\lambda^{A*}=0

Por serem condições de consistência, Dirac chamou esses vínculos de secundários. Em princípio, poderíamos continuar com as condições de consistência, mas quero seguir em frente.

Uma coisa interessante de se notar é que o sistema de vínculos primários tem parênteses de Poisson não nulo. Dirac classificou esse tipo de vínculo como de segunda classe e ele deu uma prescrição completa para tratar esses casos, que consiste na substituição dos parênteses de Poisson por parênteses de Dirac. Há inclusive uma história engraçada aqui: Dirac reconhece o trabalho onde introduziu esses parênteses (brackets, em inglês) como sua maior criação. Muitas pessoas confundem essa declaração com o formalismo de “bras” e “kets” da mecânica quântica, que não tem nada a ver.

Geometricamente, vínculos de segunda classe definem superfícies que são por si só simpléticas e logo, admitem uma estrutura de espaço de fase. O parêntese de Dirac nada mais é que a forma simplética induzida na superfície. Sua expressão é:

\{F,G\}_D=\{F,G\}_P-\{F,\phi_A\}(C^{-1})^A_B\{\phi^B,G\}

onde C=\{\phi_A,\phi^B\}_P e \phi=0 representa os vínculos. Depois de subsitutir os parênteses de Poisson por parênteses de Dirac podemos tornar os vínculos fortes, ie, subsitutir sua expressão inclusive na ação.

Para o conjunto de vínculos primários isso implica:

\{\psi^A,\psi^B\}_D=0
\{\psi_A^*,\psi^B\}_D=-i\delta_A^B
\{\psi_A^*,\psi_B^*\}_D=0

O resto pode ser determinado mas não importa, porque ao tornar o vínculo forte, o resto pode ser resolvido trivialmente com p^{A*}=0 e \lambda^{A*}=0. Daí podemos proceder com a quantização, subsituindo os parênteses de Dirac por \{\cdot,\cdot\}\rightarrow \frac{[\cdot,\cdot]}{i} de forma que:

[\psi^{\dagger},\psi]_+=\mathbf{1}
\mathcal{H}=\psi^{\dagger}\gamma^0\gamma^k\frac{\partial}{\partial x^k}\psi

Esse é o procedimento padrão para ações de primeira ordem, que sempre é o caso para campos de spin semi-inteiro. Mas… nesse caso, ele não é tão necessário assim. Se você olhar a ação de Dirac como uma ação já no espaço de fase, esse resultado é trivial.

Uma ação no formalismo hamiltoniano é normalmente escrita como:

\int \mathbf{p}\, d\mathbf{q} - H\,dt

mas isso é uma expressão local quando a estrutura simplética é dada por \mathbf{\omega}=d(\mathbf{p}\, d\mathbf{q})=d\mathbf{p}\wedge d\mathbf{q}. Essa é a forma usual da estrutura canônica dado pelo teorema de Darboux. Mas olhe a ação de Dirac como uma ação no espaço de fase com uma estrutura canônica diferente, dito:

\mathbf{\theta}=i\int d^3x\,\psi^*_A\, d\psi^A\Rightarrow \mathbf{\omega}=d\mathbf{\theta}=i\int d^3x\, d\psi_A^*\wedge d\psi^A

que é perfeitamente equivalente aos parênteses de Dirac determinados acima. Isso é o que termos topológicos na ação costumam fazer: como eles não dependem da métrica, não influenciam no tensor momento-energia, e logo não alteram a hamiltoniana. Contudo, eles mudam a estrutura canônica.

Não estou dizendo que a prescrição de Dirac seja inútil, às vezes é complicado ver a estrutura canônica, mas às vezes é fácil como na ação do campo de Dirac. Um outro caso interessante é a ação de Wess-Zumino-Witten. Em 0+1D, ela é particularmente simples se escrita em termos de ângulos esféricos:

S=-s\int\,(1-\cos\theta) d\phi

Você vê que ela é uma ação de primeira ordem, tal como a de Dirac que trabalhamos acima. Ela também muda a relação simplética entre as variáveis e faz com que elas passem a obedecer uma álgebra de spin para as variáveis \mathbf{S}=s(\sin\theta\cos\phi,\sin\theta\sin\phi,\cos\theta), o que é bem interessante para aplicações em matéria condensada.

Dirac também deu uma prescrição para os vínculos de primeira classe, isto é, aqueles que não definem superfícies com estrutura simplética. Em todos os casos úteis que se conhece, esse tipo de vínculo gera simetrias de gauge. Apesar de correta, ela é simplista demais para ser útil nos casos mais complicados. Hoje em dia, as pessoas entendem a prescrição de Dirac como uma versão infantil do formalismo BRST hamiltoniano, que consiste em introduzir novas variáveis, chamadas fantasmas, e reescrever a ação na forma:

S = \int P_i\, dQ^i - H_{BRST}dt - \{\Psi,Q_{BRST}\}

onde as variáveis canônicas (Q,P) consistem nas variáveis canônicas originais (q,p) mais os fantasmas e seus momentos conjugados (c,p(c)) e (b,p(b)). \Psi é conhecido como férmion fixador de gauge e H_{BRST} e Q_{BRST} são a hamiltoniana BRST e a carga BRST para as quais existem prescrições de como serem construídas. Em casos simples, como YM, dá para encontrar suas expressões de forma explícita. Em casos mais complicados, como em alguns modelos de teoria de cordas, elas são uma expressão infinita.


Mudando um pouco bastante de assunto… vocês se lembram de um avião que caiu aqui perto em Buffalo (NY) em fevereiro desse ano? Achei a explicação (não-oficial) para o ocorrido é muito interessante: gelo!

Todo mundo aprende na escola que a água congela a 0^oC, mas a história é um pouco mais complicada. Essa é a temperatura que fica termodinamicamente mais favorável estar no estado de gelo que água líquida, mas isso não basta para que a água congele. Se não houver nucleação, isto é, a criação de uma interface entre diferentes fases, o cristal não vai se formar. O problema é que para água pura, a temperatura de nucleação homogênea é em torno de -42^oC. Diz-se então que a água está em sobrefusão. Um colega que estuda física do clima me disse que há muitas nuvens, cujas gotículas de água são muito puras, nesse estado.

O que parece que ocorreu no caso desse acidente, é que o avião passou pela nuvem nesse estado meta-estável e serviu de ponto de perturbação para que os cristais de gelo se formassem. Com a asa completamente coberta de gelo, a aerodinâmica foi comprometida e o avião caiu.

Não sei até que ponto a explicação é verdadeira, mas é bem bacana. Não que o acidente seja bacana, não me interpretem mal. Foi muito triste: quase 50 pessoas morreram. Mas a explicação física é.


Você sabe como calculadoras representam números negativos? Assim:


Para ler mais:

Filosofia, reducionismo e física

sexta-feira, 3 out 2008; \40\UTC\UTC\k 40 5 comentários

Costuma-se dizer que Astronomia é um exercício de humildade. Que nos colocamos frente ao nosso universo tão grande e percebemos quão pequenos nós somos. Nesse sentido, algumas pessoas poderiam dizer que a física microscópica é um exercício de arrogância. A idéia, conhecida como reducionismo, é que você pegue sua teoria do tudo favorita e tente descrever o universo a partir daí. O reducionismo tem uma história muito longa, principalmente na forma do atomismo. Feynman disse uma vez que o atomismo era uma das maiores idéias da humanidade:

If, in some cataclysm, all of scientific knowledge
were to be destroyed, and only one sentence passed on to the next generation of creatures, what
statement would contain the most information in the fewest words? I believe it is the atomic
hypothesis…or atomic fact…

Alguém poderia dizer nesse momento que reducionismo e atomismo não é a mesma coisa, mas para esse ensaio isso não é importante. Isso aqui é um blog e não um exercício de filosofia. Outras pessoas não dão um papel tão importante ao reducionismo. Por exemplo, Anderson faz uma diferença interessante entre reducionismo, que para ele é só o fato de que há escalas em física, com o construcionismo que é a habilidade de reconstruir uma escala maior a partir da outra menor. O construcionismo seria o reducionismo aplicado na prática, mais ou menos o que eu estava falando antes. Nesse sentido, a física microscópica parece muito mais humilde. Deixe-me explicar porque.

Quando queremos estudar como uma escala menor se relaciona com uma escala maior, fazemos a hipótese de que somos ignorantes. De que o objeto observado tem muito mais graus microscópicos do que nossas capacidades macroscópicas de armazenamento e processamento. Algo meio Platônico. Note que isso não é óbvio, embora pareça depois de ter sido dito. No nosso cotidiano, em geral, o observador e o observado tem capacidade de informação parecidas. Em teorias como a mecânica Newtoniana então, o observador tem muito mais capacidade de informação que o observado. Quando Boltzmann, Gibbs, Maxwell e cia. começaram a fazer uma física estatística, foi uma quebra da forma de se ver a natureza. Como pode ser lido no texto do Anderson, quando a quantidade de partículas microscópicas do sistema fica muito grande, várias coisas interessantes podem acontecer. Podemos começar a observar ordenamentos macroscópicos na natureza que em nada se parecem com as leis e simetrias da escala microscópica. Somente em casos muito especiais temos o comportamento microscópico conectado com o macroscópico (ainda que esses casos especiais sejam muito interessantes).

Descrever essa conexão entre as escalas, essas diferentes fases que surgem, é um exercício complicado que ainda não conseguimos para casos curiosamente mundanos. Se considerarmos a teoria do tudo mais simples possível, mas não tão simples a ponto de ser inútil: núcleos e elétrons interagindo por uma força coulombiana; e tentamos mostrar que a matéria é estável, entramos num problema que, embora tenha sido resolvido (vários nomes estão associados a isso: Ruelle, Dyson, Lenard, Lieb… numa quantidade massiva de trabalhos), apresenta uma dificuldade imensa. Curiosamente, esse sistema só é estável quando se considera a mecânica quântica. Por outro lado, partindo de uma descrição microscópica, até hoje ninguém provou a:

  • Existência de cristais em três dimensões (espaciais)
  • Existência de da transformação líquido-gás em fluídos
  • Existência de um ponto triplo sólido-líquido-gás
  • Existência de ordem ferromagnética (imãs) num modelo de interação de spin em 3 dimensões com 3 componentes
  • Existência de cristais líquidos em três dimensões
  • Veja como muitas coisas do cotiadiano simplesmente não tem explicação microscópica! Pense nisso, pense nisso principalmente quando alguém vier com respostas prontas para todas as perguntas. Teorias do tudo nem de longe descrevem tudo, é apenas um nome infeliz.

    %d blogueiros gostam disto: