Arquivo

Archive for the ‘Epistemologia’ Category

As Raízes da Metafísica…

segunda-feira, 22 ago 2011; \34\America/New_York\America/New_York\k 34 1 comentário

Acabei de ler o post The Roots of Metaphysics que trata do Paradoxo de Russell — que tem a mesma natureza do Argumento Diagonal (o fato de que os Reais são incontáveis).

Entretanto, no sentido exposto no texto — “(…) no set of existential statements can entail a universal statement” —, a primeira coisa que veio a minha mente foi o Teorema do Limite Central (e suas “variações sobre o tema”). Ou seja, apesar dos pesares, minha crítica ao texto, ao modo como o problema foi exposto no texto, é que eu não achei que a noção de recursividade ficou exposta de modo claro o suficiente (de modo que se note que ela é o ‘pilar’ por detrás do problema sendo tratado). A analogia feita no texto é a de que enquanto a afirmação “todos os morcegos estão na pia” é universal, a afirmação “há um morcego na pia” é existencial. O problema dessa analogia é que nós já sabemos, a priori, que o número de morcegos é finito (assumindo, claro, que só existem morcegos no nosso planeta), o que faz uma diferença enorme em toda essa brincadeira. Num certo sentido, o problema dessa analogia está no Paradoxo de Banach–Tarski: se fosse possível, através dum corte ao meio, se obter dois morcegos idênticos entre si, a partir dum morcego original, aí sim, essa seria uma analogia bona fide, uma vez que a recursividade estaria então implementada no problema. Aliás, é por essas, e outras, que existem diferentes formulações da Teoria de Conjuntos, como, e.g., Teoria de Conjuntos de Zermelo–Fraenkel (e suas respectivas objeções), assim como Teoria de Topos e Teoria de Conjuntos de Tarski–Grothendieck.

Acho interessante ver que o Paradoxo de Russell é de ~1925… e que, por exemplo, os Teoremas de Incompletude de Gödel são de 1931: quando postos em contexto, acho que as implicações são bem interessantes. :wicked:

No final das contas, esse assunto tem um nome: Meta-Matemática — leia mais sobre isso em Meta Math! The Quest for Omega e Omega and why maths has no TOEs. Ou seja, como devemos usar a matemática pra avaliar a própria matemática?

Num certo sentido, isso me leva a pensar diretamente sobre o conceito de Grupo de Renormalização, Teorias Efetivas e Espaço de Teorias (em física teórica) (ver também Grupo de Renormalização Funcional). Ou seja, em Física existem teorias que são fundamentalmente desconexas (como, por exemplo, a Relatividade Geral e a Mecânica Quântica); entretanto, existe todo um outro conjunto de teorias que estão conectadas via o Grupo de Renormalização: ou seja, existe uma teoria pra explicar cada conjunto de graus-de-liberdade (ie, as variáveis que descrevem uma determinada teoria); entretanto, é possível se rearranjar um conjunto de graus-de-liberdade de modo a se obter as variáveis relevantes para se explicar outra teoria — esse fenômeno leva o nome de Transição de Fase.

Nesse sentido, existem várias escalas relevantes para a Física, que efetivamente formam “ilhas de teorias”, ou “ilhas de verdade” (à la Gödel). Dessa forma, acabamos com um sistema multi-fractal: a auto-similaridade consiste no fato de que toda a estrutura Física se repete nas diversas escalas: Lagrangianos, [quantização via] Integral de Trajetória de Feynman, Renormalização, etc, etc, etc — exceto, claro, por pontos-fixos não-triviais no Fluxo de Renormalização. 😉

O Lamento dum Matemático…

domingo, 21 ago 2011; \33\America/New_York\America/New_York\k 33 1 comentário

Acabei de encontrar esse artigo (PDF), escrito por Keith Devlin, onde a seguinte citação aparece:

“… The first thing to understand is that mathematics is an art. The difference between math and the other arts, such as music and painting, is that our culture does not recognize it as such. Everyone understands that poets, painters, and musicians create works of art, and are expressing themselves in word, image, and sound. In fact, our society is rather generous when it comes to creative expression; architects, chefs, and even television directors are considered to be working artists. So why not mathematicians?”

(Tradução livre: “… A primeira coisa a entender é que a matemática é uma arte. A diferença entre a matemática e as outras artes, como música e pintura, é que nossa cultura não a reconhece [como arte]. Todo mundo entende que poetas, pintores, e músicos criam trabalhos de arte, e se expressam em palavras, imagens e sons. De fato, nossa sociedade é meio generosa quando o assunto é expressão criativa; arquitetos, chefs [de cozinha], e até mesmo diretores de TV são considerados artistas. Então, por que não os matemáticos?”)

Taí uma desses “perguntinhas capiciosas” que têm a capacidade de mudar muita coisa… “Por que não os matemáticos?”

O realejo do dia…

quinta-feira, 27 jan 2011; \04\America/New_York\America/New_York\k 04 5 comentários

Será que é preciso mudar alguns paradigmas de Educação?

Algumas perguntas:

  • “O que o vídeo acima implica sobre a ‘logística escolar’ (como comparar a ‘linha de montagem escolar’ com a ‘linha de montagem da Toyota’)?”
  • “O que o vídeo implica para esforços de Open- e Free-Access?”
  • “O que o vídeo implica para estudos multi- e inter-disciplinares?”
  • “O que o vídeo implica sobre Science2.0 e 3.0?”
  • “O que o vídeo implica sobre as ‘propriedades de escala’ dos nossos sistemas de administração (educação, saúde, segurança, etc)?”

Muitos (senão todos) dos métodos que temos hoje sobre governança e administração evoluíram dos originais criados para administrar nações de cerca de alguns [poucos] milhões de pessoas — o que fazer, então, quando as nossas nações têm centenas de milhões de pessoas?! Será que esses mecanismos escalam de modo apropriado?

P.S.: Só pra apimentar: Why Our Best Officers Are Leaving — Será que estamos escolhendo e mantendo nossos melhores cientistas? Será que há problemas em comum com os relacionados neste artigo? Como este artigo se relaciona com o vídeo acima?

Papai Noel existe…

quinta-feira, 9 dez 2010; \49\America/New_York\America/New_York\k 49 Deixe um comentário

Papai Noel existe... pelo menos no Landscape!

Papai Noel existe... pelo menos no Landscape!

… pelo menos no Landscape!

😈

Verdades, mentiras e estatisticas na campanha eleitoral

quarta-feira, 13 out 2010; \41\America/New_York\America/New_York\k 41 3 comentários

Peço licença aos meus co-blogueiros para falar sobre as eleições presidenciais. Uma vez que eu não vou emitir nenhum juízo sobre nenhum dos candidatos, nem explicitar preferência alguma, creio que não há problema. Na verdade o tema eleitoral é só uma desculpa para falar sobre estatística :P. Caso haja problema, por favor me avisem.

Nessa campanha presidencial – como, aliás, deve ser em qualquer campanha eleitoral – tem acontecido uma fenômeno interessante nas propagandas e discursos de aliados de cada um dos candidatos do segundo turno. Ambas as campanhas tentam comparar os governos de Lula e FHC apresentando todo tipo de números e estatísticas. O interessante é que o cenário parece estranhamente ambíguo: para cada estatística que mostra Lula melhor que FHC existe outra que mostra o exato contrário. Para dois exemplos interessantes desse tipo de campanha, veja esses dois links:

Esse fenômeno pode parecer estranho para os espectadores da campanha menos acostumados aos números. Afinal, quem foi melhor para o ensino superior, FHC que aumentou o número de matrículas ou Lula que criou mais universidades? Quem diminuiu mais a pobreza, FHC que aumentou 4 vezes mais o IDH ou Lula que criou 3 vezes mais empregos?

Não há nada de estranho aí. O que está por trás dessa estranheza é uma falácia estatística que pode ser chamada “falácia do atirador”. Imagine um homem que quer demonstrar que é um excelente atirador e te mostra um alvo pintado em um campo de tiro, com 10 tiros certeiros na mosca. Você pode achar que ele é um grande atirador mesmo, mas sabe como ele produziu esse resultado?

O atirador ergueu uma enorme parede de madeira, de 10 metros de largura e 5 de altura, colocou-se na posição de tiro e descarregou 500 tiros contra a parede, sem tentar mirar particularmente em nenhuma posição. Claro que depois disso a parede estará cravejada de buracos e em alguns lugares haverá buracos de tiro mais próximos um dos outros. O atirador escolhe convenientemente 10 buracos que, ao acaso, ficaram bastante próximos entre si e desenha e pinta o alvo em torno deles. Então ele corta o resto da madeira e recoloca o alvo em sua posição original, com 10 tiros “certeiros” na mosca.

O homem não é um excelente atirador. Ele apenas escolheu o alvo depois de ter os resultados. Ele selecionou os “bons” resultados e descartou os ruins. Ele transformou uma distribuição bastante larga em uma distribuição mais estreita apenas descartando certos resultados e mostrando outros.

Como isso se aplica à campanha eleitoral?

Para cada aspecto de um governo que você queira avaliar, existe um sem número de estatísticas que podem ser usadas. Se, por exemplo, eu quero avaliar a evolução da renda, posso mostrar o crescimento do PIB per capita, ou de algum índice de salários, ou da fração do PIB correspondente aos salários, ou quanto subiram os salários em comparação com a taxa básica de juros, ou comparar com taxas “reais” praticadas no mercado. Posso comparar esses números em dólares ou reais, posso comparar o poder aquisitivo real, ou quanto essa renda compra de uma certa cesta de produtos essenciais. Posso focar apenas no crescimento da renda da classe C, ou em quanto cresceu (ou caiu) a razão da renda da classe C pela renda da classe A. Posso comparar quantos bens de consumo essenciais as pessoas conseguem comprar, ou posso comparar quanto o crescimento de suas rendas se compara com o rendimento de um certo investimento padronizado. Todas essas são formas de comparar quanto a renda cresceu.

Deu para perceber que existe um grande número de estatísticas para comparar dois governos, mesmo que fiquemos apenas no restrito conjunto de estatísticas referentes ao aumento da renda. Se eu comparar todos esses números entre o governo A e o governo B, alguns resultados serão pró-A e outros serão pró-B. É natural que seja assim por uma razão simples: há uma flutuação incrível nesses números. Flutuações temporais, flutuações causadas por diferentes metodologias ou mesmo flutuação que resulta do processo de amostragem. A incerteza nesses números as vezes é muito grande, e medidas em semanas diferentes podem causar flutuações de vários pontos percentuais. Não temos um valor determinado para esses números, temos uma distribuição de probabilidades que representa o quanto sabemos sobre eles. E essa distribuição é relativamente larga.

Então existe uma probabilidade de que cada estatística seja pró-A ou pró-B, ainda que os governos A e B tenham sido mais ou menos parecidos. E mesmo que o governo A tenha sido muito melhor que o governo B em certo sentido, ainda assim teremos uma certa probabilidade de ter um certo número de estatísticas pró-B. Mas eu sempre posso escolher que fração das estatísticas que eu pretendo mostrar será pró-A ou pró-B. Eu posso apenas mostrar 100% de estatísticas pró-A e argumentar assim que o governo A foi incrível. Isso é bem ilustrado pela famosa propaganda da Folha de São Paulo de alguns anos atrás, em que se apresenta diversas estatísticas positivas do governo de Adolf Hitler na Alemanha, que certamente foi um governo desastroso!!!

Então é impossível comparar dois governos com estatísticas? Claro que não. É perfeitamente possível. Apenas é necessário fazê-lo de forma sistemática, com métodos claros, com padrões e referências bem definidos. Existem procedimentos para se evitar a falácia do atirador em estudos estatísticos. Por exemplo, pode-se escolher que estatísticas serão calculadas de antemão, antes da colheita de dados, de acordo com um método bem definido. Isso evita que se “desenhe o alvo” em torno do resultado desejado. Pode-se fazer uma análise de sensitividade, mostrando que ainda que a metodologia fosse diferente, o resultado não seria tão diferente assim. Enfim, existem técnicas para isso.

Mas isso é algo que campanhas eleitorais nunca serão capazes de fazer. Elas são enviesadas por princípio, a cesta de índices que escolhem para mostrar é viciada e sua interpretação errônea e vazia. E isso vale para qualquer campanha, independente da orientação ideológica do candidato. É inevitável. Não chega nem a ser desonestidade, é da natureza da propaganda. O ideal seria que, ao invés de usar os números de forma leviana, fossem contratados estatísticos profissionais e neutros para criar essas análises. Mas isso nunca vai acontecer. 😉

O melhor é que o eleitor esteja atento às formas com que os números podem ser usados contra ele. Números adequadamente escolhidos podem defender qualquer estória que se deseje contar. Mas não fique achando que toda estatística é resultado de manipulação. Há métodos adequados para se evitar a manipulação, mesmo a manipulação involuntária.

Há uma citação de natureza ética difundida entre os estatísticos adequada para fechar essa discussão. Infelizmente não me lembro o autor ou a exata fraseologia, mas a essência é: é sempre possível mentir usando a estatística, mas é impossível dizer a verdade sem ela.

A física da pesquisa e a física da sala de aula

quarta-feira, 29 set 2010; \39\America/New_York\America/New_York\k 39 2 comentários

Disclaimer: esse post é uma opinião muito pessoal de seu autor, e pode ser que os outros membros do blog não concordem.

Como eu já disse por aqui, eu fico bastante entusiasmado com a idéia de cursos abertos online e disponibilização de material em vídeo, como na iniciativa OpenCourseWare, por exemplo. E eu sou um usuário adicto desses materiais. Já devo ter ouvido as aulas de mais de uma dezena desses cursos, por diversão mesmo, em áreas muito diversas (história, estudos religiosos, biologia, antropologia…). Mas não comecei esse texto para falar desses cursos, mas para falar de algo que esses cursos me fizeram notar a respeito de uma diferença fundamental entre o ensino de física e o ensino em outras áreas do conhecimento, de forma particular, mas não restrita, nas ciências médicas e biológicas.

Para exemplificar o que quero dizer, vou me referir à terceira aula do curso de biologia geral dado na primavera de 2010, na Universidade da Califórnia em Berkeley, cujas aulas em vídeo e éudio estão disponíveis para download no site de webcasts da universidade (http://webcast.berkeley.edu). Em certo ponto dessa aula, a professora diz “e realmente nos últimos 5 ou 6 anos muita pesquisa foi feita para entender a estrutura interna e função do ribossomo, e eu vou mostrar para vocês uma imagem…” e passa a discorrer sobre assunto de pesquisa muito recente, sobre o qual ainda há dúvidas e questões em discussão. Cenas como essa são comuns em todos os cursos que ouvi. Assuntos de pesquisa são citados na sala de aula rotineiramente e discutidos nos trabalhos e dissertações que os alunos tem de entregar para ser avaliados. Isso me chocou. Me chocou como algo completamente alheio com a minha experiência de sala de aula, que acredito ser não muito diferente da experiência de todos os físicos formados no Brasil, e provavelmente no mundo todo. É inconcebível na nossa experiência que um professor de Física I (ou de Physics 101) entre na sala de aula e dê como exercício de casa a uma turma mista de dezenas e dezenas ingressantes de diversos cursos – engenharia, física, química, … – a leitura de um artigo de pesquisa publicado a menos de 10 anos. Nenhum assunto discutido em uma aula de física, mesmo nos últimos anos da faculdade, é mais recente do que a década de 40. Em compensação, poucos assuntos discutidos em uma aula de biologia celular são mais antigos que a década de 70, e muitos tem menos de 10 ou 15 anos de idade! E por que é assim?

Tudo bem, há uma série de explicações muito plausíveis para isso. Talvez a mais forte seja que os conceitos físicos e as ferramentas matemáticas usadas na pesquisa são muito mais avançados do que os que estão sendo estudados na graduação, e que é necessário um período longo de treinamento para sair da primeira aula sobre as leis de movimento de Newton e chegar na mecânica quântica, passando por todos aqueles passos intermediários. A maturação de um físico é um processo longo e lento, nessa visão. Vai da primeira aula de Física I até mais ou menos o meio do doutorado. A física é uma ciência mais antiga e madura, dizem os que defendem essa idéia, e um estudante de física tem que estudar toooodas essas coisas com detalhes, desde o nascimento da mecânica newtoniana até a mecânica quântica e suas aplicações mais elementares. Além disso, um ingressante em física ainda não foi exposto nem ao ferramental matemático básico para prosseguir aprendendo física – o cálculo, a algebra linear e etc…

Apesar de acreditar que há alguma verdade nisso, sinceramente acho que ela é exagerada e super-simplificada pela típica autosuficiência e arrogância dos físicos (eu me incluo nessa conta) e pela inércia do sistema educacional. Faz anos que é assim, foi assim que fizemos no passado, é assim que faremos no futuro porque é assim que se ensina física. E bem, veja só, é mais difícil aprender física, não é?

Não. Não é. Sinceramente, não é. Aprender biologia pra valer é tão difícil quanto aprender física. Ou mais! Pode ter um pouco menos de matemática, mas nas duas ou três primeiras aulas do curso introdutório para a graduação da UC Berkeley que assisti já há uma série de mecanismos celulares complicados, relações entre as organelas, estruturas moleculares complicadas, como as isomerias e as simetrias afetam a função das moléculas, e se o carbono alfa está assim, então a isomeria faz com que o poro da membrana nuclear fique assado… 😯 😯 😯

Não é fácil, definitivamente. E não é “coleção de selos”, é uma sequencia lógica de mecanismos e estruturas bem entendida até certo ponto. Eu não estou acompanhando direito.

Porque um ingressante de biologia está pronto para discutir a biologia molecular dos poros da membrana nuclear de maneira tão detalhada e um estudante de física não está pronto para discutir fenômenos críticos e transições de fase, ou entender, pelo menos num nível qualitativo, o que é decoerência, o que são teorias de campo conforme e porque a correspondência AdS/CFT é tão importante, quais são as alternativas para explicar energia escura, porque o grafeno é um material tão especial, porque é tão difícil ter materiais semicondutores que sejam ferromagnéticos, o que a física por trás de folding de proteínas tem a ver com a física de cristais magnéticos, quais são os melhores candidatos para física além do modelo padrão, como podemos detectar radiação Hawking?

E se tocamos nesse assunto, porque não ir mais fundo? Se os estudantes de física não chegam à metade do século passado, os estudantes do colegial param muito antes disso. A física que fingimos ensinar nas escolas tem pelo menos 150 anos de idade, e é absolutamente inútil para essas pessoas da forma como é ensinada, em todos os aspectos. Não estimulam curiosidade científica, não as ajudam a entender o ambiente tecnológico em que vivem, não fornecem ferramentas de trabalho úteis e nem as preparam para a universidade.

O ensino de Física está, em minha opinião, caduco em todos os níveis e precisando de urgente reforma. E quanto mais a pesquisa avança, mais urgente essa mudança se torna. Se queremos pessoas prontas para integrar os quadros de pesquisa, se queremos estudantes motivados e se queremos desenvolver o quanto antes o gosto pela pesquisa, precisamos forçar a fazer o que os biólogos fizeram de forma natural, e trazer a física da pesquisa de volta para as salas de aula.

Cálculo Exterior para Elementos Finitos…

sábado, 6 mar 2010; \09\America/New_York\America/New_York\k 09 Deixe um comentário

ResearchBlogging.org

O artigo Finite element exterior calculus: from Hodge theory to numerical stability trata dum tópico que eu gosto muito: análise numérica feita com ferramentas modernas (e.g., Cohomologia de de Rham e Teoria de Hodge).

Meu interesse sobre esse tipo de tópico começou cedo, quando na graduação eu comecei a lidar com problemas numéricos. A noção de que a estabilidade e convergência do método numérico deveria variar com a particular discretização (“mesh”) escolhida sempre ficou atrás da minha orelha. Mas, naquelas épocas, ainda estando na graduação, pouco era possível se fazer. Mas a vontade de aplicar essas idéias em Lattice Gauge Theory sempre me provocou. 😉

Um pouco mais tarde, já na pós (mestrado), eu trombei com alguns artigos interessantes que, novamente, morderam essa mesma pulguinha,

Meu interesse por esses artigos era claro: o esquema de discretização deles tenta preservar as simetrias de Lie do problema original. Isso é particularmente importante se o objetivo é simular problemas que envolvem Quebra de Simetria! 💡 😎

Um pouco de tempo depois… me aparece o seguinte artigo, A Discrete Exterior Calculus and Electromagnetic Theory on a Lattice; que, mais tarde, seria seguido pelos seguintes artigos: Discrete Differential Geometry on Causal Graphs e Differential Geometry in Computational Electromagnetics.

A idéia, então, era novamente clara: aplicar esse mecanismo de Cálculo Exterior Discreto em Teorias de Gauge! 💡 😎

Afinal de contas, quem sabe, não daria pra juntar ambas as idéias: usar Cálculo Exterior Discreto de forma a preservar as simetrias [de Lie] do problema no contínuo ❗ O que será que poderia sair daí?! (De fato, não tenho a menor noção, infelizmente nunca tive tempo de voltar e morder essa questão. Mas, taí um problema prum doutorado… 😉 )

Bom, depois de tudo isso, aparece o artigo que motivou esse post — eu tinha que falar alguma coisa a respeito dele.

Na verdade, esse artigo vai mais longe, extendendo o trabalho feito anteriormente, definindo apropriadamente uma Teoria de Hodge para Elementos Finitos, e avaliando as conseqüências para a consistência (“well-posedness of the Cauchy problem”; algo que varia muito com as particularidades da questão em mãos) e estabilidade numérica do problema. Portanto, as técnicas disponíveis agora são muito mais robustas! (O que só me deixa cada vez mais curioso pra saber a resposta das questões acima… 😉 )

É isso aí: a leitura é excelente, a diversão é garantida… e eu não me responsabilizo por noites de sono perdidas (por causa das questões acima)! 😈

Referências

  • Arnold, D., Falk, R., & Winther, R. (2010). Finite element exterior calculus: from Hodge theory to numerical stability Bulletin of the American Mathematical Society, 47 (2), 281-354 DOI: 10.1090/S0273-0979-10-01278-4

O Prêmio Sakurai de 2010…

terça-feira, 6 out 2009; \41\America/New_York\America/New_York\k 41 Deixe um comentário

Eu estava esperando o anúncio do Prêmio Nobel de Física desse ano pra me manifestar… 😈

Pra quem não conhece, a APS (American Physical Society) distribui uma série de prêmios anualmente — e esses são bastante importantes. Em particular, o Prêmio Sakurai distingue as principais contribuições em Física de Partículas Teórica.

O Prêmio Sakurai de 2010 diz o seguinte sobre seus ganhadores,

“For elucidation of the properties of spontaneous symmetry breaking in four-dimensional relativistic gauge theory and of the mechanism for the consistent generation of vector boson masses”

(“Pela elucidação das propriedades da quebra espontânea de simetria em teorias de gauge relativísticas em 4-dimensões e do mecanismo para geração consistente das massas dos bósons-vetores.”)

Pra conhecer um pouco mais desse fenômeno e sua importância, uma boa referência é a seguinte: Englert-Brout-Higgs-Guralnik-Hagen-Kibble mechanism. Pra conhecer melhor a história científica por detrás de tudo isso, e poder contextualizar melhor a importância desse trabalho, o seguinte artigo é excelente: History of the Englert-Brout-Higgs-Guralnik-Hagen-Kibble mechanism.

Infelizmente, ainda há muita controvérsia em torno desse assunto, indo desde suas analogias em Matéria Condensada (Eletrodinâmica Escalar e suas relações com Landau-Ginzburg e a explicação da supercondutividade) até o fato de que mutios dos detalhes envolvidos já foram [tacitamente] esquecidos há tempos… não por maldade, apenas por uma questão de que, uma vez que o fenômeno passa a ser entendido, os detalhes que antes bloqueavam sua compreensão passam a ficar relegados ao segundo plano.

Infelizmente, a compreensão necessária pra se destrinchar todas essas controvérsias, é não-perturbativa, e não costuma ser algo que se ensina nos cursos de QFT por aí afora… 😥

É uma pena muito grande, pois essa história é muito bonita e de fundamental importância pra Física de Partículas, começando com o Modelo de Schwinger e culminando com a Quebra Espontânea de Simetria, passando pelo fato de que não há absolutamente nada na Física atual que obrigue o fóton a ter massa nula (fica a perguntinha capiciosa: “vc sabe provar o por quê disso?” 😈 ).

Uma parte dessa controvérsia toda tem aparecido bastante na mídia atualmente, por causa da alta probabilidade do Nobel ser dado pra esse tema assim que o LHC encontre o “bóson de Higgs”. Por exemplo, o Ian Sample está escrevendo um livro sobre tudo isso, contanto os pormenores do mundo da Física. Quem quiser ir se divertindo, enquanto o livro não sai, pode dar uma olhada nos seguintes links,

Há muito mais sobre isso espalhado por aí, pelas Internets; mas, não vou ficar fazendo linkfest por aqui. 😛

O Guralnik conta a história dele no seguinte artigo (o link aponta pro eprint nos arXivs só por uma questão de simplicidade, uma vez que lá é possível se encontrar o link pro artigo publicado): The History of the Guralnik, Hagen and Kibble development of the Theory of Spontaneous Symmetry Breaking and Gauge Particles. Vale muita a pena ler (principalmente quem quiser descobrir a resposta pra perguntinha capiciosa acima 😉 )…

Pra fechar, ainda no tema “Física não-pertrubativa e fora do equilíbrio”, deixo a seguinte entrevista do Roger Penrose (quem quiser um pouco mais, pode dar uma olhada nos videocasts do AP que tem umas palestras bem interessantes do Penrose 😈 ), Roger Penrose Says Physics Is Wrong, From String Theory to Quantum Mechanics.

Diversão garantida, 😎 !

A semana nos arXivs…

quinta-feira, 1 out 2009; \40\America/New_York\America/New_York\k 40 Deixe um comentário

A semana nos arXivs…

sexta-feira, 25 set 2009; \39\America/New_York\America/New_York\k 39 Deixe um comentário


O realejo do dia…

domingo, 20 set 2009; \38\America/New_York\America/New_York\k 38 2 comentários

Gödel, Escher, Bach…

sábado, 20 jun 2009; \25\America/New_York\America/New_York\k 25 1 comentário

Quem nunca ouviu falar do excelente livro Gödel, Escher, Bach: An Eternal Golden Braid (ver também Gödel, Escher, Bach; By Douglas R. Hofstadter)?

Pois bem, o MIT OCW tem um curso inteiro baseado no livro, MIT OCW: GEB. E os vídeos podem ser encontrados aqui, GEB: Video Lectures.

Diversão garantida! 😈

Como os hippies salvaram a Física

sábado, 9 maio 2009; \19\America/New_York\America/New_York\k 19 6 comentários

Nem sempre a pseudociência é charlatanismo. As vezes ela é autêntica exploração de idéias, embora ingênuas e com métodos muito aquém do rigor científico. David Kaiser é um professor do centro de Ciência, Tecnologia e Sociedade do MIT que está preparando um livro, Como os hippies salvaram a Física, onde ele fará um apanhado histórico de como alguns físicos desempregados na Califórnia no pós segunda guerra financiados por diversas fontes curiosas, e.g. certos empresários excêntricos e a CIA, exploravam explicações dentro da mecânica quântica para percepção extra sensorial (ESP). Kaiser segue um grupo de hippies, auto intitulados “The Fundamental Fysiks Group”, que marcava regulares debates sobre o teorema de Bell em um auditório no Lawrence Berkeley Lab, que não apenas tiveram participação no clima e ambiente para o sucesso e o material de O Tao da Física de Frijot Capra como também motivaram alguns dos avanços básicos da teoria da informação quântica e da computação quântica — nesse caso, ciência muito séria. Por exemplo, o teorema da não-clonagem aparentemente foi demonstrado a primeira vez como uma resposta a um artigo de um desses hippies, Nick Herbert. O objetivo de Herbert era mostrar a existência de comunicação acima da velocidade da luz usando a mecânica quântica. O que não está no artigo original de Herbert, mas fica evidente através da história contada por Kaiser, é que a linha de chegada para essa pesquisa consistia em explicar fenômenos paranormais como os alegados por Uri Geller! E não pense que essas pesquisas eram feitas em casa em momentos de ociosidade: um outro grupo de físicos que fazia o mesmo tipo de pesquisa era sediado em um laboratório da Universidade de Stanford. Eventualmente, vários dos interessados se organizaram para alugar um espaço na Califórnia que serviu de encontros anuais de debate do teorema de Bell, o verdadeiro Instituto de Estudos Avançados de quântica-hippie! Entre os freqüentadores, incluía-se renomados físicos de posições prestigiadas acadêmicas na Europa, que no final dos anos 70 só podiam encontrar ali um espaço de de debate sobre o teorema de Bell. O próprio John S. Bell, Bernard d’Espagnat e John Wheeler faziam parte da mala direta de publicações dessas pessoas, embora a participação presencial desses acadêmicos mais respeitáveis parece que não existiu.



Da esq. p/ dir.: Jack Sarfatti, Saul Paul Sirag, Nick Herbert, e Fred Alan Wolf em 1974, auto-intitulado Grupo de Pesquisa Física da Consciência. Eles buscavam dar base a paranormalidade usando mecânica quântica.

Ao mesmo tempo que toda essa história estava se desdobrando um pouco fora do meio acadêmico formal, Carl Sagan e James Randi debatiam na mídia e em livros contra essas idéias. Um relato, com alguns elementos históricos da situação dos anos 70 e 80 com relação a ESP nos Estados Unidos, encontra-se no livro de Sagan O Mundo Assombrado pelos Demônios — que foi escrito como uma resposta a esse movimento, chamado genericamente de Nova Era.

Isso que escrevi é só para dar um gostinho. 🙂 Você pode ver a história completa do que vai ser o livro em uma excelente palestra do David Kaiser (Download da palestra, 814 MB, 1h, formato QuickTime).

Kaiser escreveu outro livro interessante, Drawing Theories Apart, sobre a história dos diagramas de Feynman.


Como auxílio no pano de fundo da história, você talvez queira ver esse vídeo onde James Randi fala sobre Uri Geller:

Mecânica Estatística ou “como jogamos informação fora?”

quarta-feira, 25 fev 2009; \09\America/New_York\America/New_York\k 09 6 comentários

Uma pergunta me intriga mais que qualquer outra: como jogamos fora informação? Como selecionamos que pedaço de informação é mais crítico que outro?  Não estou me referindo a técnicas de memorização nem a interpretação de texto. Estou falando de física.

Uma grande área da física denominada Física Estatística é muitas vezes descrita como o estudo de como partimos da dinâmica microscópica de um sistema físico e descobrimos como ele se comporta macroscópicamente no limite termodinâmico – ou seja, no limite de muitos e muitos graus de liberdade. Quando fazemos isso partímos de um espaço de configurações com um certo número (grande) de graus de liberdade microscópicos:

\{x_{1},x_{2},\ldots,x_{N}\}      N\rightarrow\infty,

para um diagrama de fases macroscópico com um número pequeno de variáveis:

\{\theta_{1},\ldots, \theta_{p}\}.

É fácil ver que quantidade de informação que pode ser armazenada por p-variáveis, localizadas num volume \Omega_{p} p-dimensional, é da ordem de \log_{2}(\Omega_{p}) bits e portanto aproximadamente linear em p. Isso levanta a seguinte questão: para onde foi toda a informação contida nas variáveis x_{k} ???

Se as variáveis \theta_{k} são uma descrição macroscópico (N\rightarrow\infty) suficiente, a informação contida em x_{k} é tremendamente redundante?

Isso parece ser parte da resposta. Imagine novamente o exemplo que explorei no meu último post, da moeda lançada para cima. Naquela ocasião eu descrevi o espaço de configurações microscópico da moeda como uma série de atratores, caracterizados “macroscópicamente” por uma variável binária “cara” ou “coroa”. Para o que nos interessa com relação a várias perguntas macroscópicas, basta saber a que face para cima cada configuração corresponde. A mesma redução tremenda da quantidade de informação necessária é observada: a informação contida numa quantidade aparentemente infinita de órbitas possíveis para o moeda é resumida em apenas um mero bit: “cara” ou “coroa”.

Um sistema de spins (sem desordem – modelo de Ising) é algo similar. Da quantidade enorme de informação que podemos armazenar nas 2^N possíveis configurações de uma rede de spins (lembre-se sempre que no limite termodinâmico N\rightarrow\infty), apenas dois parâmetros interessam macroscópicamente para determinar todos os estados  macroscópicos – os acoplamentos K e H (alternativamente – a temperatura e o campo magnético, entropia e magnetização, ou qualquer outro par de variáveis termodinâmicas desse sistema).

O grupo de renormalização quando aplicado ao modelo de Ising oferece alguma luz: K e H são os dois únicos acoplamentos associados a operadores relevantes no ponto crítico desse modelo. Meu conhecimento limitado sobre o assunto entretanto não me permite enxergar mais do que isso… 😦 Eu ainda tenho muito o que estudar sobre isso (inclusive referências são bem vindas).

Então as perguntas são: como determinamos p – o número de variáveis adequadas para o tratamento microscópico de um sistema microscópico qualquer – e como, sabendo p, determinamos quais variáveis são as adequadas?

Na teoria de vidros de spin um problema similar surge. É fácil no modelo de Ising chutar quais são as variáveis relevantes macroscópicamente pelo feeling que temos de sistemas magnéticos: a energia livre tem dois mínimos que podem ser selecionados com a aplicação de um campo magnético. Em sistemas desordenados é beeeeem mais complicado. A energia livre tem um número infinito de mínimos, nem todos eles estáveis e pontos críticos – pontos em que um mínimo se multiplica em dois ou mais mínimos – ocorrem em continuamente para todos os valores abaixo de uma certa temperatura. A técnica de réplicas oferece uma forma de encontrar o parâmetro de ordem: a distribuição de overlaps. Note que o parâmetro de ordem é uma função, com infinitos graus de liberdade. Ela carrega bem mais informação que os dois acoplamentos do modelo de Ising.

Claro! Um vidro de spin é muito menos redundante. Há uma estrutura muito mais complexa de estados estáveis, que precisa de um número muito maior de parâmetros macroscópicos.

Isso tudo que eu falei é uma coisa muito superficial e muito geral. Eu não sei como responder a pergunta que eu coloquei para uma dinâmica qualquer. Eu percebo que o grupo de renormalização tem algo a dizer sobre isso, eu percebo que a teoria de réplicas tem algo a dizer sobre isso, percebo que a teoria da informação tem muito a dizer sobre isso, mas não consigo enxergar nenhum princípio agregador que torne universal a técnica de encontrar o menor número de variáveis que representa adequadamente um sistema macroscópico.

As vezes eu acho que a resposta já existe e eu estou aí vacilando. A falta de uma formação mais sólida em mecânica estatística mais moderna, sistemas dinâmicos e teoria da informação me atrapalha – até 1 ano atrás eu nem imaginava estar trabalhando com essas coisas.

Talvez não. Talvez a resposta não exista ainda. Se não existir é uma boa chance de se fazer contribuições interessantes à física estatística e à teoria da informação.

Probabilidade?

domingo, 22 fev 2009; \08\America/New_York\America/New_York\k 08 7 comentários

O conceito de probabilidade, e das grandezas associadas com a probabilidade, é uma dessas questões na ciência que levantou polêmicas, gerou inimizades e fomentou discussões das mais acaloradas. Como outros conceitos importantes, a idéia de probabilidade esteve no ar por séculos, antes que as primeiras construçoes matematicamente mais formais fossem produzidas. Já em 1657 foi publicado o Libellus de Ratiociniis in Ludo Aleae (livro de raciocínios sobre os jogos de azar) por Christian Huygens(*). Nessa época o foco da teoria das probabilidades era exatamente esse: como eu devo apostar de forma racional para ter lucro. Pode parecer um raciocínio talvez mundano ou indigno demais para alguns, ou algo que demonstra qualidades que muitos idealistas não esperam encontrar nos seus grandes ícones da história da ciência. Mas o fato é que esse foi um tema que preocupou as mentes mais brilhantes do século XVII em diante. Pascal, os Bernoulli, de Moivre, Euler e Laplace são alguns poucos dos nomes que investigaram sobre essa ciência indigna da aposta.

E então, que raios é uma probabilidade?

Duas coisas são normalmente subentendidas quando a palavra probabilidade é usada no nosso discurso cotidiano – e isso se reflete também no discurso científico. Quando eu digo que é muito provável que você me encontre na lanchonete do IF-USP nas segundas feiras as 14 horas quero dizer que na maior parte das segundas-feiras em que você me procurar nesse local e horário eu estarei lá . Estou fazendo uma afirmação sobre a freqüência de um certo evento num certo universo de situações repetitivas. Estou sendo frequentista.

Quando eu digo que é muito provável que sua namorada goste do anel que você comprou para pedí-la em casamento não estou fazendo o mesmo tipo de afirmação. Não estou dizendo a você que se procurar dar o presente para ela repetidas vezes, vai ter sucesso na maioria delas. Estou dizendo que, dado o conhecimento que eu tenho da sua namorada e do gosto dela por anéis, tenho um elevado grau de confiança no sucesso do anel como presente. Estou quantificando minha crença sobre algo de forma racional. Estou sendo bayesiano.

Thomas Bayes foi um clérigo inglês do século XVIII, que descobriu um teorema na teoria de probabilidades cuja interpretação divide até hoje as pessoas que usam probabilidades em seu cotidiano. O teorema de Bayes diz simplesmente que:

P(A|B) = \frac{P(B | A)\, P(A)}{P(B)}

Onde P(A|B) quer dizer a probabilidade do conjunto de eventos A tomando-se o conjunto de elementos B como dados. Um frequentista vê o teorema de Bayes como um truísmo derivado apenas de propriedades óbvias de conjuntos. Um bayesiano vê como uma ferramenta de raciocínio.

Suponha que desejássemos um método de estabelecer o quão confiamos em uma proposição, dado que confiamos em uma outra com um certo grau. Ou seja, queremos estabelecer um número C(P1|P2) que nos diz o quão confiável é a afirmação P1, dado que eu confio na afirmação P2. Há uma série de coisas que nós gostariamos que esse grau de confiabilidade respeitasse. É possível mostrar (**) que um conjunto bem razoável de exigências resulta em uma definição unívoca para as regras matemáticas que nossos números C(P1|P2) devem satisfazer (teorema de Cox). O que impressiona é que essas regras são transposições exatas dos axiomas de Kolmogorov para a teoria de probabilidade para o campo da lógica de sentenças. Trocando em miúdos, esse sistema lógico que atribui um grau de confiança para cada proposição é formalmente idêntico ao sistema lógico que associa probabilidades a eventos.

Isso é bem estranho para um físico. Nós estamos acostumados a chamar de probabilidades propriedades físicas do nosso sistema físico em questão. São coisas intrinsecas aos nossos sistemas físicos que dependem apenas da sua dinâmica interna. Qual é a probabilidade de um certo decaimento nuclear ocorrer nos próximos 30 segundos é algo que não deve depender de quanto eu acho confiável que isso aconteça! Qual é a probabilidade daquela partícula visitar tal região do espaço de fase deveria depender apenas da sua dinâmica e não da minha capacidade de aferir confiabilidades!

Acalme-se. Não estamos falando da mesma coisa. É claro que existe uma propriedade física associada à sua partícula que quantifica quão frequentemente ela visita uma certa região do espaço de fases. É a probabilidade frequentista!!! Ou melhor, vamos dar um nome mais adequado a ela: é a freqüência!!! Você não precisa abdicar da objetividade do seu universo para ser bayesiano. O que você precisa fazer é reconhecer que existem duas coisas: as freqüências e as probabilidades, e que as duas podem ser usadas para muitas coisas.

E o que eu ganho com isso? O que eu ganho usando probabilidades como um sistema formal de lógica? Eu ganho uma ferramenta de raciocínio no teorema de Bayes. Na visão levantada pelo teorema de Cox, o teorema de Bayes é a forma correta de atualizar sua confiança ou crença em algo quando obtém novas informações. Isso abre possibilidades. O que isso tem a ver com o aprendizado de sistemas que processam informação (como o cérebro por exemplo) ?  Nosso raciocínio segue a regra de Bayes? Sistemas computacionais que aprendem usando a regra de Bayes são eficientes? (SIM!) O que isso tudo tem a ver com teoria de informação? Onde em física estamos falando de freqüências e onde estamos falando de probabilidades? Isso serve para alguma coisa?

E o que eu perco pensando só em termos de freqüências? Há situações em que as vezes pensamos estar falando de freqüências, quando estamos de fato julgando possibilidades segundo informações prévias – portanto usando uma forma mais evidencial de probabilidade. Quando eu digo, por exemplo, que espero obter com \frac{1}{2} de probabilidade uma certa face de uma moeda quando a lanço para cima, estou falando de freqüências? Se eu estivesse, eu deveria em primeiro lugar perguntar: de onde vem a variabilidade de resultados do lançamento de uma moeda? É claro para mim que a variabilidade está nas condições iniciais. Também é claro que o sistema tem uma série de atratores no seu espaço de configurações – alguns correspondentes à face cara para cima, outros correspondentes à face coroa para cima. É claro ainda que, dada uma boa distribuição de condições iniciais, eu posso sortear igualmente atratores de qualquer um dos dois tipos. Então parece que eu estou falando mesmo de freqüências uma vez que eu estabeleço como eu pretendo jogar  a moeda. Eu espero que de fato metade das órbitas que eu sorteio no processo de lançamento resultem em cara, e metade em coroa e portanto espero que no limite de muitos lançamentos eu acabe terminando com 50% de caras e 50% de coroas. Bastante objetivo e racional.

Mas veja a quantidade de coisas que eu tive que assumir para concluir isso: um lançador “ergódico” e honesto de moedas, uma estrutura do espaço de fases da moeda. Tudo isso para mim soa como informação que eu estou assumindo ao tentar atribuir um grau de confiabilidade para o resultado cara ou coroa. Qualquer pessoa bem treinada pode “quebrar a ergodicidade” da moeda e sortear muito mais caras que coroas. Eu mesmo já consegui, mesmo tendo uma habilidade manual não tão grande.

Uma visão alternativa é: uma vez que a moeda é um objeto simétrico, e eu não tenho informação suficiente para supor uma assimetria do processo de lançamento da moeda, não é razoável dizer que eu não posso ter uma maior confiança injustificada em qualquer dos resultados? Se por acaso eu descobrisse que a moeda está sendo lançada de maneira assimétrica, eu poderia tentar estimar então o quão enviesados serão os resultados através da regra de Bayes

Enfim… eu não pretendia com esse post argumentar de maneira categórica em favor da visão bayesiana, mas levantar curiosidade sobre algumas relações interessantes:

  1. Probabilidades podem ser vistas não como freqüências físicas, mas também como níveis de confiança a respeito de proposições.
  2. Probabilidades podem ser vistas ainda como forma de codificar informação: por exemplo informação sobre a simetria da moeda.
  3. E se probabilidades podem ser vistas dessa forma, é importante ter em mente, quando usamos a palavra, se estamos de fato nos referindo à probabilidade bayesiana ou às freqüências físicas.
  4. Freqüências são difíceis de se definir na prática: eu não posso fazer infinitos repetidos experimentos e portanto terei incerteza quanto às freqüências. Mas incertezas são justamente representadas como probabilidades! Então freqüências e probabilidades são coisas diferentes ou então eu tenho uma definição circular.
  5. Se eu estou falando de informação, o que a entropia de Shannon tem a ver com isso?

Enfim. Isso é tudo um aperitivo para estimular curiosidade para…

… ler mais …

e buscar palavras-chave.

  • Inferência:
  • Probabilidade:
  • Jaynes, Laplace, Cox, Bayesian Inference
  • laws of physics as inference tools
Notas:
  • (*) Este livro do Huygens é dito o mais antigo livro sobre probabilidades pelo livro de cálculo do Tom Apostol. Não fui atrás de nenhuma referências sobre estória da matemática para verificar isso por não pretender fazer nenhuma revisão histórica sobre o assunto mas apenas apresentar minha percepção dessas coisas. Uma fonte sobre a história da probabilidade está aqui.
  • (**) Jaynes, E. T. Probability Theory: The Logic of Science, Cambridge University Press (2003).  Esse livro deveria ser leitura obrigatória para qualquer pessoa que ousasse emitir a palavra probabilidade pelos lábios. Não é meramente um livro-texto sobre teoria de probabilidade. É um livro sobre como raciocinar de forma adequada.  Versão parcial pode ser acessada aqui.

Linkfest da segundona…!

segunda-feira, 10 nov 2008; \46\America/New_York\America/New_York\k 46 Deixe um comentário

Epistemologia: por que estudar?

quinta-feira, 16 out 2008; \42\America/New_York\America/New_York\k 42 4 comentários

É consenso que a epistemologia atualmente é uma disciplina puramente filosófica¹, se ocupando de descrever a atividade científica sem interferir com as teorias científicas. Então, estudá-la parece ser uma questão de gosto pessoal, perfumaria e literatura para as horas vagas. Mas só parece.

A sociedade ocidental deposita muita confiança no conhecimento científico, considerando ser uma referência segura para decisões que envolvam vida e morte ou que decida a culpa ou inocência de um réu. Essa confiança tem uma justificativa história: o capitalismo anda de mãos dadas com a tecnologia que a ciência propiciou para o sistema de produção.

O modo de viver mudou drasticamente com os conhecimentos científicos. Tornamo-nos dependentes da tecnologia que desenvolvemos e precisamos alimentar esse sistema com a formação de engenheiros e cientistas continuamente. Este é um pequeno panorama para mostrar que a sociedade está imersa na cultura científica, o surgimento de teoria nos moldes científicos acaba merecendo atenção e a relevância que costuma ter apenas por ser científica. E se for algum tipo de pseudociência? Um indivíduo agindo de má fé para ludibriar e tirar vantagem do próximo? Não faltam exemplos na área da medicina (curandeiros, charlatões) e da espiritualidade (quem não lembra do filme “Quem somos nós?”).

Uma razão para estudarmos epistemologia é que somos freqüentemente circundados por teorias pseudocientíficas. Nesse caso, temos o dever pedagógico² de esclarecermos que essa teoria não obedece aos critérios científicos. Temos um problema claro de demarcação, e a partir daqui somos obrigados a recorrer a alguma tese epistemológica, mesmo que o façamos sem saber disso.

Não importa qual seja a sua escolha, tem pra todos os gostos: positivistas, falseacionistas, construtivistas, reducionistas, realistas, anti-realistas… O que importa é ter um ponto de referência. Então nos deparamos com outro problema: o que uma tese epistemológica considera como sendo ciência pode não ser considerado por outra. Entretanto, esse problema não é difícil de contornar haja vista que as maiores atrocidades contra a ciência podem facilmente ser classificadas como pseudociência por praticamente qualquer tese epistemológica. As pequenas desavenças entre as teses são discutidas mais profundamente no mundo acadêmico.

Aqui fica claro porque quem almeja tornar-se professor do ensino fundamental e médio também deve ser conhecedor da epistemologia. Cabe a ele ilustrar a ciência para jovens que provavelmente terão seu primeiro e último contato com a ciência formal em sua educação. Havemos de lembrar que os livros didáticos assumem em seu discurso uma posição bastante positivista. Se pretendermos fazer um ensino plural, precisamos introduzir também um pouco do discurso de outras correntes da epistemologia.

Neste ponto alguns professores e filósofos são acusados de destruir a imagem da ciência, como se ela tivesse somente um único semblante, como se fosse um ataque ao intocável edifício da racionalidade ocidental. Lembre-se que professores de ciência são pessoas que optaram por propagar o conhecimento científico, portanto isso simplesmente não faz sentido.

Da mesma forma precisamos ser críticos quanto ao discurso filosófico de alguns³ que pretendem simplesmente negar o valor da epistemologia, como se ela não estivesse entranhada no seu próprio discurso. O Círculo de Viena tentou algo parecido e não conseguiu. Não é assim que se refuta o argumento de seus opositores.

Para concluir, a epistemologia é responsável por passar alguma imagem do que seja a ciência para o resto da sociedade. Nela cabem filósofos profissionais e cientistas, todos têm algo a dizer, a filosofia é bastante acolhedora nesse sentido.

Bons estudos.

¹Quine defende que o futuro da epistemologia é se tornar uma ciência empírica

²Uma analogia com o dever pedagógico do filósofo no mito da caverna de Platão

³Against Philosophy, cap 7 do livro Dreams of Final Theory de Weinberg, transcrito em português por Everton Z. Alvarenga.

%d blogueiros gostam disto: