Arquivo

Archive for the ‘Filosofia’ Category

As Raízes da Metafísica…

segunda-feira, 22 ago 2011; \34\America/New_York\America/New_York\k 34 1 comentário

Acabei de ler o post The Roots of Metaphysics que trata do Paradoxo de Russell — que tem a mesma natureza do Argumento Diagonal (o fato de que os Reais são incontáveis).

Entretanto, no sentido exposto no texto — “(…) no set of existential statements can entail a universal statement” —, a primeira coisa que veio a minha mente foi o Teorema do Limite Central (e suas “variações sobre o tema”). Ou seja, apesar dos pesares, minha crítica ao texto, ao modo como o problema foi exposto no texto, é que eu não achei que a noção de recursividade ficou exposta de modo claro o suficiente (de modo que se note que ela é o ‘pilar’ por detrás do problema sendo tratado). A analogia feita no texto é a de que enquanto a afirmação “todos os morcegos estão na pia” é universal, a afirmação “há um morcego na pia” é existencial. O problema dessa analogia é que nós já sabemos, a priori, que o número de morcegos é finito (assumindo, claro, que só existem morcegos no nosso planeta), o que faz uma diferença enorme em toda essa brincadeira. Num certo sentido, o problema dessa analogia está no Paradoxo de Banach–Tarski: se fosse possível, através dum corte ao meio, se obter dois morcegos idênticos entre si, a partir dum morcego original, aí sim, essa seria uma analogia bona fide, uma vez que a recursividade estaria então implementada no problema. Aliás, é por essas, e outras, que existem diferentes formulações da Teoria de Conjuntos, como, e.g., Teoria de Conjuntos de Zermelo–Fraenkel (e suas respectivas objeções), assim como Teoria de Topos e Teoria de Conjuntos de Tarski–Grothendieck.

Acho interessante ver que o Paradoxo de Russell é de ~1925… e que, por exemplo, os Teoremas de Incompletude de Gödel são de 1931: quando postos em contexto, acho que as implicações são bem interessantes. :wicked:

No final das contas, esse assunto tem um nome: Meta-Matemática — leia mais sobre isso em Meta Math! The Quest for Omega e Omega and why maths has no TOEs. Ou seja, como devemos usar a matemática pra avaliar a própria matemática?

Num certo sentido, isso me leva a pensar diretamente sobre o conceito de Grupo de Renormalização, Teorias Efetivas e Espaço de Teorias (em física teórica) (ver também Grupo de Renormalização Funcional). Ou seja, em Física existem teorias que são fundamentalmente desconexas (como, por exemplo, a Relatividade Geral e a Mecânica Quântica); entretanto, existe todo um outro conjunto de teorias que estão conectadas via o Grupo de Renormalização: ou seja, existe uma teoria pra explicar cada conjunto de graus-de-liberdade (ie, as variáveis que descrevem uma determinada teoria); entretanto, é possível se rearranjar um conjunto de graus-de-liberdade de modo a se obter as variáveis relevantes para se explicar outra teoria — esse fenômeno leva o nome de Transição de Fase.

Nesse sentido, existem várias escalas relevantes para a Física, que efetivamente formam “ilhas de teorias”, ou “ilhas de verdade” (à la Gödel). Dessa forma, acabamos com um sistema multi-fractal: a auto-similaridade consiste no fato de que toda a estrutura Física se repete nas diversas escalas: Lagrangianos, [quantização via] Integral de Trajetória de Feynman, Renormalização, etc, etc, etc — exceto, claro, por pontos-fixos não-triviais no Fluxo de Renormalização. 😉

O Lamento dum Matemático…

domingo, 21 ago 2011; \33\America/New_York\America/New_York\k 33 1 comentário

Acabei de encontrar esse artigo (PDF), escrito por Keith Devlin, onde a seguinte citação aparece:

“… The first thing to understand is that mathematics is an art. The difference between math and the other arts, such as music and painting, is that our culture does not recognize it as such. Everyone understands that poets, painters, and musicians create works of art, and are expressing themselves in word, image, and sound. In fact, our society is rather generous when it comes to creative expression; architects, chefs, and even television directors are considered to be working artists. So why not mathematicians?”

(Tradução livre: “… A primeira coisa a entender é que a matemática é uma arte. A diferença entre a matemática e as outras artes, como música e pintura, é que nossa cultura não a reconhece [como arte]. Todo mundo entende que poetas, pintores, e músicos criam trabalhos de arte, e se expressam em palavras, imagens e sons. De fato, nossa sociedade é meio generosa quando o assunto é expressão criativa; arquitetos, chefs [de cozinha], e até mesmo diretores de TV são considerados artistas. Então, por que não os matemáticos?”)

Taí uma desses “perguntinhas capiciosas” que têm a capacidade de mudar muita coisa… “Por que não os matemáticos?”

Would the Bard Have Survived the Web?

terça-feira, 15 fev 2011; \07\America/New_York\America/New_York\k 07 3 comentários

O New York Times tem um artigo de opinião de hoje entitulado Would the Bard Have Survived the Web? (“Teriam os menestréis sobrevivido a Internet?”, tradução livre). Vcs podem ler o artigo em Inglês seguindo o link acima, ou, se preferirem, podem ler a tradução para pt_BR via Google Translate.

Aqui vão meus comentários sobre o assunto:

  • Poor understanding of the concept of “market”, as it was done in the past and as it is done today, in our “Information Era”;
  • Poor understanding of the concept of “intellectual property” and “copyright”;
  • Pathetically dismissive argument against “[a] handful of law professors and other experts”: a 6-line paragraph? Out of which, only a single phrase address the actual point?! Seriously, this is the best these 3 people could do to ground their defense in solid and robust arguments?! They couldn’t even come up with a typical list of pros and cons? Deconstructing this 1-paragraph argument is really a silly exercise: the misunderstanding of the differences between “Science” and “Technology” is enough to make this 1-paragraph self-destructive. This is pretty shameful… 😦
  • Here are a couple of question that i would like answer: if “Science” had patented some of its *basic* and *fundamental* research outcomes, like the following, what would these same folks be saying, what would their tune be: electromagnetism (TV, radio), quantum mechanics (modern electronics, semiconductor devices, X-rays, MRIs, etc), general relativity (GPS; fluid mechanics: think missiles and torpedos)? What would happen if all of these *fundamental research* discoveries had been patented, copyrighted and “intellectual property-ed”?! Science, Physics in fact, would definitely not need any government support today, nor run the risk to have DOE’s budget completely slashed (regarding research support).
  • And, the cherry on the top of this piece, is the constant comparison with the Dark Ages, with the Medieval Times… seriously: the world really did not change since then?! Over 300 years have passed and the best these 3 gentlemen can do is propose a “market” as it was done over 3 centuries ago? This is their *very best* solution to address their “problem”? Do they even understand that the very concept of “market” has changed in these 3 centuries? Do they understand that the very core of their issue is exactly the grasping to understand what the “Web” really means and how to best use it? Do they realize that people don’t quite know what to do with this deluge of information and possibilities coming from the Web? :sigh: 😦

História da Arte…

quarta-feira, 9 fev 2011; \06\America/New_York\America/New_York\k 06 1 comentário

História da Arte

História da Arte

O futuro da revisão-por-pares…

terça-feira, 8 fev 2011; \06\America/New_York\America/New_York\k 06 2 comentários

Depois da invenção dos arXivs, o problema de distribuição de publicações científicas foi efetivamente resolvido. Dessa forma, o papel dos jornais acadêmicos ficou essencialmente resumido à revisão-por-pares. Ou seja, no frigir dos ovos, o valor agregado que as jornais acadêmicos acrescentam aos artigos é apenas a revisão-por-pares, uma vez que a distribuição desses artigos não é mais problema na Era da Informação.

[N.B.: Pense em termos de uns 400 anos atrás, na época de Galileu: era preciso um manuscrito viajar de cavalo ou barco para que sua distribuição fosse efetivada. Claro que as coisas melhoraram com o correio moderno e com a invenção dos aviões… mas, no final das contas, o processo de distribuição continuava o mesmo em sua natureza: era preciso haver uma mudança física, mecânica, de um lugar para outro. Hoje em dia isso não é mais verdade: organizar, colecionar e distribuir artigos é uma tarefa essencialmente trivial: o exemplo dos arXivs sendo o mais gritante, e PLoS sendo um segundo exemplo. Infelizmente, eu não conheço nenhum esforço dessa natureza Free-Open Access nas Humanidades nem nas Ciências Sociais: seria muito interessante conhecer esforços nessas direções.]

Entretanto, atualmente há também um movimento para “aliviar” os jornais acadêmicos inclusive dessa atividade:

Felizmente (ou não 😛 ), esta não é uma idéia nova: esforços nesta direção já têm sido promovidos há anos. Vejam os exemplos abaixo,

Esses esforços costumam vir sob o nome de Ciência 2.0 — apesar de que, atualmente, já está se falando em Ciência 3.0!

[N.B.: Resumidamente, o “2.0” significa a incorporação das ferramentas de Web 2.0, enquanto que o “3.0” significa que metadata é usada de modo “decente” (ie, como a coisa foi designed para funcionar 😉 ).]

Mais ainda, há movimentos em direções ainda mais ambiciosas, como os abaixo,

Tanto o MathJobs quanto o AcademicJobsOnline têm o intuito de organizar e facilitar a busca de empregos (postdocs, professores, etc) em Matemática e Ciências em geral, respectivamente. Isso tem melhorado o processo infinitamente: antigamente, era preciso se escrever cartas de aplicação para diversas (até centenas!) e instituições; hoje em dia basta vc carregar seu material nesses sites e selecionar os empregos que vc gostou — o resto acontece automaGicamante. 😎

De fato, nossa Era Digital trouxe ferramentas absolutamente fantásticas, que conectam o mundo da pesquisa de modo nunca d’antes navegado… Claro, como toda espada, esta também tem dois gumes: o ‘lado negro’ de toda essa facilidade e conectividade é o atual campo da cienciometria, onde se acredita que é possível se mensurar “criatividade científica” através de índices que, na melhor das hipóteses, são apenas parciais (ie, são índices cujo significado estatístico é questionável).

Enfim, este é um momento bastante conturbado… mas que certamente não deixará “pedra sobre pedra”. 😉

This post translated to English (en_US) (courtesy of Google Translate).

Café científicos levando ciência para o público leigo…

terça-feira, 8 fev 2011; \06\America/New_York\America/New_York\k 06 3 comentários

Está aí uma iniciativa excelente que está demorando para go viral:

Os Cafés Científicos são uma idéia que, pessoalmente, eu considero brilhante: um cenário informal, relaxado, onde as pessoas podem ouvir algum palestrante falar sobre Ciência — e, melhor ainda, depois da palestra, debater sobre o que foi dito. Aliás, de fato, o foco é maior no debate do que na palestra propriamente dita: a idéia é passar a informação de modo bem objetivo e, depois, deixar a platéia guiar a discussão.

Quem faz Ciência sabe: deixar a curiosidade ( ❗ ) guiar o debate científico é uma das formas mais entusiasmantes de se fomentar a criatividade. Essas digressões tangenciais que aparecem a todo momento nesse tipo de discussão são fundamentais pra se ‘mapear’ o ‘espaço’ do assunto sendo atacado. Quem não conhece, pode achar esse approach meio caótico… mas, é um método excelente pra se obter uma ‘imagem’ do objeto em questão.

O realejo do dia…

quinta-feira, 27 jan 2011; \04\America/New_York\America/New_York\k 04 5 comentários

Será que é preciso mudar alguns paradigmas de Educação?

Algumas perguntas:

  • “O que o vídeo acima implica sobre a ‘logística escolar’ (como comparar a ‘linha de montagem escolar’ com a ‘linha de montagem da Toyota’)?”
  • “O que o vídeo implica para esforços de Open- e Free-Access?”
  • “O que o vídeo implica para estudos multi- e inter-disciplinares?”
  • “O que o vídeo implica sobre Science2.0 e 3.0?”
  • “O que o vídeo implica sobre as ‘propriedades de escala’ dos nossos sistemas de administração (educação, saúde, segurança, etc)?”

Muitos (senão todos) dos métodos que temos hoje sobre governança e administração evoluíram dos originais criados para administrar nações de cerca de alguns [poucos] milhões de pessoas — o que fazer, então, quando as nossas nações têm centenas de milhões de pessoas?! Será que esses mecanismos escalam de modo apropriado?

P.S.: Só pra apimentar: Why Our Best Officers Are Leaving — Será que estamos escolhendo e mantendo nossos melhores cientistas? Será que há problemas em comum com os relacionados neste artigo? Como este artigo se relaciona com o vídeo acima?

Papai Noel existe…

quinta-feira, 9 dez 2010; \49\America/New_York\America/New_York\k 49 Deixe um comentário

Papai Noel existe... pelo menos no Landscape!

Papai Noel existe... pelo menos no Landscape!

… pelo menos no Landscape!

😈

Verdades, mentiras e estatisticas na campanha eleitoral

quarta-feira, 13 out 2010; \41\America/New_York\America/New_York\k 41 3 comentários

Peço licença aos meus co-blogueiros para falar sobre as eleições presidenciais. Uma vez que eu não vou emitir nenhum juízo sobre nenhum dos candidatos, nem explicitar preferência alguma, creio que não há problema. Na verdade o tema eleitoral é só uma desculpa para falar sobre estatística :P. Caso haja problema, por favor me avisem.

Nessa campanha presidencial – como, aliás, deve ser em qualquer campanha eleitoral – tem acontecido uma fenômeno interessante nas propagandas e discursos de aliados de cada um dos candidatos do segundo turno. Ambas as campanhas tentam comparar os governos de Lula e FHC apresentando todo tipo de números e estatísticas. O interessante é que o cenário parece estranhamente ambíguo: para cada estatística que mostra Lula melhor que FHC existe outra que mostra o exato contrário. Para dois exemplos interessantes desse tipo de campanha, veja esses dois links:

Esse fenômeno pode parecer estranho para os espectadores da campanha menos acostumados aos números. Afinal, quem foi melhor para o ensino superior, FHC que aumentou o número de matrículas ou Lula que criou mais universidades? Quem diminuiu mais a pobreza, FHC que aumentou 4 vezes mais o IDH ou Lula que criou 3 vezes mais empregos?

Não há nada de estranho aí. O que está por trás dessa estranheza é uma falácia estatística que pode ser chamada “falácia do atirador”. Imagine um homem que quer demonstrar que é um excelente atirador e te mostra um alvo pintado em um campo de tiro, com 10 tiros certeiros na mosca. Você pode achar que ele é um grande atirador mesmo, mas sabe como ele produziu esse resultado?

O atirador ergueu uma enorme parede de madeira, de 10 metros de largura e 5 de altura, colocou-se na posição de tiro e descarregou 500 tiros contra a parede, sem tentar mirar particularmente em nenhuma posição. Claro que depois disso a parede estará cravejada de buracos e em alguns lugares haverá buracos de tiro mais próximos um dos outros. O atirador escolhe convenientemente 10 buracos que, ao acaso, ficaram bastante próximos entre si e desenha e pinta o alvo em torno deles. Então ele corta o resto da madeira e recoloca o alvo em sua posição original, com 10 tiros “certeiros” na mosca.

O homem não é um excelente atirador. Ele apenas escolheu o alvo depois de ter os resultados. Ele selecionou os “bons” resultados e descartou os ruins. Ele transformou uma distribuição bastante larga em uma distribuição mais estreita apenas descartando certos resultados e mostrando outros.

Como isso se aplica à campanha eleitoral?

Para cada aspecto de um governo que você queira avaliar, existe um sem número de estatísticas que podem ser usadas. Se, por exemplo, eu quero avaliar a evolução da renda, posso mostrar o crescimento do PIB per capita, ou de algum índice de salários, ou da fração do PIB correspondente aos salários, ou quanto subiram os salários em comparação com a taxa básica de juros, ou comparar com taxas “reais” praticadas no mercado. Posso comparar esses números em dólares ou reais, posso comparar o poder aquisitivo real, ou quanto essa renda compra de uma certa cesta de produtos essenciais. Posso focar apenas no crescimento da renda da classe C, ou em quanto cresceu (ou caiu) a razão da renda da classe C pela renda da classe A. Posso comparar quantos bens de consumo essenciais as pessoas conseguem comprar, ou posso comparar quanto o crescimento de suas rendas se compara com o rendimento de um certo investimento padronizado. Todas essas são formas de comparar quanto a renda cresceu.

Deu para perceber que existe um grande número de estatísticas para comparar dois governos, mesmo que fiquemos apenas no restrito conjunto de estatísticas referentes ao aumento da renda. Se eu comparar todos esses números entre o governo A e o governo B, alguns resultados serão pró-A e outros serão pró-B. É natural que seja assim por uma razão simples: há uma flutuação incrível nesses números. Flutuações temporais, flutuações causadas por diferentes metodologias ou mesmo flutuação que resulta do processo de amostragem. A incerteza nesses números as vezes é muito grande, e medidas em semanas diferentes podem causar flutuações de vários pontos percentuais. Não temos um valor determinado para esses números, temos uma distribuição de probabilidades que representa o quanto sabemos sobre eles. E essa distribuição é relativamente larga.

Então existe uma probabilidade de que cada estatística seja pró-A ou pró-B, ainda que os governos A e B tenham sido mais ou menos parecidos. E mesmo que o governo A tenha sido muito melhor que o governo B em certo sentido, ainda assim teremos uma certa probabilidade de ter um certo número de estatísticas pró-B. Mas eu sempre posso escolher que fração das estatísticas que eu pretendo mostrar será pró-A ou pró-B. Eu posso apenas mostrar 100% de estatísticas pró-A e argumentar assim que o governo A foi incrível. Isso é bem ilustrado pela famosa propaganda da Folha de São Paulo de alguns anos atrás, em que se apresenta diversas estatísticas positivas do governo de Adolf Hitler na Alemanha, que certamente foi um governo desastroso!!!

Então é impossível comparar dois governos com estatísticas? Claro que não. É perfeitamente possível. Apenas é necessário fazê-lo de forma sistemática, com métodos claros, com padrões e referências bem definidos. Existem procedimentos para se evitar a falácia do atirador em estudos estatísticos. Por exemplo, pode-se escolher que estatísticas serão calculadas de antemão, antes da colheita de dados, de acordo com um método bem definido. Isso evita que se “desenhe o alvo” em torno do resultado desejado. Pode-se fazer uma análise de sensitividade, mostrando que ainda que a metodologia fosse diferente, o resultado não seria tão diferente assim. Enfim, existem técnicas para isso.

Mas isso é algo que campanhas eleitorais nunca serão capazes de fazer. Elas são enviesadas por princípio, a cesta de índices que escolhem para mostrar é viciada e sua interpretação errônea e vazia. E isso vale para qualquer campanha, independente da orientação ideológica do candidato. É inevitável. Não chega nem a ser desonestidade, é da natureza da propaganda. O ideal seria que, ao invés de usar os números de forma leviana, fossem contratados estatísticos profissionais e neutros para criar essas análises. Mas isso nunca vai acontecer. 😉

O melhor é que o eleitor esteja atento às formas com que os números podem ser usados contra ele. Números adequadamente escolhidos podem defender qualquer estória que se deseje contar. Mas não fique achando que toda estatística é resultado de manipulação. Há métodos adequados para se evitar a manipulação, mesmo a manipulação involuntária.

Há uma citação de natureza ética difundida entre os estatísticos adequada para fechar essa discussão. Infelizmente não me lembro o autor ou a exata fraseologia, mas a essência é: é sempre possível mentir usando a estatística, mas é impossível dizer a verdade sem ela.

A física da pesquisa e a física da sala de aula

quarta-feira, 29 set 2010; \39\America/New_York\America/New_York\k 39 2 comentários

Disclaimer: esse post é uma opinião muito pessoal de seu autor, e pode ser que os outros membros do blog não concordem.

Como eu já disse por aqui, eu fico bastante entusiasmado com a idéia de cursos abertos online e disponibilização de material em vídeo, como na iniciativa OpenCourseWare, por exemplo. E eu sou um usuário adicto desses materiais. Já devo ter ouvido as aulas de mais de uma dezena desses cursos, por diversão mesmo, em áreas muito diversas (história, estudos religiosos, biologia, antropologia…). Mas não comecei esse texto para falar desses cursos, mas para falar de algo que esses cursos me fizeram notar a respeito de uma diferença fundamental entre o ensino de física e o ensino em outras áreas do conhecimento, de forma particular, mas não restrita, nas ciências médicas e biológicas.

Para exemplificar o que quero dizer, vou me referir à terceira aula do curso de biologia geral dado na primavera de 2010, na Universidade da Califórnia em Berkeley, cujas aulas em vídeo e éudio estão disponíveis para download no site de webcasts da universidade (http://webcast.berkeley.edu). Em certo ponto dessa aula, a professora diz “e realmente nos últimos 5 ou 6 anos muita pesquisa foi feita para entender a estrutura interna e função do ribossomo, e eu vou mostrar para vocês uma imagem…” e passa a discorrer sobre assunto de pesquisa muito recente, sobre o qual ainda há dúvidas e questões em discussão. Cenas como essa são comuns em todos os cursos que ouvi. Assuntos de pesquisa são citados na sala de aula rotineiramente e discutidos nos trabalhos e dissertações que os alunos tem de entregar para ser avaliados. Isso me chocou. Me chocou como algo completamente alheio com a minha experiência de sala de aula, que acredito ser não muito diferente da experiência de todos os físicos formados no Brasil, e provavelmente no mundo todo. É inconcebível na nossa experiência que um professor de Física I (ou de Physics 101) entre na sala de aula e dê como exercício de casa a uma turma mista de dezenas e dezenas ingressantes de diversos cursos – engenharia, física, química, … – a leitura de um artigo de pesquisa publicado a menos de 10 anos. Nenhum assunto discutido em uma aula de física, mesmo nos últimos anos da faculdade, é mais recente do que a década de 40. Em compensação, poucos assuntos discutidos em uma aula de biologia celular são mais antigos que a década de 70, e muitos tem menos de 10 ou 15 anos de idade! E por que é assim?

Tudo bem, há uma série de explicações muito plausíveis para isso. Talvez a mais forte seja que os conceitos físicos e as ferramentas matemáticas usadas na pesquisa são muito mais avançados do que os que estão sendo estudados na graduação, e que é necessário um período longo de treinamento para sair da primeira aula sobre as leis de movimento de Newton e chegar na mecânica quântica, passando por todos aqueles passos intermediários. A maturação de um físico é um processo longo e lento, nessa visão. Vai da primeira aula de Física I até mais ou menos o meio do doutorado. A física é uma ciência mais antiga e madura, dizem os que defendem essa idéia, e um estudante de física tem que estudar toooodas essas coisas com detalhes, desde o nascimento da mecânica newtoniana até a mecânica quântica e suas aplicações mais elementares. Além disso, um ingressante em física ainda não foi exposto nem ao ferramental matemático básico para prosseguir aprendendo física – o cálculo, a algebra linear e etc…

Apesar de acreditar que há alguma verdade nisso, sinceramente acho que ela é exagerada e super-simplificada pela típica autosuficiência e arrogância dos físicos (eu me incluo nessa conta) e pela inércia do sistema educacional. Faz anos que é assim, foi assim que fizemos no passado, é assim que faremos no futuro porque é assim que se ensina física. E bem, veja só, é mais difícil aprender física, não é?

Não. Não é. Sinceramente, não é. Aprender biologia pra valer é tão difícil quanto aprender física. Ou mais! Pode ter um pouco menos de matemática, mas nas duas ou três primeiras aulas do curso introdutório para a graduação da UC Berkeley que assisti já há uma série de mecanismos celulares complicados, relações entre as organelas, estruturas moleculares complicadas, como as isomerias e as simetrias afetam a função das moléculas, e se o carbono alfa está assim, então a isomeria faz com que o poro da membrana nuclear fique assado… 😯 😯 😯

Não é fácil, definitivamente. E não é “coleção de selos”, é uma sequencia lógica de mecanismos e estruturas bem entendida até certo ponto. Eu não estou acompanhando direito.

Porque um ingressante de biologia está pronto para discutir a biologia molecular dos poros da membrana nuclear de maneira tão detalhada e um estudante de física não está pronto para discutir fenômenos críticos e transições de fase, ou entender, pelo menos num nível qualitativo, o que é decoerência, o que são teorias de campo conforme e porque a correspondência AdS/CFT é tão importante, quais são as alternativas para explicar energia escura, porque o grafeno é um material tão especial, porque é tão difícil ter materiais semicondutores que sejam ferromagnéticos, o que a física por trás de folding de proteínas tem a ver com a física de cristais magnéticos, quais são os melhores candidatos para física além do modelo padrão, como podemos detectar radiação Hawking?

E se tocamos nesse assunto, porque não ir mais fundo? Se os estudantes de física não chegam à metade do século passado, os estudantes do colegial param muito antes disso. A física que fingimos ensinar nas escolas tem pelo menos 150 anos de idade, e é absolutamente inútil para essas pessoas da forma como é ensinada, em todos os aspectos. Não estimulam curiosidade científica, não as ajudam a entender o ambiente tecnológico em que vivem, não fornecem ferramentas de trabalho úteis e nem as preparam para a universidade.

O ensino de Física está, em minha opinião, caduco em todos os níveis e precisando de urgente reforma. E quanto mais a pesquisa avança, mais urgente essa mudança se torna. Se queremos pessoas prontas para integrar os quadros de pesquisa, se queremos estudantes motivados e se queremos desenvolver o quanto antes o gosto pela pesquisa, precisamos forçar a fazer o que os biólogos fizeram de forma natural, e trazer a física da pesquisa de volta para as salas de aula.

Realejo do Dia: Humanismo Científico…

quinta-feira, 25 mar 2010; \12\America/New_York\America/New_York\k 12 2 comentários

O Sam Harris deu uma palestra no TED muito provocativa, com o título de “Science can answer moral questions” (que certamente tem a ver com o novo livro dele, The Moral Landscape: How Science Will Determine Human Values):

É claro que os exemplos mais “radicais” que ele cita só servem pra ilustrar os extremos do espectro nessa problemática toda. Entretanto, algumas imprecisões no discurso dele (e de outros), já foram comentadas a exaustão, e.g.: The Mystical Ethics of the New Atheists.

O ponto que eu considero principal e relevante, entretanto, não são esses pontos mais controversos (usados para “chocar” a audiência, tornando o ponto discutido mais concreto) que me interessam, mas sim o fato de se trazer para o diálogo social a noção de Humanismo Secular e Científico. O importante é se introduzir cada vez mais racionalidade no debate social — e nada melhor pra isso do que a penetração do jornalismo científico, cada vez maior e mais robusta, de qualidade, que possa garantir que o público leigo tenha acesso as informações necessárias para poder compreender as nuances e sutilezas envolvidas nas diversas questões relevantes no debate público atual.

Então, o real valor da palestra não está implícito no choque dos exemplos, mas sim na inserção de racionalidade e de um método científico pra se decidir as questões que aparecem no nosso dia-a-dia.

Cálculo Exterior para Elementos Finitos…

sábado, 6 mar 2010; \09\America/New_York\America/New_York\k 09 Deixe um comentário

ResearchBlogging.org

O artigo Finite element exterior calculus: from Hodge theory to numerical stability trata dum tópico que eu gosto muito: análise numérica feita com ferramentas modernas (e.g., Cohomologia de de Rham e Teoria de Hodge).

Meu interesse sobre esse tipo de tópico começou cedo, quando na graduação eu comecei a lidar com problemas numéricos. A noção de que a estabilidade e convergência do método numérico deveria variar com a particular discretização (“mesh”) escolhida sempre ficou atrás da minha orelha. Mas, naquelas épocas, ainda estando na graduação, pouco era possível se fazer. Mas a vontade de aplicar essas idéias em Lattice Gauge Theory sempre me provocou. 😉

Um pouco mais tarde, já na pós (mestrado), eu trombei com alguns artigos interessantes que, novamente, morderam essa mesma pulguinha,

Meu interesse por esses artigos era claro: o esquema de discretização deles tenta preservar as simetrias de Lie do problema original. Isso é particularmente importante se o objetivo é simular problemas que envolvem Quebra de Simetria! 💡 😎

Um pouco de tempo depois… me aparece o seguinte artigo, A Discrete Exterior Calculus and Electromagnetic Theory on a Lattice; que, mais tarde, seria seguido pelos seguintes artigos: Discrete Differential Geometry on Causal Graphs e Differential Geometry in Computational Electromagnetics.

A idéia, então, era novamente clara: aplicar esse mecanismo de Cálculo Exterior Discreto em Teorias de Gauge! 💡 😎

Afinal de contas, quem sabe, não daria pra juntar ambas as idéias: usar Cálculo Exterior Discreto de forma a preservar as simetrias [de Lie] do problema no contínuo ❗ O que será que poderia sair daí?! (De fato, não tenho a menor noção, infelizmente nunca tive tempo de voltar e morder essa questão. Mas, taí um problema prum doutorado… 😉 )

Bom, depois de tudo isso, aparece o artigo que motivou esse post — eu tinha que falar alguma coisa a respeito dele.

Na verdade, esse artigo vai mais longe, extendendo o trabalho feito anteriormente, definindo apropriadamente uma Teoria de Hodge para Elementos Finitos, e avaliando as conseqüências para a consistência (“well-posedness of the Cauchy problem”; algo que varia muito com as particularidades da questão em mãos) e estabilidade numérica do problema. Portanto, as técnicas disponíveis agora são muito mais robustas! (O que só me deixa cada vez mais curioso pra saber a resposta das questões acima… 😉 )

É isso aí: a leitura é excelente, a diversão é garantida… e eu não me responsabilizo por noites de sono perdidas (por causa das questões acima)! 😈

Referências

  • Arnold, D., Falk, R., & Winther, R. (2010). Finite element exterior calculus: from Hodge theory to numerical stability Bulletin of the American Mathematical Society, 47 (2), 281-354 DOI: 10.1090/S0273-0979-10-01278-4

Lógica Bayesiana

sexta-feira, 13 nov 2009; \46\America/New_York\America/New_York\k 46 6 comentários

Todo mundo conhece a lógica clássica, aquela segundo o qual proposições são julgadas verdadeiras ou falsas através de certos procedimentos de consistência. Mesmo que não conheça as regras da lógica formal, certamente já as usou e saberia reconhece-las. Poucos nunca ouviram o tal exemplo sobre a mortalidade ou não de Sócrates.  A lógica formal nos fornece uma forma de raciocínio: seguindo suas regras básicas eu consigo formas de, de posse de afirmações que eu julgo verdadeiras,  julgar a validade de outras. Mais ainda, na lógica não há espaço para ambiguidade e meia-certeza — o valor de uma proposição é verdadeiro ou falso, fim de papo. E note: ainda que eu não consiga determinar esse valor, está estabelecido desde o princípio que ele é verdadeiro ou falso.

Certamente isso fornece ferramentas úteis mas há uma grande limitação: como eu deveria raciocinar se eu não possuo informação completa sobre algo? A lógica formal não serve para isso. Eu não posso fazer perguntas como: “dado que eu acho a proposição P1 maaais ou menos certa, qual é o valor de P2?”. Há formas de lidar com essa questão de informação parcial? Isso é o que os probabilistas da escola bayesiana se perguntaram e o que eu pretendo dizer aqui é como responder positivamente essa pergunta.

A grande pergunta inicial é: como eu quantifico informação incompleta sobre algo? Em outras palavras, como eu digo a você quão fortemente eu acredito que algo é verdade? Uma vez determinada essa resposta a próxima pergunta é: como eu devo proceder, uma vez estabelecida o valor de uma proposição, para determinar o valor de outra proposição derivada dessa? Essas são as duas perguntas que eu vou tentar explicar como são respondidas pela teoria bayesiana.

Então para começo de conversa vamos estabelecer como se mede o grau de plausibilidade de algo (A. Caticha gosta de chamar de “degree of rational belief”, eu concordo com ele). Para cada proposição vamos criar uma função que associa a cada outra proposição um número real — a princípio irrestrito:

\Phi_{p} : \mathcal{P} \to \mathcal{R}, \forall p\in\mathcal{P}.

Aqui, \mathcal{P} é a coleção de proposições e \mathcal{R} o conjunto dos reais. Ao número \Phi_{P_1}(P_2) vamos chamar plausibilidade de P_2 no ambiente lógico (gerado por) P_1. Ou seja, esse número mede o quanto eu acredito em P_2 assumindo P_1 como “axioma”. Quanto maior o número maior minha crença.

Bem, não faz muito sentido apenas fazer isso. Preciso de algumas regras básicas para essa função. Essas regras devem me garantir que quando eu faço o “limite de certeza absoluta” eu recobre os resultados da lógica formal. Essas regras são chamadas axiomas de Cox e são bem simples e intuitivas. Melhor ainda: elas determinam \Phi_{p} quase univocamente (vamos entender esse quase adiante). Os axiomas de Cox são os seguintes:

A plausibilidade da negação de uma proposição é determinada assim que eu conheço a plausibilidade da própria proposição. Ou seja(2):

\Phi_{A}(\neg B) = F(\Phi_{A}(B)).

Parece razoável: quanto mais acredito em B, menos acredito em \neg B.  Note que há aqui a afirmação implícita de que a função que liga a plausibilidade de uma proposição com a plausibilidade da sua negação é única e independe de qual proposição estamos falando, nem do “ambiente lógico”.

A operação de negação é idempotente – ou seja, se eu aplicar a negação duas vezes, devo recuperar a proposição original(\neg \neg B = B). Essa propriedade nos fornece uma equação funcional para F(\cdot):

\Phi_{A}(\neg \neg B) = \Phi_{A}(B),

F(\Phi_{A}(\neg B)) = \Phi_{A}(B),

F(F(\Phi_{A}(B))) = \Phi_{A}(B).

Ou seja, para todos os valores u pertencentes à imagem de \Phi_{\cdot}(\cdot) devemos ter que:

F(F(u)) = u.

Ou seja, a função F(⋅) é idempotente também. Vamos reservar essa propriedade de F(\cdot) e prosseguir para o segundo axioma de Cox:

A plausibilidade da conjunção de duas proposições A\wedge B dada uma terceira proposição C (ou seja, \Phi_{C}(A \wedge B) ) deve depender apenas da plausibilidade de:

(1) plausibilidade de A dado C: \Phi_{C}(A);
(2) estabelecida a plausibilidade de A, quão plausível é B dado C : \Phi_{C\wedge A}(B).

Ou seja, estou assumindo a existência de mais uma “função universal”:

\Phi_{C}(A \wedge B) = G( \Phi_{C}(A) , \Phi_{C\wedge A}(B) ).

Também parece razoável: quando quero determinar se duas proposições são simultaneamente verdadeiras, estabeleço primeiro a validade da primeira e depois, dada a primeira, estabeleço a validade da segunda. É um pouco mais difícil tirar uma equação funcional para G(⋅ , ⋅) mas não é impossível. Considere a expressão:

\Phi_{B}(A_1 \wedge A_2 \wedge A_3).

Há duas formas diferentes de decompor essa expressão usando a função G(\cdot,\cdot): lembre-se que o conectivo \wedge é  associativo e comutativo e portanto:

\left(A_1 \wedge A_2\right) \wedge A_3 = A_1 \wedge \left(A_2 \wedge A_3\right).

Uma inferência consistente exige que essas duas formas dêem o mesmo resultado(3). Portanto:

G( \Phi_{B}(A_1 \wedge A_2) , \Phi_{B\wedge A_1 \wedge A_2}(A_3) ) = G(\Phi_{B}(A_1) , \Phi_{B\wedge A_1 }( A_2 \wedge A_3) ).

Aplicando novamente a definição de G(\cdot,\cdot):

G( G(\Phi_{B}(A_1),\Phi_{B \wedge A_1 }( A_2)) , \Phi_{B\wedge A_1 \wedge A_2}(A_3) ) = G(\Phi_{B}(A_1) , G(\Phi_{B\wedge A_1 }( A_2),\Phi_{B\wedge A_1 \wedge A_2 }( A_3)) ).

Se isso deve valer para quaisquer proposições então novamente tenho um equação funcional válida para quaiser u, v e w na imagem de \Phi_{\cdot}(\cdot)(4):

G(u,G(v,w)) = G(G(u,v),w).

Ou seja: a função G(⋅ , ⋅) também é associativa.

Um leitor apressado deve se perguntar nesse momento: e daí que você tem duas equações funcionais para essas funções arbitrárias F(⋅) e G(⋅ , ⋅) que você postulou do chapéu? O ponto é que essas duas equações funcionais generalíssimas definem univocamente estrutura de inferência! Sério mesmo. Não to brincando. E você conhece essa estrutura.

O coração da questão deriva de dois teoremas devidos a Cox. Para conseguir o primeiro teorema vamos usar o seguinte resultado (não vou provar aqui porque a prova é extensa e é encontrada na referência [2]).

Teorema da função associativa: dada qualquer função associativa G(u,v), existe uma função monotônica g(⋅) tal que:

g(G(u,v)) = g(u) g(v)

Isso é muito conveniente pois se escrevermos de novo a definição de G(\cdot,\cdot), temos:

\Phi_{C}(A \wedge B) = G( \Phi_{C}(A) , \Phi_{C\wedge A}(B) ),

e usarmos o teorema da função associativa, então obtemos:

g\left(\Phi_{C}(A \wedge B)\right) = g\left(\Phi_{C}(A)\right) g\left( \Phi_{C\wedge A}(B) )\right)

E agora posso simplesmente regraduar minha definição de plausibilidade. Uma vez que g() é monotônica, e portanto vai preservar a ordem com que eu classifico coisas como mais ou menos plausíveis, eu posso redefinir plausibilidade como:

\phi(A|B) = g(\Phi_{B}(A))

Mudei ligeiramente a notação para que o leitor possa apreciar melhor o que acontece com a antiga expressão que define G(⋅ , ⋅) com essa nova definição de plausibilidade:

\phi(A \wedge B | C) = \phi(B|C \wedge A) \phi(A|C)

Mas veja se essa não é a boa e velha regra do produto da teoria de probabilidades!!! Usando a comutatividade de \wedge eu ainda posso notar que:

\phi( B | C \wedge A) = \dfrac{\phi (A|C \wedge B) \phi (B|C)}{\phi (A|C)},

e essa não é nada mais que a regra de Bayes da teoria de probabilidades!

Mas calma, a nova função plausibilidade \phi(\cdot| \cdot) ainda não é uma probabilidade: não basta seguir essas duas regras, há uma série de condições na teoria axiomática de probabilidades para chamar algo com esse nome e a nossa função ainda não satisfaz todas. Tudo bem: ainda nos falta estudar as propriedades de F(\cdot)! Quem sabe isso ajude.

Novamente precisamos criar uma situação em que a demanda por consistência delimite as propriedades da função plausibilidade. Por exemplo temos a seguinte situação(5):

\phi(A \wedge B | C) = \phi(B|C \wedge A) \phi(A|C) =F\left(\phi(\neg B|C \wedge A)\right) \phi(A|C) .

Mas, pela regra do produto que deduzimos acima:

\phi(\neg B |C \wedge A) = \dfrac{\phi(A \wedge \neg B |C)}{\phi(A|C) }

e então:

\phi( A \wedge B | C) =\phi(A|C) F \left( \dfrac{\phi(A \wedge \neg B |C)}{\phi(A|C) }\right)

Mas lembre-se que a conjunção A \wedge B é simétrica, portanto toda essa expressão fica invariante se eu trocar A por B. E assim:

\phi(A|C) F \left( \dfrac{\phi(A \wedge \neg B |C)}{\phi(A|C) }\right)=\phi(B|C) F \left( \dfrac{\phi(B \wedge \neg A |C)}{\phi(B|C) }\right)

Se isso deve valer independente de quais são as proposições A, B e C, então eu posso, por exemplo, escolher uma particular proposição \neg B = A\wedge D. Note que com essa escolha temos as seguintes identidades: A\wedge \neg B = \neg B\neg A \wedge B = \neg A. Então:

\phi(A|C) F \left( \dfrac{\phi(\neg B |C)}{\phi(A|C) }\right)=\phi(B|C) F \left( \dfrac{\phi(\neg A |C)}{\phi(B|C) }\right)

\phi(A|C) F \left( \dfrac{F\left(\phi( B |C)\right)}{\phi(A|C) }\right)=\phi(B|C) F \left( \dfrac{F\left(\phi(A |C)\right)}{\phi(B|C) }\right)

O que finalmente resulta em mais uma equação funcional para F(⋅):

uF \left( \dfrac{F\left(v\right)}{u }\right)=v F \left( \dfrac{F\left(u\right)}{v }\right)

Novamente sem demonstrar, vou simplesmente afirmar que a solução mais geral dessa equação, submetida à condição de idempotência que deduzimos acima, é dada por:

F(u)^\alpha=(1-u^\alpha).

Note que para um \alpha qualquer isso restringe o dominio da função F(⋅), e portanto a imagem da função \phi(\cdot|\cdot), ao intervalo [0,1]. E veja o que acontece então com a regra que define F(⋅):

\phi(\neg A | B) ^\alpha + \phi(A|B)^\alpha = 1

Uma nova regraduação permite definir uma função Pr(A|B) =\phi(A|B)^\alpha com as seguintes propriedades:

  • Pr(A|B)\in[0,1]
  • Pr(A|B) + Pr(\neg A|B) = 1
  • Pr(A_1\wedge A_2|B) = Pr(A_2| B \wedge A_1)Pr(A_1 |B)

Esses não são exatamente os axiomas de Kolmogorov para a teoria de probabilidades mas… close enough para um post de blog. Isso tudo pode ser refinado com o devido grau de rigor matemático para satisfazer os exatos axiomas da teoria da probabilidade.

O que foi obtido com essa massagem matemática toda?

  1. É possível definir um sistema lógico de inferência baseado em informação incompleta e incerteza que atribui uma plausibilidade a cada proposição.
  2. Esse sistema lógico é único, a menos de uma regraduação monotônica da função plausibilidade. Isso faz com que uma ordenação segundo a plausibilidade seja única, uma vez que regraduações monotônicas não alteram essa ordem.
  3. A função plausibilidade satisfaz todas as regras que uma probabilidade legitima deve satisfazer (aqui não provei isso, mas apenas mostrei algumas coisas – para fazer isso rigorosamente precisa-se definir uma “sigma-álgebra de proposições”).

E qual é a utilidade prática disso? Bem… o mundo está cheio de situações de inferência baseada em informação incompleta. Particularmente, todo problema que depende de dados empíricos é, em essência, um problema dessa natureza e todo problema de inferência em ciência é assim. Uma vez que o único sistema de inferência para informação incompleta – como aí mostrado – é aquele que usa as regras  da teoria da probabilidade é razoável se supor que efetivamente usar essas regras explicitamente oferece vantagens sobre os métodos estatísticos ad hoc frequentemente usados, como os métodos de mínimos quadrados e outras formas de fitting de dados. Na verdade esse processo de inferência vai muito além disso – ele oferece ferramentas de modelagem física, de interpretação de modelos, de planejamento de experimentos e ainda mais. Mas disso eu vou tratar em um próximo post.

Notas:

(1) — Se você se interessa por nomes, o que se segue é devido a um certo número de pessoas — Edwin Jaynes, Harold Jeffreys e particularmente Richard Cox.

(2) — Estou usando os seguintes simbolos para os conectivos lógicos:

  • \neg — negação: \neg \mbox{Verdadeiro} = \mbox{Falso}
  • \wedge — o conectivo E (conjunção): \mbox{Verdadeiro} \wedge \mbox{Falso} = \mbox{Falso}
  • \vee — o conectivo OU (disjunção inclusiva): \mbox{Verdadeiro} \vee \mbox{Falso} = \mbox{Verdadeiro}

(3) — Lembre-se: queremos um sistema racional de atribuir um grau de confiança a algo.

(4) — Que pode ser obtida fazendo: u = \Phi_{B}(A_1), v = \Phi_{B \wedge A_1 }( A_2)) e w = \Phi_{B\wedge A_1 \wedge A_2 }( A_3).

(5) Note que eu tinha definido F(⋅) para a função original \Phi_{A}(B). Entretanto fizemos uma regraduação monotônica então nada me impede de abusar da linguagem e redefinir F(x) \to F(g(x)).

Referências:

[1] E. T. Jaynes, Probability Theory, the Logic of Science.
[2] A. Caticha, Lectures on Probability, Entropy, and Statistical Physics — arXiv:0808.0012v1 [physics.data-an]
[3] A. Caticha,  Quantifying Rational Belief — arXiv:0908.3212v1 [physics.data-an]

O Prêmio Sakurai de 2010…

terça-feira, 6 out 2009; \41\America/New_York\America/New_York\k 41 Deixe um comentário

Eu estava esperando o anúncio do Prêmio Nobel de Física desse ano pra me manifestar… 😈

Pra quem não conhece, a APS (American Physical Society) distribui uma série de prêmios anualmente — e esses são bastante importantes. Em particular, o Prêmio Sakurai distingue as principais contribuições em Física de Partículas Teórica.

O Prêmio Sakurai de 2010 diz o seguinte sobre seus ganhadores,

“For elucidation of the properties of spontaneous symmetry breaking in four-dimensional relativistic gauge theory and of the mechanism for the consistent generation of vector boson masses”

(“Pela elucidação das propriedades da quebra espontânea de simetria em teorias de gauge relativísticas em 4-dimensões e do mecanismo para geração consistente das massas dos bósons-vetores.”)

Pra conhecer um pouco mais desse fenômeno e sua importância, uma boa referência é a seguinte: Englert-Brout-Higgs-Guralnik-Hagen-Kibble mechanism. Pra conhecer melhor a história científica por detrás de tudo isso, e poder contextualizar melhor a importância desse trabalho, o seguinte artigo é excelente: History of the Englert-Brout-Higgs-Guralnik-Hagen-Kibble mechanism.

Infelizmente, ainda há muita controvérsia em torno desse assunto, indo desde suas analogias em Matéria Condensada (Eletrodinâmica Escalar e suas relações com Landau-Ginzburg e a explicação da supercondutividade) até o fato de que mutios dos detalhes envolvidos já foram [tacitamente] esquecidos há tempos… não por maldade, apenas por uma questão de que, uma vez que o fenômeno passa a ser entendido, os detalhes que antes bloqueavam sua compreensão passam a ficar relegados ao segundo plano.

Infelizmente, a compreensão necessária pra se destrinchar todas essas controvérsias, é não-perturbativa, e não costuma ser algo que se ensina nos cursos de QFT por aí afora… 😥

É uma pena muito grande, pois essa história é muito bonita e de fundamental importância pra Física de Partículas, começando com o Modelo de Schwinger e culminando com a Quebra Espontânea de Simetria, passando pelo fato de que não há absolutamente nada na Física atual que obrigue o fóton a ter massa nula (fica a perguntinha capiciosa: “vc sabe provar o por quê disso?” 😈 ).

Uma parte dessa controvérsia toda tem aparecido bastante na mídia atualmente, por causa da alta probabilidade do Nobel ser dado pra esse tema assim que o LHC encontre o “bóson de Higgs”. Por exemplo, o Ian Sample está escrevendo um livro sobre tudo isso, contanto os pormenores do mundo da Física. Quem quiser ir se divertindo, enquanto o livro não sai, pode dar uma olhada nos seguintes links,

Há muito mais sobre isso espalhado por aí, pelas Internets; mas, não vou ficar fazendo linkfest por aqui. 😛

O Guralnik conta a história dele no seguinte artigo (o link aponta pro eprint nos arXivs só por uma questão de simplicidade, uma vez que lá é possível se encontrar o link pro artigo publicado): The History of the Guralnik, Hagen and Kibble development of the Theory of Spontaneous Symmetry Breaking and Gauge Particles. Vale muita a pena ler (principalmente quem quiser descobrir a resposta pra perguntinha capiciosa acima 😉 )…

Pra fechar, ainda no tema “Física não-pertrubativa e fora do equilíbrio”, deixo a seguinte entrevista do Roger Penrose (quem quiser um pouco mais, pode dar uma olhada nos videocasts do AP que tem umas palestras bem interessantes do Penrose 😈 ), Roger Penrose Says Physics Is Wrong, From String Theory to Quantum Mechanics.

Diversão garantida, 😎 !

A semana nos arXivs…

quinta-feira, 1 out 2009; \40\America/New_York\America/New_York\k 40 Deixe um comentário

A semana nos arXivs…

sexta-feira, 25 set 2009; \39\America/New_York\America/New_York\k 39 Deixe um comentário


Segundo lugar no Prêmio ABC!

domingo, 20 set 2009; \38\America/New_York\America/New_York\k 38 7 comentários

Estava eu aqui, a trabalhar num artigo sobre espaços-tempo 6-dimensional que decaem espontaneamente para 4-dimensões… quando resolvi dar uma olhada no meu twitter e descobri uma maravilha,

O Ars Physica ganhou o 2º Lugar no Prêmio ABC de Blogs Científicos! 😈

(Ver mais sobre o Prêmio ABC no link Prêmio ABC para blogs científicios (UPDATE 11/09/2009).)

Eu gostaria de agradecer a todos os blogs e blogueiros participantes, assim como os envolvidos com o prêmio e com a tabulação dos resultados, e, claro, a todos os que votaram, tanto no Ars como no geral — excelente trabalho pessoal! 🙂

Quem quiser continuar lendo, pode seguir o link abaixo… 😉
Leia mais…

O realejo do dia…

domingo, 20 set 2009; \38\America/New_York\America/New_York\k 38 2 comentários

O realejo do dia…

terça-feira, 8 set 2009; \37\America/New_York\America/New_York\k 37 Deixe um comentário

“Life is a comedy for those who think… and a tragedy for those who feel.”Horace Walpole

(“A vida é uma comédia praqueles que pensam… e uma tragédia praqueles que sentem.”)

Pra quem gostou da citação, aí vão mais algumas: citações de Horace Walpole. 🙂

Realejo do dia…

quarta-feira, 24 jun 2009; \26\America/New_York\America/New_York\k 26 Deixe um comentário

“There are three classes of men; lovers of wisdom, lovers of honor, and lovers of gain. (Há três classes de homens; amantes da sabedoria, amantes da honra, e amantes do lucro.)” — Platão.

💡

Gödel, Escher, Bach…

sábado, 20 jun 2009; \25\America/New_York\America/New_York\k 25 1 comentário

Quem nunca ouviu falar do excelente livro Gödel, Escher, Bach: An Eternal Golden Braid (ver também Gödel, Escher, Bach; By Douglas R. Hofstadter)?

Pois bem, o MIT OCW tem um curso inteiro baseado no livro, MIT OCW: GEB. E os vídeos podem ser encontrados aqui, GEB: Video Lectures.

Diversão garantida! 😈

Como os hippies salvaram a Física

sábado, 9 maio 2009; \19\America/New_York\America/New_York\k 19 6 comentários

Nem sempre a pseudociência é charlatanismo. As vezes ela é autêntica exploração de idéias, embora ingênuas e com métodos muito aquém do rigor científico. David Kaiser é um professor do centro de Ciência, Tecnologia e Sociedade do MIT que está preparando um livro, Como os hippies salvaram a Física, onde ele fará um apanhado histórico de como alguns físicos desempregados na Califórnia no pós segunda guerra financiados por diversas fontes curiosas, e.g. certos empresários excêntricos e a CIA, exploravam explicações dentro da mecânica quântica para percepção extra sensorial (ESP). Kaiser segue um grupo de hippies, auto intitulados “The Fundamental Fysiks Group”, que marcava regulares debates sobre o teorema de Bell em um auditório no Lawrence Berkeley Lab, que não apenas tiveram participação no clima e ambiente para o sucesso e o material de O Tao da Física de Frijot Capra como também motivaram alguns dos avanços básicos da teoria da informação quântica e da computação quântica — nesse caso, ciência muito séria. Por exemplo, o teorema da não-clonagem aparentemente foi demonstrado a primeira vez como uma resposta a um artigo de um desses hippies, Nick Herbert. O objetivo de Herbert era mostrar a existência de comunicação acima da velocidade da luz usando a mecânica quântica. O que não está no artigo original de Herbert, mas fica evidente através da história contada por Kaiser, é que a linha de chegada para essa pesquisa consistia em explicar fenômenos paranormais como os alegados por Uri Geller! E não pense que essas pesquisas eram feitas em casa em momentos de ociosidade: um outro grupo de físicos que fazia o mesmo tipo de pesquisa era sediado em um laboratório da Universidade de Stanford. Eventualmente, vários dos interessados se organizaram para alugar um espaço na Califórnia que serviu de encontros anuais de debate do teorema de Bell, o verdadeiro Instituto de Estudos Avançados de quântica-hippie! Entre os freqüentadores, incluía-se renomados físicos de posições prestigiadas acadêmicas na Europa, que no final dos anos 70 só podiam encontrar ali um espaço de de debate sobre o teorema de Bell. O próprio John S. Bell, Bernard d’Espagnat e John Wheeler faziam parte da mala direta de publicações dessas pessoas, embora a participação presencial desses acadêmicos mais respeitáveis parece que não existiu.



Da esq. p/ dir.: Jack Sarfatti, Saul Paul Sirag, Nick Herbert, e Fred Alan Wolf em 1974, auto-intitulado Grupo de Pesquisa Física da Consciência. Eles buscavam dar base a paranormalidade usando mecânica quântica.

Ao mesmo tempo que toda essa história estava se desdobrando um pouco fora do meio acadêmico formal, Carl Sagan e James Randi debatiam na mídia e em livros contra essas idéias. Um relato, com alguns elementos históricos da situação dos anos 70 e 80 com relação a ESP nos Estados Unidos, encontra-se no livro de Sagan O Mundo Assombrado pelos Demônios — que foi escrito como uma resposta a esse movimento, chamado genericamente de Nova Era.

Isso que escrevi é só para dar um gostinho. 🙂 Você pode ver a história completa do que vai ser o livro em uma excelente palestra do David Kaiser (Download da palestra, 814 MB, 1h, formato QuickTime).

Kaiser escreveu outro livro interessante, Drawing Theories Apart, sobre a história dos diagramas de Feynman.


Como auxílio no pano de fundo da história, você talvez queira ver esse vídeo onde James Randi fala sobre Uri Geller:

O Cisne Negro e a Criatividade…

quarta-feira, 15 abr 2009; \16\America/New_York\America/New_York\k 16 9 comentários

Faz algum tempo que eu venho mastigando e ruminando sobre esse tema da criatividade, ainda mais durantes esses tempos de ‘publish or perish’ em que vivemos atualmente.

Todos os tipos de índice bibliométricos são usados numa tentativa de se “classificar” o conhecimento sendo produzido. Infelizmente, enquanto bibliometria, os índices são úteis, porém, quando se tenta usá-los pra se qualificar a pesquisa sendo feita… aí a ‘porca torce o rabo’… feio. Mas, hoje em dia, todas as agências de fomento usam esses índices — aliás, no exterior, eles são usados pra tudo, desde classificação da lista dos candidatos a contratação, …, até o salário do pesquisador!

O problema, de fato, não é a tentativa de se medir a produção dos pesquisadores e, assim, tentar se inferir a qualdiade de seus trabalhos. O problema é que esses índices bibliométricos são altamente “sociológicos” (por falta dum termo melhor): o que eles medem mesmo é a rede social dum determinado pesquisador! E, aí… aí as coisas começam a ficar complicadíssimas… porque há muito poucos estudos nas linhas do que já foi amplamente sugerido por Pierre Bourdieu no livro Homo academicus (também recomendo o livro Distinction: A Social Critique of the Judgement of Taste do mesmo autor). Aí também iria acabar sendo necessário se levar em consideração os livros Against Method e Science in a Free Society… e a coisa complicaria demais…

Ainda numa das primeiras encarnações do meu blog, eu fiz uma experiência sobre isso… e, de fato, a correlação entre “rede social” e “índice bibliométrico” é alta. Donde se pode concluir que há “nichos ecológicos” na comunidade científica, i.e., se a gente considera a comunidade científica (e.g., de Físicos, só pra fixar o exemplo de modo mais concreto) como um “organismo vivo”, então é possível se falar na ecologia da mesma (ou melhor, em termos de ecologia de sistemas, ou ecologia teórica), e, a partir daí, fica fácil de se entender o que os tais “nichos” significam (há mais detalhes… mas, vamos deixar pros comentários 😉 ).

O fato é que enquanto o sistema está num estado estacionário de equilíbrio dinâmico, tudo funciona de modo “ótimo”. Porém, quando processos irreversíveis são introduzidos no sistema… tudo muda. Em particular, processos irreversíveis podem ir se acumulando… até criar um ponto crítico, a partir do qual o sistema vai se “fracionando”, i.e., diferentes “fases” vão se formando. E, assim, nascem “cismas” na comunidade… alguns chamariam de “classes” (como em “classe social”). E assim os nichos ficam cada vez mais divididos.

Bom, agora não é preciso nenhum grande oráculo pra concluir que esse tipo de ambiente não é nada proveitoso pra nutrir a formação criativa dum indivíduo. Aliás, pelo contrário, o ambiente onde a criatividade é mais organicamente nutrida é exatamente num estado de equilíbrio, onde há todo tipo de mobilidade e possibilidades de se navegar por todos os lados (satisfazendo todos os tipos de curiosidades, além de fomentar a multi- e inter-disciplinaridade, dando uma visão mais “global”, mais “holística” e mais “orgânica” do processo todo)!

As referências abaixo aprofundam um pouco essa discussão, mostrando como, por exemplo, o quão semelhantes as grandes descobertas científicas são quando comparadas a transições de fase, algo que me soa muito como as idéias de Kuhn (expostas no livro The Structure of Scientific Revolutions) — mas isso fica pros comentários também 😉 .

O fato é que existem diferentes tipos de cientistas, como bem diz o Dyson abaixo, e existem os tais “cisnes negros”, aquelas pérolas raras, que aparecem muito de vez em quando, e mudam o caminho que todos vinham seguindo até então. (Apesar de soar meio “mártir messiânico”, a coisa não é bem assim… 😛 ) O resto cabe a sociedade, passando a entender e aceitar cada vez mais o trabalho dos Cientistas e os benefícios da Ciência — incluindo o quão diversificado e longo são os tentáculos da dita cuja.

Então, sem mais, eu recomendo que vcs se divirtam com os textos abaixo… 😎

Referências…

Atualizado (2009-Apr-16 @ 10:18h EDT): Na ânsia de acabar o texto e postá-lo aqui no blog, acabei me esquecendo de alguns vídeos que gostaria de ter posto ao longo do texto. Ei-los aqui, porém sem os comentários que eu gostaria de ter feito (esses ficam pros comentários desse post 😉 ),

Agora sim, a diversão está ainda mais garantida!

😈

%d blogueiros gostam disto: