Arquivo

Archive for the ‘Science’ Category

Zipcast e TED Conversations…

quarta-feira, 16 fev 2011; \07\America/New_York\America/New_York\k 07 3 comentários

Dois lançamentos nesta semana estão marcando um passo interessante na Web2.0:

  • Zipcast: é um programa para ‘webconference’ que roda em HTML5, i.e., é um formato nativo em qualquer navegador moderno que suporte HTML5. O serviço é provido pelo SlideShare, que é um site que provê o serviço de compartilhação de palestras e apresentações (transparências, slides) — basta vc abrir a apresentação que deseja (sua mesmo, devidamente carregada no SlideShare; ou qualquer outra apresentação disponível no site) e clicar para inicializar uma seção de Zipcast. Aí basta vc convidar seus amigos e pronto: sua webconference está em ação. 😉
  • TED | Conversations: Essencialmente, é um fórum de discussões promovido pelo TED, onde os usuários interagem através de debates, perguntas, ou propondo idéias. Quem quiser maiores informações pode dar uma olhada em Getting started. 😉

Vale a pena conferir ambos… como o Zipcast roda em HTML5, é bem possível que ele se torne uma plataforma robusta de webconference (competindo com o EVO e até mesmo com as versões mais modernas do Skype, que permitem ‘conference calls’ com vídeo de mais de uma pessoa). O TED todo mundo já deve conhecer, então, quem sabe a qualidade do ‘Conversations’ não é mantida em pé-de-igualdade com a das palestras. 😉

As usual, you can use Google Translate to convert this post from pt_BR to en_US.

Would the Bard Have Survived the Web?

terça-feira, 15 fev 2011; \07\America/New_York\America/New_York\k 07 3 comentários

O New York Times tem um artigo de opinião de hoje entitulado Would the Bard Have Survived the Web? (“Teriam os menestréis sobrevivido a Internet?”, tradução livre). Vcs podem ler o artigo em Inglês seguindo o link acima, ou, se preferirem, podem ler a tradução para pt_BR via Google Translate.

Aqui vão meus comentários sobre o assunto:

  • Poor understanding of the concept of “market”, as it was done in the past and as it is done today, in our “Information Era”;
  • Poor understanding of the concept of “intellectual property” and “copyright”;
  • Pathetically dismissive argument against “[a] handful of law professors and other experts”: a 6-line paragraph? Out of which, only a single phrase address the actual point?! Seriously, this is the best these 3 people could do to ground their defense in solid and robust arguments?! They couldn’t even come up with a typical list of pros and cons? Deconstructing this 1-paragraph argument is really a silly exercise: the misunderstanding of the differences between “Science” and “Technology” is enough to make this 1-paragraph self-destructive. This is pretty shameful… 😦
  • Here are a couple of question that i would like answer: if “Science” had patented some of its *basic* and *fundamental* research outcomes, like the following, what would these same folks be saying, what would their tune be: electromagnetism (TV, radio), quantum mechanics (modern electronics, semiconductor devices, X-rays, MRIs, etc), general relativity (GPS; fluid mechanics: think missiles and torpedos)? What would happen if all of these *fundamental research* discoveries had been patented, copyrighted and “intellectual property-ed”?! Science, Physics in fact, would definitely not need any government support today, nor run the risk to have DOE’s budget completely slashed (regarding research support).
  • And, the cherry on the top of this piece, is the constant comparison with the Dark Ages, with the Medieval Times… seriously: the world really did not change since then?! Over 300 years have passed and the best these 3 gentlemen can do is propose a “market” as it was done over 3 centuries ago? This is their *very best* solution to address their “problem”? Do they even understand that the very concept of “market” has changed in these 3 centuries? Do they understand that the very core of their issue is exactly the grasping to understand what the “Web” really means and how to best use it? Do they realize that people don’t quite know what to do with this deluge of information and possibilities coming from the Web? :sigh: 😦

O futuro da revisão-por-pares…

terça-feira, 8 fev 2011; \06\America/New_York\America/New_York\k 06 2 comentários

Depois da invenção dos arXivs, o problema de distribuição de publicações científicas foi efetivamente resolvido. Dessa forma, o papel dos jornais acadêmicos ficou essencialmente resumido à revisão-por-pares. Ou seja, no frigir dos ovos, o valor agregado que as jornais acadêmicos acrescentam aos artigos é apenas a revisão-por-pares, uma vez que a distribuição desses artigos não é mais problema na Era da Informação.

[N.B.: Pense em termos de uns 400 anos atrás, na época de Galileu: era preciso um manuscrito viajar de cavalo ou barco para que sua distribuição fosse efetivada. Claro que as coisas melhoraram com o correio moderno e com a invenção dos aviões… mas, no final das contas, o processo de distribuição continuava o mesmo em sua natureza: era preciso haver uma mudança física, mecânica, de um lugar para outro. Hoje em dia isso não é mais verdade: organizar, colecionar e distribuir artigos é uma tarefa essencialmente trivial: o exemplo dos arXivs sendo o mais gritante, e PLoS sendo um segundo exemplo. Infelizmente, eu não conheço nenhum esforço dessa natureza Free-Open Access nas Humanidades nem nas Ciências Sociais: seria muito interessante conhecer esforços nessas direções.]

Entretanto, atualmente há também um movimento para “aliviar” os jornais acadêmicos inclusive dessa atividade:

Felizmente (ou não 😛 ), esta não é uma idéia nova: esforços nesta direção já têm sido promovidos há anos. Vejam os exemplos abaixo,

Esses esforços costumam vir sob o nome de Ciência 2.0 — apesar de que, atualmente, já está se falando em Ciência 3.0!

[N.B.: Resumidamente, o “2.0” significa a incorporação das ferramentas de Web 2.0, enquanto que o “3.0” significa que metadata é usada de modo “decente” (ie, como a coisa foi designed para funcionar 😉 ).]

Mais ainda, há movimentos em direções ainda mais ambiciosas, como os abaixo,

Tanto o MathJobs quanto o AcademicJobsOnline têm o intuito de organizar e facilitar a busca de empregos (postdocs, professores, etc) em Matemática e Ciências em geral, respectivamente. Isso tem melhorado o processo infinitamente: antigamente, era preciso se escrever cartas de aplicação para diversas (até centenas!) e instituições; hoje em dia basta vc carregar seu material nesses sites e selecionar os empregos que vc gostou — o resto acontece automaGicamante. 😎

De fato, nossa Era Digital trouxe ferramentas absolutamente fantásticas, que conectam o mundo da pesquisa de modo nunca d’antes navegado… Claro, como toda espada, esta também tem dois gumes: o ‘lado negro’ de toda essa facilidade e conectividade é o atual campo da cienciometria, onde se acredita que é possível se mensurar “criatividade científica” através de índices que, na melhor das hipóteses, são apenas parciais (ie, são índices cujo significado estatístico é questionável).

Enfim, este é um momento bastante conturbado… mas que certamente não deixará “pedra sobre pedra”. 😉

This post translated to English (en_US) (courtesy of Google Translate).

Café científicos levando ciência para o público leigo…

terça-feira, 8 fev 2011; \06\America/New_York\America/New_York\k 06 3 comentários

Está aí uma iniciativa excelente que está demorando para go viral:

Os Cafés Científicos são uma idéia que, pessoalmente, eu considero brilhante: um cenário informal, relaxado, onde as pessoas podem ouvir algum palestrante falar sobre Ciência — e, melhor ainda, depois da palestra, debater sobre o que foi dito. Aliás, de fato, o foco é maior no debate do que na palestra propriamente dita: a idéia é passar a informação de modo bem objetivo e, depois, deixar a platéia guiar a discussão.

Quem faz Ciência sabe: deixar a curiosidade ( ❗ ) guiar o debate científico é uma das formas mais entusiasmantes de se fomentar a criatividade. Essas digressões tangenciais que aparecem a todo momento nesse tipo de discussão são fundamentais pra se ‘mapear’ o ‘espaço’ do assunto sendo atacado. Quem não conhece, pode achar esse approach meio caótico… mas, é um método excelente pra se obter uma ‘imagem’ do objeto em questão.

O realejo do dia…

quinta-feira, 27 jan 2011; \04\America/New_York\America/New_York\k 04 5 comentários

Será que é preciso mudar alguns paradigmas de Educação?

Algumas perguntas:

  • “O que o vídeo acima implica sobre a ‘logística escolar’ (como comparar a ‘linha de montagem escolar’ com a ‘linha de montagem da Toyota’)?”
  • “O que o vídeo implica para esforços de Open- e Free-Access?”
  • “O que o vídeo implica para estudos multi- e inter-disciplinares?”
  • “O que o vídeo implica sobre Science2.0 e 3.0?”
  • “O que o vídeo implica sobre as ‘propriedades de escala’ dos nossos sistemas de administração (educação, saúde, segurança, etc)?”

Muitos (senão todos) dos métodos que temos hoje sobre governança e administração evoluíram dos originais criados para administrar nações de cerca de alguns [poucos] milhões de pessoas — o que fazer, então, quando as nossas nações têm centenas de milhões de pessoas?! Será que esses mecanismos escalam de modo apropriado?

P.S.: Só pra apimentar: Why Our Best Officers Are Leaving — Será que estamos escolhendo e mantendo nossos melhores cientistas? Será que há problemas em comum com os relacionados neste artigo? Como este artigo se relaciona com o vídeo acima?

Robust Discretization Schemes…

quarta-feira, 26 jan 2011; \04\America/New_York\America/New_York\k 04 3 comentários

ResearchBlogging.org

Today, the following article came up on the arXivs:

This is all fine and dandy… but my question is: “How does this paper (above) compare to the following”:

That is, GR is naturally written in terms of [pseudo-]differential forms (aka tensor densities), so the methods described above should be very appropriate to attack the problem of discretizing the path integral in such a way as to retain its symmetries.

» Robert Oeckl (2005). DISCRETE GAUGE THEORY: From Lattices to TQFT World Scientific eBooks, 1-216 DOI: 10.1142/9781860947377

Miami 2010…

domingo, 12 dez 2010; \49\America/New_York\America/New_York\k 49 1 comentário

This week I will be at the Miami 2010, so I will try and “live tweet” the conference, with some comments and pictures — the hashtag will be #miami2010.

If anyone is interested, here’s the talk I am giving on tuesday (2010-Dec-14, right after lunch 😉 ),

😈

Updated (2010-Dec-15): Here are the notes to my talk, mostly of stuff that was said and is not in the PDF above,

Telescópio de Paranal: 360º, noite…

quinta-feira, 9 dez 2010; \49\America/New_York\America/New_York\k 49 Deixe um comentário

Neurociência e o Projeto Ersätz-Brain…

quarta-feira, 8 dez 2010; \49\America/New_York\America/New_York\k 49 Deixe um comentário

ResearchBlogging.org

Bom pessoal, como anunciado anteriormente, vamos falar um pouco sobre um certo aspecto da Neurociência: o da modelagem de redes neurais via sistemas dinâmicos, modelo de Potts e, por que não, teorias de gauge (cf. What is a gauge?, Gauge theories (scholarpedia), Preparation for Gauge Theory e Gauge Theory (José Figueroa-O’Farrill)).

O nome-do-jogo, aqui, é Projeto Ersätz-Brain, e a idéia é a de se construir uma “arquitetura” análoga a de um cérebro para aplicações cognitivas. A base dessa arquitetura são as estruturas de audição e de visão do cérebro: ao contrário do que ingenuamente se imagina, ambas essas estruturas são altamente hierarquizadas e distribuídas. Ou seja, grupos diferentes (e espacialmente distribuídos) de neurônios lidam com ‘pedaços’ diferentes da informação sendo recebida, enquanto que um outro grupo de neurônios “integra” essas informações, numa camada hierárquica superior as anteriores.

Então, a motivação é a de se construir uma arquitetura distribuída e hierárquica — ou, no jargão que nós usamos, uma “rede [neural] de redes [neurais]”: ou seja, estamos dando um passo na direção da “recursividade” da arquitetura usual de redes neurais. Alguns chamariam tal passo de meta redes neurais” e outros de rede neurall Gödeliana, ambos os nomes aludindo à natureza auto-referencial da arquitetura: “redes de redes”.

Pra dar um exemplo concreto dum problema que estamos atacando atualmente, vamos pensar em termos do Código Morse: imagine que o nosso EB é como uma criança que ainda não aprendeu a falar e se pergunte: “Como é que uma criança aprende um idioma?” Agora vamos fazer de conta que o idioma não é uma das línguas faladas ao redor do globo, mas sim Código Morse… e, ao invés de termos uma criança, temos uma arquitetura de redes neurais, um EB. 😉

O que a gente pretende fazer é colocar um sinal de código Morse como dado de entrada para o EB e, do outro lado dessa “caixa preta”, tirar a mensagem descodificada. O EB tem que aprender código Morse e identificá-lo com os símbolos usuais do alfabeto, pra assim poder dar como saída a mensagem apropriada.

Quem está acostumado com o paradigma usual de redes neurais e Teoria de Hebb já deve ter percebido que esse tipo de approach não vai funcionar no caso do EB. A pergunta, então, se põe sozinha: “E agora, José?” 😉

O insight é não pensar em termos de “memória”, mas sim em termos de “dinâmica de informação”. Ou seja, ao invés de tentarmos ficar memorizando padrões em cima de padrões, pra depois associar a outros padrões, e assim por diante… a idéia é se notar que, assim como em Teorias de Gauge, há muita informação repetida e muito ruído nesse problema. Então, se Teorias de Gauge funcionam tão bem na Física… por que não tentar implementar um pouco delas em Redes Neurais?! 😈

É exatamente isso que estamos fazendo atualmente, criando um modelo para o EB em termos de Teorias de Gauge. Ou seja, há dois tipos de “dinâmicas” em jogo, uma “interna” e outra “externa” (por falta de nomes melhores). A “interna” é como a simetria de gauge em Física, e fornece a dinâmica dos graus-de-liberdade das partículas de gauge, enquanto que a “externa” é a dinâmica dos campos propriamente ditos. Dessa forma a gente estabelece dum modo bem claro uma relação de ‘recursividade’: a dinâmica “interna” determina o estado “externo” e vice-versa (num sistema de feedback).

Então, a gente pode pensar num Modelo de Potts com 3 estados: ponto, espaço, e ‘espaço branco’ (entre palavras). Esses 3 estados estão sujeitos a uma certa “dinâmica interna” — à la BSB, cf. Learning and Forgetting in Generalized Brain-State-in-a-Box (BSB) Neural Associative Memories — que é descrita por um sistema dinâmico (BSB), e o resultado dessa dinâmica “interna” seleciona um determinado estado para a dinâmica “externa”, que é guiada, por exemplo, por uma dinâmica do tipo BSB também (mas pode ser algum outro tipo, isso não é muito relevante no momento).

Pra apimentar ainda mais esse paradigma, nós estamos implementando ‘operadores de nós’ (knot operators), que são estados topológicos e robustos perante uma gama de “perturbações” do EB. Como esses estados são robustos, é fácil transportá-los hierarquicamente, de um nível hierárquico para outro. O que leva a algumas especulações bastante não-triviais sobre o “aprendizado” do EB — ao contrário do que é normalmente feito em “Teoria Habbiana”.

Bom, por enquanto é só… quem quiser ler um pouco mais sobre o trabalho, pode dar uma olhada num artigo (um pouco antigo, é verdade — o novo vai sair quando eu acabar de escrever 😉 ) disponível no livro abaixo:

Żak, S., Lillo, W., & Hui, S. (1996). Learning and Forgetting in Generalized Brain-state-in-a-box (BSB) Neural Associative Memories Neural Networks, 9 (5), 845-854 DOI: 10.1016/0893-6080(95)00101-8

História do Mundo, em menos de 5 minutos…

quarta-feira, 1 dez 2010; \48\America/New_York\America/New_York\k 48 1 comentário

Hans Rosling ataca mais uma vez! 😈

Reconstrução 3D via fotos…

sábado, 27 nov 2010; \47\America/New_York\America/New_York\k 47 Deixe um comentário

Só pra animar um pouco esse sábado cinzento daqui, aqui vai uma notícia bem legal: 3-D mashup of Rome from Flickr pics.

Ou seja, fizeram uma reconstrução 3D — de monumentos em cidades como Roma e Berlim — a partir de fotos disponíveis publicamente (e.g., Flickr e Google Images). Tecnologia sensacional! 😈

[N.B.: Versão no Twitter.]

SciBloWriMo…

segunda-feira, 8 nov 2010; \45\America/New_York\America/New_York\k 45 1 comentário

O mês de Novembro é conhecido no meio literário como NaNoWriMo, National Novel Writing Month.

Um pessoal da Matemática decidiu pegar carona nessa idéia de criar o MaBlogWriMo: Math Blog Writing Month. A idéia, como descrita no link, é a de se escrever todo dia um post com até 1.000 palavras sobre matemática. 😎

Então, parafraseando ambos esses eventos, vou começar o SciBloWriMo: Science Blog Writing Month! 😈

Eu vou aproveitar que vou dar uma palestra na conferência Miami 2010 e pegar uma carona pra falar dum tema que eu já venho trabalhando há algum tempo: o espaço de soluções (aka moduli space) de teorias quânticas de campo e suas simetrias. Esse será um dos temas do SciBloWriMo aqui no AP.

O outro tema é o de um trabalho que eu venho realizando atualmente, em colaboração com um pessoal da Neurociência, sobre o funcionamento hierárquico e maçissamente paralelo do cérebro, chamado Ersätz-Brain.

Assim que os posts forem ficando prontos, eu os linko aqui,

  • Álgebra, Teoria da Representação e Picard-Lefschetz;
  • Neurociência e o Projeto Ersätz-Brain: Teoria de Gauge, Variáveis de Nós e o Funcionamento Hierárquico do Cérebro.

É isso aí: espero que ninguém esteja com medo do frio! 😉

Verdades, mentiras e estatisticas na campanha eleitoral

quarta-feira, 13 out 2010; \41\America/New_York\America/New_York\k 41 3 comentários

Peço licença aos meus co-blogueiros para falar sobre as eleições presidenciais. Uma vez que eu não vou emitir nenhum juízo sobre nenhum dos candidatos, nem explicitar preferência alguma, creio que não há problema. Na verdade o tema eleitoral é só uma desculpa para falar sobre estatística :P. Caso haja problema, por favor me avisem.

Nessa campanha presidencial – como, aliás, deve ser em qualquer campanha eleitoral – tem acontecido uma fenômeno interessante nas propagandas e discursos de aliados de cada um dos candidatos do segundo turno. Ambas as campanhas tentam comparar os governos de Lula e FHC apresentando todo tipo de números e estatísticas. O interessante é que o cenário parece estranhamente ambíguo: para cada estatística que mostra Lula melhor que FHC existe outra que mostra o exato contrário. Para dois exemplos interessantes desse tipo de campanha, veja esses dois links:

Esse fenômeno pode parecer estranho para os espectadores da campanha menos acostumados aos números. Afinal, quem foi melhor para o ensino superior, FHC que aumentou o número de matrículas ou Lula que criou mais universidades? Quem diminuiu mais a pobreza, FHC que aumentou 4 vezes mais o IDH ou Lula que criou 3 vezes mais empregos?

Não há nada de estranho aí. O que está por trás dessa estranheza é uma falácia estatística que pode ser chamada “falácia do atirador”. Imagine um homem que quer demonstrar que é um excelente atirador e te mostra um alvo pintado em um campo de tiro, com 10 tiros certeiros na mosca. Você pode achar que ele é um grande atirador mesmo, mas sabe como ele produziu esse resultado?

O atirador ergueu uma enorme parede de madeira, de 10 metros de largura e 5 de altura, colocou-se na posição de tiro e descarregou 500 tiros contra a parede, sem tentar mirar particularmente em nenhuma posição. Claro que depois disso a parede estará cravejada de buracos e em alguns lugares haverá buracos de tiro mais próximos um dos outros. O atirador escolhe convenientemente 10 buracos que, ao acaso, ficaram bastante próximos entre si e desenha e pinta o alvo em torno deles. Então ele corta o resto da madeira e recoloca o alvo em sua posição original, com 10 tiros “certeiros” na mosca.

O homem não é um excelente atirador. Ele apenas escolheu o alvo depois de ter os resultados. Ele selecionou os “bons” resultados e descartou os ruins. Ele transformou uma distribuição bastante larga em uma distribuição mais estreita apenas descartando certos resultados e mostrando outros.

Como isso se aplica à campanha eleitoral?

Para cada aspecto de um governo que você queira avaliar, existe um sem número de estatísticas que podem ser usadas. Se, por exemplo, eu quero avaliar a evolução da renda, posso mostrar o crescimento do PIB per capita, ou de algum índice de salários, ou da fração do PIB correspondente aos salários, ou quanto subiram os salários em comparação com a taxa básica de juros, ou comparar com taxas “reais” praticadas no mercado. Posso comparar esses números em dólares ou reais, posso comparar o poder aquisitivo real, ou quanto essa renda compra de uma certa cesta de produtos essenciais. Posso focar apenas no crescimento da renda da classe C, ou em quanto cresceu (ou caiu) a razão da renda da classe C pela renda da classe A. Posso comparar quantos bens de consumo essenciais as pessoas conseguem comprar, ou posso comparar quanto o crescimento de suas rendas se compara com o rendimento de um certo investimento padronizado. Todas essas são formas de comparar quanto a renda cresceu.

Deu para perceber que existe um grande número de estatísticas para comparar dois governos, mesmo que fiquemos apenas no restrito conjunto de estatísticas referentes ao aumento da renda. Se eu comparar todos esses números entre o governo A e o governo B, alguns resultados serão pró-A e outros serão pró-B. É natural que seja assim por uma razão simples: há uma flutuação incrível nesses números. Flutuações temporais, flutuações causadas por diferentes metodologias ou mesmo flutuação que resulta do processo de amostragem. A incerteza nesses números as vezes é muito grande, e medidas em semanas diferentes podem causar flutuações de vários pontos percentuais. Não temos um valor determinado para esses números, temos uma distribuição de probabilidades que representa o quanto sabemos sobre eles. E essa distribuição é relativamente larga.

Então existe uma probabilidade de que cada estatística seja pró-A ou pró-B, ainda que os governos A e B tenham sido mais ou menos parecidos. E mesmo que o governo A tenha sido muito melhor que o governo B em certo sentido, ainda assim teremos uma certa probabilidade de ter um certo número de estatísticas pró-B. Mas eu sempre posso escolher que fração das estatísticas que eu pretendo mostrar será pró-A ou pró-B. Eu posso apenas mostrar 100% de estatísticas pró-A e argumentar assim que o governo A foi incrível. Isso é bem ilustrado pela famosa propaganda da Folha de São Paulo de alguns anos atrás, em que se apresenta diversas estatísticas positivas do governo de Adolf Hitler na Alemanha, que certamente foi um governo desastroso!!!

Então é impossível comparar dois governos com estatísticas? Claro que não. É perfeitamente possível. Apenas é necessário fazê-lo de forma sistemática, com métodos claros, com padrões e referências bem definidos. Existem procedimentos para se evitar a falácia do atirador em estudos estatísticos. Por exemplo, pode-se escolher que estatísticas serão calculadas de antemão, antes da colheita de dados, de acordo com um método bem definido. Isso evita que se “desenhe o alvo” em torno do resultado desejado. Pode-se fazer uma análise de sensitividade, mostrando que ainda que a metodologia fosse diferente, o resultado não seria tão diferente assim. Enfim, existem técnicas para isso.

Mas isso é algo que campanhas eleitorais nunca serão capazes de fazer. Elas são enviesadas por princípio, a cesta de índices que escolhem para mostrar é viciada e sua interpretação errônea e vazia. E isso vale para qualquer campanha, independente da orientação ideológica do candidato. É inevitável. Não chega nem a ser desonestidade, é da natureza da propaganda. O ideal seria que, ao invés de usar os números de forma leviana, fossem contratados estatísticos profissionais e neutros para criar essas análises. Mas isso nunca vai acontecer. 😉

O melhor é que o eleitor esteja atento às formas com que os números podem ser usados contra ele. Números adequadamente escolhidos podem defender qualquer estória que se deseje contar. Mas não fique achando que toda estatística é resultado de manipulação. Há métodos adequados para se evitar a manipulação, mesmo a manipulação involuntária.

Há uma citação de natureza ética difundida entre os estatísticos adequada para fechar essa discussão. Infelizmente não me lembro o autor ou a exata fraseologia, mas a essência é: é sempre possível mentir usando a estatística, mas é impossível dizer a verdade sem ela.

A física da pesquisa e a física da sala de aula

quarta-feira, 29 set 2010; \39\America/New_York\America/New_York\k 39 2 comentários

Disclaimer: esse post é uma opinião muito pessoal de seu autor, e pode ser que os outros membros do blog não concordem.

Como eu já disse por aqui, eu fico bastante entusiasmado com a idéia de cursos abertos online e disponibilização de material em vídeo, como na iniciativa OpenCourseWare, por exemplo. E eu sou um usuário adicto desses materiais. Já devo ter ouvido as aulas de mais de uma dezena desses cursos, por diversão mesmo, em áreas muito diversas (história, estudos religiosos, biologia, antropologia…). Mas não comecei esse texto para falar desses cursos, mas para falar de algo que esses cursos me fizeram notar a respeito de uma diferença fundamental entre o ensino de física e o ensino em outras áreas do conhecimento, de forma particular, mas não restrita, nas ciências médicas e biológicas.

Para exemplificar o que quero dizer, vou me referir à terceira aula do curso de biologia geral dado na primavera de 2010, na Universidade da Califórnia em Berkeley, cujas aulas em vídeo e éudio estão disponíveis para download no site de webcasts da universidade (http://webcast.berkeley.edu). Em certo ponto dessa aula, a professora diz “e realmente nos últimos 5 ou 6 anos muita pesquisa foi feita para entender a estrutura interna e função do ribossomo, e eu vou mostrar para vocês uma imagem…” e passa a discorrer sobre assunto de pesquisa muito recente, sobre o qual ainda há dúvidas e questões em discussão. Cenas como essa são comuns em todos os cursos que ouvi. Assuntos de pesquisa são citados na sala de aula rotineiramente e discutidos nos trabalhos e dissertações que os alunos tem de entregar para ser avaliados. Isso me chocou. Me chocou como algo completamente alheio com a minha experiência de sala de aula, que acredito ser não muito diferente da experiência de todos os físicos formados no Brasil, e provavelmente no mundo todo. É inconcebível na nossa experiência que um professor de Física I (ou de Physics 101) entre na sala de aula e dê como exercício de casa a uma turma mista de dezenas e dezenas ingressantes de diversos cursos – engenharia, física, química, … – a leitura de um artigo de pesquisa publicado a menos de 10 anos. Nenhum assunto discutido em uma aula de física, mesmo nos últimos anos da faculdade, é mais recente do que a década de 40. Em compensação, poucos assuntos discutidos em uma aula de biologia celular são mais antigos que a década de 70, e muitos tem menos de 10 ou 15 anos de idade! E por que é assim?

Tudo bem, há uma série de explicações muito plausíveis para isso. Talvez a mais forte seja que os conceitos físicos e as ferramentas matemáticas usadas na pesquisa são muito mais avançados do que os que estão sendo estudados na graduação, e que é necessário um período longo de treinamento para sair da primeira aula sobre as leis de movimento de Newton e chegar na mecânica quântica, passando por todos aqueles passos intermediários. A maturação de um físico é um processo longo e lento, nessa visão. Vai da primeira aula de Física I até mais ou menos o meio do doutorado. A física é uma ciência mais antiga e madura, dizem os que defendem essa idéia, e um estudante de física tem que estudar toooodas essas coisas com detalhes, desde o nascimento da mecânica newtoniana até a mecânica quântica e suas aplicações mais elementares. Além disso, um ingressante em física ainda não foi exposto nem ao ferramental matemático básico para prosseguir aprendendo física – o cálculo, a algebra linear e etc…

Apesar de acreditar que há alguma verdade nisso, sinceramente acho que ela é exagerada e super-simplificada pela típica autosuficiência e arrogância dos físicos (eu me incluo nessa conta) e pela inércia do sistema educacional. Faz anos que é assim, foi assim que fizemos no passado, é assim que faremos no futuro porque é assim que se ensina física. E bem, veja só, é mais difícil aprender física, não é?

Não. Não é. Sinceramente, não é. Aprender biologia pra valer é tão difícil quanto aprender física. Ou mais! Pode ter um pouco menos de matemática, mas nas duas ou três primeiras aulas do curso introdutório para a graduação da UC Berkeley que assisti já há uma série de mecanismos celulares complicados, relações entre as organelas, estruturas moleculares complicadas, como as isomerias e as simetrias afetam a função das moléculas, e se o carbono alfa está assim, então a isomeria faz com que o poro da membrana nuclear fique assado… 😯 😯 😯

Não é fácil, definitivamente. E não é “coleção de selos”, é uma sequencia lógica de mecanismos e estruturas bem entendida até certo ponto. Eu não estou acompanhando direito.

Porque um ingressante de biologia está pronto para discutir a biologia molecular dos poros da membrana nuclear de maneira tão detalhada e um estudante de física não está pronto para discutir fenômenos críticos e transições de fase, ou entender, pelo menos num nível qualitativo, o que é decoerência, o que são teorias de campo conforme e porque a correspondência AdS/CFT é tão importante, quais são as alternativas para explicar energia escura, porque o grafeno é um material tão especial, porque é tão difícil ter materiais semicondutores que sejam ferromagnéticos, o que a física por trás de folding de proteínas tem a ver com a física de cristais magnéticos, quais são os melhores candidatos para física além do modelo padrão, como podemos detectar radiação Hawking?

E se tocamos nesse assunto, porque não ir mais fundo? Se os estudantes de física não chegam à metade do século passado, os estudantes do colegial param muito antes disso. A física que fingimos ensinar nas escolas tem pelo menos 150 anos de idade, e é absolutamente inútil para essas pessoas da forma como é ensinada, em todos os aspectos. Não estimulam curiosidade científica, não as ajudam a entender o ambiente tecnológico em que vivem, não fornecem ferramentas de trabalho úteis e nem as preparam para a universidade.

O ensino de Física está, em minha opinião, caduco em todos os níveis e precisando de urgente reforma. E quanto mais a pesquisa avança, mais urgente essa mudança se torna. Se queremos pessoas prontas para integrar os quadros de pesquisa, se queremos estudantes motivados e se queremos desenvolver o quanto antes o gosto pela pesquisa, precisamos forçar a fazer o que os biólogos fizeram de forma natural, e trazer a física da pesquisa de volta para as salas de aula.

Comunidades e Grupos Criativos dentro da Ciência 2.0…

sexta-feira, 30 jul 2010; \30\America/New_York\America/New_York\k 30 Deixe um comentário

Eu pretendo expandir esse post com comentários e observações pertinentes. Mas, por enquanto, vou usá-lo como um ‘cabide’ para os links abaixo, que são muito interessantes e já vêm me atiçando há tempos pra escrever esse post (eu ando sem tempo 😛 )

No intuito de tornar essa experiência criativa ainda mais interativa, não posso esquecer de mencionar o TwitCam e o TwitVid: enquanto o TwitCam é um serviço em tempo real (incluindo um campo para interação com a audiência via Twitter), o TwitVid é um serviço nos moldes do YouTube (mas com um limite maior para o tamanho do vídeo 😉 ).

Uma outra plataforma para interação em tempo real, com um bom grupo de funcionalidades, é o EVO. Aliás, aqui no AP, nós já tentamos usar o EVO para os Encontros do Ars Physica.

Bom, esse é o amontoado de idéias desconexas que eu tinha pra deixar por aqui… por enquanto… 😈

Atualizado (2010-Jul-31 @ 2240h EDT): O Carlos Hota escreveu um post interessante no blog dele, e eu deixei um comentário bem grande… nos moldes do que eu queria ter escrito aqui: não coloquei aqui, mas pus lá. 😎

Relendo o texto, agora, acho que poderia tê-lo escrito melhor… mas, c’est la vie… Aí vai o link: Comentário sobre “aprendendo a voar”.

O realejo do dia…

domingo, 4 jul 2010; \26\America/New_York\America/New_York\k 26 Deixe um comentário

Simetria e Dualidade em Matemática e Física…

quarta-feira, 23 jun 2010; \25\America/New_York\America/New_York\k 25 Deixe um comentário

Semantic Web: Web 3.0…

domingo, 16 maio 2010; \19\America/New_York\America/New_York\k 19 Deixe um comentário

Quem quiser ver um pouco mais sobre o assunto,

O mais incrível disso tudo é que a idéia original do TBL sempre foi essa: usar metadata pra “organizar” e “concatenar” a informação. Entretanto, infelizmente, apenas agora (quantas décadas depois da “invenção” da web? 😛 ) a idéia original está sendo apreciada como se deve.

Fefferman: Conformal Invariants…

quinta-feira, 13 maio 2010; \19\America/New_York\America/New_York\k 19 Deixe um comentário

Estranha natureza da matéria escura

domingo, 25 abr 2010; \16\America/New_York\America/New_York\k 16 2 comentários


Fotografia em raios X da galáxia NGC 720 do telescópio Chandra da NASA (lado esquerdo) revelaram a estrutura de matéria escura da galáxia (foto óptica ao lado direito), que agora desfavorece a existência de interações da matéria escura causadas por um bóson escuro leve.
Quem acompanha o blog viu que no final de 2008, o satélite europeu Pamela apresentou qual o número de prótons e pósitrons que bombardeiam a Terra vindo da galáxia e descobriu que para energias acima de aproximadamente 10 GeV, o número de pósitrons começa a aumentar, enquanto o número de prótons continua a diminuir[1].
Como um pósitron consegue chegar a 10 GeV de energia, que corresponde a uma temperatura de 1014 K, quando a temperatura no núcleo do Sol é de apenas 107 K? De onde veio essa energia do próton?
Em 1949, Enrico Fermi mostrou que esse tipo de energia para raios cósmicos é natural[2]. Existem prótons e elétrons espalhados pela galáxia, que vieram de processos astrofísicos, largados aqui e ali por estrelas e supernovas. Eventualmente eles encontram o campo magnético que existe na galáxia e ficam presos, mas esse campo possui inomogeneidades, gradientes, e a partícula quando encontra um pico de intensidade do campo magnético recebe uma força maior que a média que a mantém presa no campo e acaba sendo liberada com uma energia maior. Quanto mais energética é a partícula, mais difícil é desviá-la do seu caminho, então podemos em primeira aproximação imaginar que os acréscimos são inversamente proporcionais a energia que a partícula já possuia antes de receber o pontapé do campo magnético. Então a probabilidade de observar uma partícula com energia E na Terra deve ser inversamente proporcional a sua energia,

 
P(E) \propto 1/E^\gamma

onde \gamma > 0 é um fator a ser determinado experimentalmente. Esse mecanismo de Fermi não poderia explicar o súbito crescimento do número de partículas com energias acima de 10 GeV observados no Pamela e no ATIC, e por isso o crescimento foi interpretado como um sinal de nova física.
Mas se esse excesso fosse devido a aniquilação de matéria escura na galáxia produzindo pósitrons, então a probabilidade de aniquilação de matéria escura teria que ser muito maior que o valor esperado no cenário de WIMPs. Por isso, Neil Weiner e colaboradores sugeriram que deveria existir uma nova partícula leve que só interage com a matéria escura, porque tal interação introduziria um fator de aumento na probabilidade de aniquilação da matéria escura que depende da velocidade do gás de matéria escura:

 
S = \displaystyle{\frac{\pi \alpha_X / v_\text{rel}}{1 - \exp(-\pi \alpha_X/v_\text{rel})}}

Infelizmente, este mês relata Jonathan Feng e colaboradores na Phys. Rev. Lett. que essa interação já está excluída devido ao formato das galáxias[3]. Motivados por estudos numéricos do formato dos halos de matéria escura quando se inclui interações[4], eles argumentam que a introdução de interação favorece a formação de halos mais esféricos do que aqueles que seriam formados desprezando interações, e então usam os dados sobre a elipsidade do halo da galáxia NGC 720 que foi estudado com as imagens de raios X do telescópio Chandra[5] e comparam com as simulações numéricas em função da intensidade da interação da matéria escura para restringir a seção de choque. O principal resultado deles é o gráfico da Fig. 1, que mostra que o valor do aumento da seção de choque S compatível com os dados do satélite Pamela não é compatível com o valor limite de S permitido pelo formato do halo de matéria escura de NGC 720.

Fig. 1, gráfico de S versus massa da partícula de matéria escura, da ref. 2. A região verde indica a parte favorecida pelos dados do Fermi, a vermelha pelos dados do Pamela. A linha tracejada indica o limite em S extraído da forma da galáxia NGC 720, e a linha azul da abundância de matéria escura. A discrepância se dá no fato que para produzir as regiões verde e vermelho, é necessário que a partícula intermediadora da aniquilação de matéria escura tenha massa 250 MeV, que já está excluído nesta região que requer uma massa de, no máximo, 30 MeV.

Esse resultado é consistente com a interpretação de que não há nenhum excesso no espectro de raios cósmicos, como os novos dados do satélite Fermi sugerem.

Referências

  1. Velhas e novas evidências da matéria escura
  2. E. Fermi, Phys. Rev. 75, 1169–1174 (1949).
  3. J. L. Feng, M. Kaplinghat, H.-B. Yu, Phys. Rev. Lett. 104, 151301 (2010).
  4. Romeel Davé et al. ApJ 547 574 (2001).
  5. David A. Buote et al ApJ 577 183 (2002).

Possíveis bactérias em lago de asfalto reacende chance de vida em Titã

domingo, 18 abr 2010; \15\America/New_York\America/New_York\k 15 7 comentários

Titã

Fotografia de Titã, uma das luas de Saturno, missão Cassini da NASA, julho de 2009. Exibe-se a reflexão da luz do Sol no lago de hidrocarbonetos da lua. As cores são reais.


Grupo de astrobiólogos alega ter encontrado evidência indireta de vida em lago de piche parco em água que possui condições similares a lua de Saturno, Titã, reacendendo a possibilidade da lua abrigar vida.

Um grupo de astrobiólogos liderado pelo Prof. Dirk Schulze-Makuch[1], da Universidade Estadual de Washington em Pullman, alega ter encontrado evidências indiretas de que há cerca de 10 milhões de bactérias por grama de betume em um lago natural de asfalto quente localizado em Trinidad e Tobago, conhecido pelo nome Pitch Lake (Lago de Piche)[2]. O achado é inesperado pois o lago é constituído primariamente de hidrocarbonetos a temperaturas de 32 °C a 56 °C com quantidade de água praticamente zero (em concentração menor que 0.01%, considerada abaixo do limite mínimo de água necessária para vida). O grupo atesta a existência dessa população de bactérias observando que a quantidade de isótopo de carbono 12 é desproporcionalmente maior que a do carbono 13[3] e identificando a presença de pelo menos seis aminoácidos. Para poder sobreviver, especula o grupo, essas bactérias devem estar realizando metabolismo sem água, respirando metais e degradando sem oxigênio algum ou alguns dos hidrocarbonetos presentes: metano, etano e propileno — características dramaticamente diferentes das formas de vida já conhecidas na Terra.

A: vista aérea do Lago de Piche em Trinidad, um dos maiores lagos naturais de asfalto do mundo. B: bolhas de asfalto quente na superfície do lago onde pode haver vida, mesmo praticamente sem água. Fotos do artigo ref. 2.

Isso suscita novamente a possibilidade de que exista vida em Titã, a maior lua de Saturno. Provavelmente um dos primeiros astrobiólogos a falar sobre vida lá foi Carl Sagan. Após as missões Voyager 1 e Voyager 2, ficou conhecido que a atmosfera da lua contém hidrocarbonetos e possui, assim como a Terra, a molécula de nitrogênio como principal constituinte. Sagan observou que Titã possui uma superfície sólida sobre a qual existe um lago de hidrocarbonetos, uma atmosfera com compostos orgânicos a uma pressão apenas 1,6 vezes maior que a da superfície da Terra, e gelo, ingredientes potenciais a vida ou pelo menos os estágios primários de vida. Em As Variedades da Experiência Científica, ele escreveu:

Agora, isto é um mundo que vale a pena visitar. O que aconteceu com essas coisas no decorrer dos últimos 4,6 bilhões de anos? Quão longe isso foi? Quão complexas são as moléculas lá? O que acontece quando há ocasionalmente um evento externo ou interno que aquece as coisas localmente e derrete um pouco do gelo para formar água líquida? Titã é um mundo gritando por exploração detalhada e parece ser um experimento em escala planetária nos primeiros passos que aqui na Terra levaram a origem da vida porém lá em Titã foram provavelmente congelados, literalmente, nas primeiras etapas, devido a escassez de água. [trad. livre minha]

Em 2005, o astrônomo Christopher McKay da NASA e Heather Smith[4] esquematizaram quimicamente como poderia existir uma forma de vida em Titã cujo metabolismo seria baseado em converter hidrocarbonetos em metano, parte do tipo de esquema que seria necessário para a existência de vida no Lago de Piche, segundo o achado do grupo de Schulze-Makuch. Este último também é um defensor de longa data da possibilidade séria de existir vida em Titã. Em contrapartida, no final de 2005, a sonda Cassini da NASA identificou que a proporção de carbono 12 para carbono 13 da atmosfera de Titã não sugeria vida, enfraquecendo a hipótese, pelo menos de formas de vida como se conhece na Terra.

Ainda assim, a descoberta no Lago de Piche pode permitir a investigação de organismos que vivem em condições similares a Titã, e desta forma aumentar o leque de condições aceitáveis a vida nas buscas astronômicas por vida extraterrestre.

Referências e Links

  1. Laboratory for Astrobiological Investigations & Space Mission Planning, Washington State University; Dirk Schulze-Makuch.
  2. arXiv:1004.2047 [q-bio].
  3. Como as formas de vida na Terra metabolizam 12C, excesso de 12C sobre 13C é considerado sinal de vida.
  4. C.P. McKay, H.D. Smith, Icarus 178 1 (2005).
  5. arXiv blog
  6. Cientistas defendem hipótese de haver vida em Titã, Folha de S. Paulo (04 de janeiro de 2006).
  7. Sítio da missão Cassini.
  8. Fotos diversas do Lago de Piche de Trinidad e Tobago.

Origem do universo e a seta do tempo

quinta-feira, 8 abr 2010; \14\America/New_York\America/New_York\k 14 10 comentários

Uma palestra interessante do Sean Carroll sobre o problema da seta do tempo, em novembro de 2009 na Universidade de Sidney:

http://sciencestage.com/v/21993/the-origin-of-the-universe-and-the-arrow-of-time.-sean-carroll.html

Parte do que se tornou o mais recente livro do Sean. 🙂

Sean acredita que é possível demonstrar a segunda lei da Termodinâmica, no sentido de que a entropia deve crescer no tempo. Um ovo sempre vira um omelete, ele diz, mas não o inverso. No entanto, o ovo veio da galinha, mas de onde veio a entropia baixa do universo que permitiu ele aumentar em entropia com o passar do tempo?

Mas eu fiquei confuso com o argumento do Sean. Primeiro, ele diz que é possível demonstrar a segunda lei da Termodinâmica. Mas logo em seguida, ele diz:

“[Boltzmann] explica porque se você começar com menor entropia você vai para maior entropia. Mas claramente deixa uma pergunta sem resposta: por que o sistema começou com baixa entropia? (…) É fácil prever usando apenas as idéias de Boltzmann que começando hoje a entropia amanhã será maior. É impossível usando apenas as idéias de Boltzmann dizer porque a entropia era menor ontem. De fato, (…) como as leis da física são invariantes por reversão temporal, você pode provar que a entropia era maior ontem, do mesmo modo que você pode provar que ela será maior amanhã.”

Carroll parece está concordando, no final, com o conhecido paradoxo de Loschmidt (como eu falei neste outro post.), ou, de forma mais transparente na minha opinião, com o fato que, até onde eu saiba, a única equação que parece mostrar uma característica de crescimento no tempo para a entropia é o enunciado do teorema H, e esta equação é também simétrica por inversão temporal, tendo portanto duas possíveis soluções para qualquer processo físico: aumento de entropia ou diminuição de entropia, como função do tempo. A única forma de obter uma única solução para todos os processos físicos, é assumir que não é válida a inversão temporal na equação do teorema H. Contudo, isso está em conflito dentro da minha cabeça com a idéia de que a segunda lei da Termodinâmica pode ser provada.

Além desse argumento confuso, que eu até o momento não consigo concordar, eu tendo a apontar dois outros problemas com essa idéia:

  1. entropia é uma escolha de descrição estatística de sistemas, portanto é estranho dizer que o efeito só aparece por causa de uma escolha de descrição. Em princípio seria possível calcular exatamente a evolução temporal de um gás sabendo as velocidades iniciais e posições de todas as moléculas, e só existiria um único estado microscópico do sistema em cada instante de tempo. É apenas uma questão de escolha de descrição — ou aproximação fisica útil — fazer uma média temporal sobre os estados do sistema e então contar todos os estados possíveis que ele poderia estar, que é a descrição Termodinâmica. Seguindo o raciocínio de E. T. Jaynes, sabemos que essa descrição é de fato a melhor inferência estatística possível de ser feita dada um conjunto de conhecimento a priori e isso independente até mesmo da validade da Termodinâmica — i.e. de quão boa é essa aproximação estatística para a dinâmica do sistema. É muito difícil para mim acreditar que a seta do tempo desapareceria se nós tivéssemos um computador suficientemente poderoso para calcular a dinâmica de um gás ideal…
  2.  

  3. por que a gravitação parece desconsiderar essa simetria de inversão temporal? Pelo princípio de inversão temporal, para cada buraco negro, deve haver um buraco branco no universo, mas isso não é observado. O universo está em expansão com {\dot{H} < 0} e se {\dot{H} > 0} não ocorreria apenas uma inversão temporal como a positividade da energia de um gás ideal — que não é um teorema, mas um preconceito teórico bem razoável — seria violada. Em termos de teorias de campo em universos em expansão, isso se traduziria numa teoria que viola a unitariedade, com um sinal negativo para a energia cinética.

Contudo um ponto de encontro: eu acho que posso concordar com a questão reformulada da seguinte forma: porque existe uma condição de contorno para a equação do teorema H de que o valor inicial da entropia é menor que o final? Isso é apenas uma reformulação do problema.

Encontros do Ars Physica

sábado, 27 mar 2010; \12\America/New_York\America/New_York\k 12 6 comentários

Olá a todos,

Hoje tivemos nosso primeiro encontro via video conferência do Ars Physica / Comunidade Física do Orkut. Foi muito interessante e conseguimos organizar a estrutura dos nossos futuros encontros.

Nós faremos algo como um Journal Club. Cada semana, um dos participantes fará uma apresentação sobre um tópico de interesse acadêmico. O objetivo é que as pessoas apresentem sobre aquilo que estão fazendo no seu curso de graduação (IC) ou pós-graduação (mestrado, doutorado). Todos farão um esforço para fazer com que a apresentação atinja o maior espectro de público possível.

Os encontros ocorrerão na comunidade Universo do EVO. Eu agendei os encontros para todo sábado, de 15:00 às 16:30 (BST – Horário de Brasília) sob o título:

Título: Ars Physica Meeting
Password: fisicaorkut

Para participar você precisa criar uma conta no EVO (siga o link) e abrir o software Koala. As apresentações terão formato livre e a idéia original é que elas tenham em torno de 45 minutos + 15 minutos de perguntas. Claro que as pessoas poderão continuar depois disso, mas essa proposta é para tornar os encontros mais organizados. Todas as apresentações serão em português.

Para dar o ponta pé inicial, eu farei a primeira apresentação no próximo sábado. Já temos um calendário inicial tentativo com apresentações por mais de um mês. Os palestrantes e o título da palestra serão apresentados durante a semana antes da apresentação. Eu usarei o Google Calendar do Ars Physica (ou veja na barra lateral desse blog) para isso.

Eu vou cuidar do calendário e de lembrar os palestrantes algumas semanas antes das suas apresentações. Por favor, eu sei que imprevistos acontecem, mas vamos tentar manter a regularidade dos encontros. Eu também vou cuidar de armazenar os slides das apresentações que serão salvos em PDF e disponibilizados através de links na página do Google Calendar acima.

As apresentações serão gravadas e, se o autor permitir, divulgadas aqui na comunidade para que as pessoas possam discutir posteriormente. Para manter organizado, eu sempre utilizarei esse tópico do Orkut para registrar as apresentações já feitas e direcionar aos tópicos de discussão. É possível que em alguns dias não tenhamos apresentações, mas mesa-redondas sobre temas ou artigos previamente escolhidos, nesse caso eu não gravarei.

Todos estão convidados a participar e eu espero que muitos se disponham a dar palestras. Não fiquem envergonhados e não precisam se preocupar com o nível ou assunto, contanto que seja sobre ciência, é de nosso interesse. Para marcar uma apresentação, entre em contato comigo por email rafael.lopesdesa@stonybrook.edu. Eu agendarei e reservarei um espaço num servidor para os arquivos da apresentação.

%d blogueiros gostam disto: