Arquivo

Archive for the ‘Futurologia’ Category

O Brasil no Chronicle of Higher Education…

sábado, 9 jul 2011; \27\America/New_York\America/New_York\k 27 7 comentários

O jornal The Chronicle of Higher Education é uma das referência no mundo da Educação Superior — assim como o Times Higher Education.

No começo da semana, o Chronicle publicou a seguinte matéria sobre o Brasil: Brazil Reaches Out. Essa reportagem também apareceu no Physics Today: Brazil reaches out (Physics Today).

Pra quem está com preguiça de clicar no link da Physics Today, aqui vai o comentário deles (em sua integridade):

Chronicle of Higher Education: The Brazilian government has announced that it will fund 75,000 studentships to study abroad, worth $30,000 each. Brazil’s university system is successful, but that success is not unqualified; scientific research is highly variable in quality, and there is a shortage of researchers. Student bodies of elite universities tend to be economically homogenous. The Brazilian government recognizes that the country’s higher education system will need to expand rapidly while improving in quality if it is to support the country’s economic growth: 7.5% last year, with another 4% predicted for 2011 despite the global slowdown.

O ponto principal da reportagem é o seguinte: o governo brasileiro anunciou 75.000 bolsas-de-estudos (para estudo no exterior) no valor de US$30.000 cada. (Posso estar enganado, eu até gostaria de ter mais informações a esse respeito, mas meu entendimento é que essas bolsas são para áreas onde não há possibilidade de se fazer a pesquisa no Brasil.)

Eu, confesso, tenho algumas dúvidas. Por exemplo, como esse valor de US$30.000 é calculado e aplicado para uma bolsa de doutoramento? A tuition (custo anual) das escolas pode variar muito: nos USA, para a pós-graduação, uma escola pública (e.g., UCLA ou UCSD, SUNY-SB, Rutgers, etc) pode cobrar cerca de ~US$20.000 para alunos estrangeiros (que claramente têm origem fora do estado onde essas escolas se localizam — a anuidade para residentes do estado é consideravelmente mais baixa: cerca de 25% do valor cobrado para quem vem de fora do estado), assim como uma escola privada (Harvard, MIT, Princeton, Brown, Chicago) pode cobrar até US$40.000 por ano! E isso não inclui o salário para o doutorando, que gira em torno de US$2.000/mês (i.e., cerca de ~US$21.000–US$24.000 por ano), dando um total de até ~US$65.000 por ano. Portanto, mesmo uma média simples entre os dois tipos possíveis de anuidades já dá o valor anunciado para as bolsas, cerca de ~US$30.000.

Claro, a situação na Europa é bem diferente e varia bastante de país pra país (e.g., Reino Unido, França, Alemanha). Então, eu imagino que os valores europeus vão ser um pouco mais baixos quando comparados aos valores americanos. Por outro lado, a conta européia vem em Euros, o que torna tudo cerca de 43% mais caro que a conta americana. Então, um custo de ~€21.000 se torna algo como ~US$30.000.

Mais ainda, quem conhece gente que foi pro exterior pago pelo CNPq, sabe o quão comum é o atraso do pagamento dessas pessoas…: muito mais comum do que deveria — às vezes vc recebe por 3 meses atrasados. De qualquer modo, essa já é outra questão, apesar de relevante pra pessoa que está do outro lado do oceano.

Fora isso, também é importante se colocar esses números em comparação com os dados do post Como a Ciência escapou da Foice do Orçamento — até agora. Em particular, os seguintes artigos são de extrema relevância: Brazil cuts its science budget e Brazil’s budget cut dismays scientists . Esses cortes não precisam, necessariamente, afetar as bolsas mencionadas acima. Entretanto, as pessoas formadas por este programa de bolsas vão necessariamente (por causa do contrato da bolsa) voltar para o Brasil — o que imediatamente traz a seguinte pergunta à tona: “Com esses cortes, será que haverá empregos para esses bolsistas? Ou será que eles simplesmente vão ficar desempregados depois de voltarem? Há planos para a absorção desses bolsistas?” E por aí afora…

Portanto, a notícia soa boa, mas sem os devidos detalhes fica difícil de se saber o quão realista isso tudo é.

Reproduzo aqui o artigo do Chronicle em sua integridade.

Brazil Reaches Out

July 5, 2011, 12:14 pm, By Nigel Thrift.

In Brazil on a delegation with the Deputy Prime Minister and the Minister of State for Universities and Science. As usual with these delegations, they tend to be a mixture of frenzied last-minute reorganizations and moments of formal ceremony. They certainly require serious stamina occasioned by crammed programmes and non-stop travel.

But this delegation was buoyed by the Brazilian government’s announcement of 75,000 studentships to study abroad over the next four years, each worth $30,000, of which the UK looks set to obtain a good number.

What is striking about Brazilian higher education its range and variety. There are numerous private institutions, some of which are of good quality. There are state universities. There are federal universities. There are a number of federal science and technology institutions like CAPES, along with many national institutes of science and technology. There are a number of companies (most notably Petrobras and Embraer) which have close associations with universities. I was able to visit the University of Sao Paulo, an august institution boosted by the fact that a proportion of the State of Sao Paulo’s sales tax goes to universities (other countries take note).

What became clear to me was that Brazilian higher education is now in a state of take-off. Brazilian research is often world class. It is the 13th biggest knowledge producer as measured by numbers of papers. In particular, Brazilian research in is paramount in fields like engineering and aspects of the biological sciences.

In a meeting with luminaries from the world of Brazilian higher education, what was clear was that they are bullish about the future and that the scholarship scheme is a tangible expression of that optimism, as well as a desire to diversify the locations in which students study (which are currently led by the United Sates and France).

What is very different from many other countries which are now in economic take-off is that Brazil already has a thriving university system which has achieved many successes. It needs to expand its higher education system rapidly but the goal that has been set for participation rates seems entirely possible. In fact, it is about the same rate of expansion as the UK has achieved over the last 30 years.

There are clearly still problems. For example, the elite universities tend to be populated by students from well-off backgrounds. But Brazil is hardly the only country that can be accused of that. Again, there is very considerable variation in quality. Again, Brazil is hardly the only country that can be accused of that. It has a shortage of researchers to match its ambitions. Once more, Brazil is hardly the only country that can be accused of that.

In other words, this cannot be seen as a situation in which a country needs “help.” Rather, it requires a partnership of equals in which the non-Brazilian partner realizes that the Brazilian partner has much more to offer than the prospect of studentships abroad. Those studentships are a sign off greater engagement but an engagement that will be a two-way process right from the very start.

As cidades mais científicas do mundo…

sábado, 19 mar 2011; \11\America/New_York\America/New_York\k 11 Deixe um comentário

O Physics arXiv blog publicou uma matéria interessante. Mas, antes de falar da notícia, eu tenho que avisar que não estou entre os maiores fãs desse blog — na verdade, minha opinião flutua bastante: alguns artigos são bons, outros ficam bem longe disso… mas, em todos os casos, o Physics arXiv blog é bem enviesado (a seleção dos tópicos que aparecem por lá deixa isso claro além de qualquer dúvida, isso pra não falar sobre o nível das discussões, sempre bem ‘passageiro’) — e isso sempre me incomoda muito.

De qualquer forma, e sem mais delongas… eis o artigo: Mashups Reveal World’s Top Scientific Cities. O original pode ser lido diretamente nos arXivs: Which cities produce worldwide more excellent papers than can be expected? A new mapping approach—using Google Maps—based on statistical significance testing.

A discussão no ‘Physics arXiv blog’ não passa de “mais do mesmo”: ciênci-o-metria. Infelizmente, perde-se a chance de se avaliar o artigo propriamente dito, escolhendo-se apenas notificar a “mensagem” contida no mesmo. Parece até mesmo um órgão de Relações Públicas, apenas alardeando e propagandeando.

O artigo propriamente dito é de tão baixa qualidade que a vontade que se tem é de apenas se repetir o adágio invisível, que diz que os artigos dos arXivs não escritos em [La]TeX são sempre de qualidade duvidosa — pior ainda quando são escritos em Word, ou algum editor de pior qualidade ainda; sem identação apropriada (quem ainda usa ‘identação à esquerda’, ao invés de ‘justificado’? :razz:): via de regra, a falta de atenção a esse tipo de detalhe num artigo costuma refletir a baixa qualidade do material escrito. Mas, como eu disse, esse é apenas um “adágio invisível”, uma unspoken rule, que não se vê, não se ouve, e cujo perfume não se sente. 😳 🙄

De qualquer forma, a máquina de salsicha continua na ativa: como se mensurar o imensurável: quais trabalhos científicos têm mais qualidade, quais são mais dignos de fomento, quais têm mais impacto na comunidade?

Todas essas são questões relevantes, claro, mas uma lição que a Ciência tem que aprender com a Arte é que a medição da criatividade é algo estupidamente difícil. Aliás, nem é preciso se apelar para o lado mais humanista desta questão: basta apenas se aprender Sistemas Dinâmicos corretamente (o que, de fato, parece ser algo tão complicado quanto nos dias de hoje). A razão deste meu argumento é bem simples: como se pode avaliar algo que possui resultados de médio a longo prazo (sem esperarmos por tal prazo)?

A resposta é simples: não é possível se avaliar nada que dependa de médio a longo prazo sem esperarmos tal prazo passar e medirmos o resultado efetivo do que se deseja avaliar. Ou seja, precisamos esperar o tempo passar pra podermos sequer ter a chance de sermos justos nesta empreitada! Ou seja, falando um pouco mais rigorosamente, é preciso termos acesso a todos os dados para podermos conhecer o problema de modo completo.

Infelizmente, com a idéia de que as Universidades devem ser “profissionalizadas” (sabe-se lá o que isso significa :razz:) e, mais ainda, de que toda a empreitada científica deve ser “profissionalizada”, todo esse tipo de questão métrica se torna relevante: como se pode escolher aquilo que há de “melhor” para se fomentar? Assim como numa empresa, numa linha de montagem, é preciso haver alguma forma de “selo de garantia”, alguma forma de “controle de qualidade”. (Note que não estou falando do processo de ensino de estudantes, mas sim de pesquisa científica — falar de ensino por si só abriria outra Caixa de Pandora!)

Entretanto, ao contrário de empresas, fábricas e linhas de montagem, Universidades e Pesquisa Científica [fundamental] possuem planos de ação, missões, de longo prazo, de longuíssimo prazo: há universidades com cerca de 1000 anos de existência: quantas empresas, fábricas e linhas de montagem podem dizer o mesmo?! A própria Revolução Industrial tem apenas cerca de 250 anos!

Felizmente ou não, esta é a natureza da busca pelo conhecimento, e este é o papel da Ciência, principalmente daquela dita fundamental (que costuma dar frutos bem distante das aplicações do dia-a-dia). Por outro lado, hoje em dia, na nossa Era da Informação, é possível se converter algo tão abstrato quanto Teoria dos Grafos em compiladores e navegadores. Este é o caminho da Ciência e do Conhecimento: a menos que se tenha acesso a toda informação, só se pode ver aquilo que está no curto prazo… 😉

Isso tudo só server pra fazer com qua a analogia posta acima — entre Sistemas Dinâmicos e Funções de Partição — fique ainda mais clara aos olhos: quando vc tem acesso à Função de Partição dum problema, vc tem em mãos toda a informação necessária pra resolver o problema completamente; no caso de Sistemas Dinâmicos, como o nome indica (dependência temporal), é muito difícil de se calcular o que vai acontecer no futuro (não-linearidades, caos, etc). E, no final das contas, tudo que se quer medir são os Fenômenos Críticos, as Transições de Fases, e as Propriedades de Escala do sistema em questão.

A mensagem é clara: sem uma visão mais global é impossível se poder qualificar e medir justamente um trabalho científico. Incontáveis exemplos, de Einstein à Wilson, todos nobelistas, jamais teriam os “índices” e os “fatores de impacto” necessários, hoje, para serem contratados em regime de ‘tenure track’ — isso é claro pra qualquer um que já tenha feito o exercício mental requerido por esta questão.

Algumas empresas e alguns nichos industriais já descobriram esse fato básico da natureza humana… aliás, no âmbito de Sistemas Dinâmicos tudo isso tem nome: Cisne Negro e Dragões Reis. 😈

Infelizmente, parece que esse aprendizado e essa mensagem ainda não chegaram na academia — um fato bem irônico, posto que a academia é o lugar onde tais idéias (transições de fase, cisne negros e dragões reis) nasceram! 😳 Então, por enquanto, nós ainda vamos nos debelando com índices e fatores de impacto e outras bobeiras afins. Eu gostaria que fosse feito um estudo com as revistas de maior impacto, procurando-se saber quantos dos artigos publicados nestas revistas deram origens a novos caminhos e novos ramos em seus respectivos campos da Ciência. Taí uma perguntinha bem capiciosa e que por motivos “mágicos” ainda ninguém teve a idéia de responder… 🙄 (Diquinha: eu não me lembro de Einstein ter publicado na Nature nem na Science, então nem as Relatividades nem a Mecânica Quântica (ou Teoria Quântica de Campos) tiveram suas origens nas revistas ditas de alto impacto; o mesmo vale, por exemplo, para as chamadas Transições Quânticas de Fase: o Kosterlitz não publicou numa revista de alto impacto — aliás, porque ninguém pergunta pro Kosterlitz o que ele pensa disso tudo, afinal de contas ele deu origem a todo um ramo da Física, logo deve saber o que significa “alto impacto científico”, não?! :razz:)

Pra finalizar, vou apenas me resignar a dizer que a análise estatística feita no tal artigo é de baixa qualidade, não apenas porque não leva em conta os cisnes negros e os dragões reis, mas também porque não leva em conta tantos outros métodos que a tornariam bem mais robusta. É uma pena, porque os “efeitos visuais”, os “efeitos especiais”, do artigo são bem bonitinhos… [bonitinhos mas ordinários! :razz:]

[]’s.

Atualizado (2011-Mar-19 @ 11:15h EDT): Ah… a ironia do destino. Assim que acabei de escrever o post acima, trombei no seguinte livro: Little Bets: How Breakthrough Ideas Emerge from Small Discoveries. O ponto do livro é clararamente exposto no título, mas também já foi feito por Asimov,

“The most exciting phrase to hear in science, the one that heralds new discoveries, is not ‘Eureka!’ (I’ve found it!), but ‘That’s funny…'”

Isaac Asimov.

Experimentação, passo-a-passo, erros e mais erros… é assim que se faz Ciência: a idéia de que pesquisa e progresso é feito através duma seqüência de ‘acertos’, de passos corretos, não poderia estar mais distante da realidade… c’est la vie

O futuro da revisão-por-pares…

terça-feira, 8 fev 2011; \06\America/New_York\America/New_York\k 06 2 comentários

Depois da invenção dos arXivs, o problema de distribuição de publicações científicas foi efetivamente resolvido. Dessa forma, o papel dos jornais acadêmicos ficou essencialmente resumido à revisão-por-pares. Ou seja, no frigir dos ovos, o valor agregado que as jornais acadêmicos acrescentam aos artigos é apenas a revisão-por-pares, uma vez que a distribuição desses artigos não é mais problema na Era da Informação.

[N.B.: Pense em termos de uns 400 anos atrás, na época de Galileu: era preciso um manuscrito viajar de cavalo ou barco para que sua distribuição fosse efetivada. Claro que as coisas melhoraram com o correio moderno e com a invenção dos aviões… mas, no final das contas, o processo de distribuição continuava o mesmo em sua natureza: era preciso haver uma mudança física, mecânica, de um lugar para outro. Hoje em dia isso não é mais verdade: organizar, colecionar e distribuir artigos é uma tarefa essencialmente trivial: o exemplo dos arXivs sendo o mais gritante, e PLoS sendo um segundo exemplo. Infelizmente, eu não conheço nenhum esforço dessa natureza Free-Open Access nas Humanidades nem nas Ciências Sociais: seria muito interessante conhecer esforços nessas direções.]

Entretanto, atualmente há também um movimento para “aliviar” os jornais acadêmicos inclusive dessa atividade:

Felizmente (ou não 😛 ), esta não é uma idéia nova: esforços nesta direção já têm sido promovidos há anos. Vejam os exemplos abaixo,

Esses esforços costumam vir sob o nome de Ciência 2.0 — apesar de que, atualmente, já está se falando em Ciência 3.0!

[N.B.: Resumidamente, o “2.0” significa a incorporação das ferramentas de Web 2.0, enquanto que o “3.0” significa que metadata é usada de modo “decente” (ie, como a coisa foi designed para funcionar 😉 ).]

Mais ainda, há movimentos em direções ainda mais ambiciosas, como os abaixo,

Tanto o MathJobs quanto o AcademicJobsOnline têm o intuito de organizar e facilitar a busca de empregos (postdocs, professores, etc) em Matemática e Ciências em geral, respectivamente. Isso tem melhorado o processo infinitamente: antigamente, era preciso se escrever cartas de aplicação para diversas (até centenas!) e instituições; hoje em dia basta vc carregar seu material nesses sites e selecionar os empregos que vc gostou — o resto acontece automaGicamante. 😎

De fato, nossa Era Digital trouxe ferramentas absolutamente fantásticas, que conectam o mundo da pesquisa de modo nunca d’antes navegado… Claro, como toda espada, esta também tem dois gumes: o ‘lado negro’ de toda essa facilidade e conectividade é o atual campo da cienciometria, onde se acredita que é possível se mensurar “criatividade científica” através de índices que, na melhor das hipóteses, são apenas parciais (ie, são índices cujo significado estatístico é questionável).

Enfim, este é um momento bastante conturbado… mas que certamente não deixará “pedra sobre pedra”. 😉

This post translated to English (en_US) (courtesy of Google Translate).

História do Mundo, em menos de 5 minutos…

quarta-feira, 1 dez 2010; \48\America/New_York\America/New_York\k 48 1 comentário

Hans Rosling ataca mais uma vez! 😈

Verdades, mentiras e estatisticas na campanha eleitoral

quarta-feira, 13 out 2010; \41\America/New_York\America/New_York\k 41 3 comentários

Peço licença aos meus co-blogueiros para falar sobre as eleições presidenciais. Uma vez que eu não vou emitir nenhum juízo sobre nenhum dos candidatos, nem explicitar preferência alguma, creio que não há problema. Na verdade o tema eleitoral é só uma desculpa para falar sobre estatística :P. Caso haja problema, por favor me avisem.

Nessa campanha presidencial – como, aliás, deve ser em qualquer campanha eleitoral – tem acontecido uma fenômeno interessante nas propagandas e discursos de aliados de cada um dos candidatos do segundo turno. Ambas as campanhas tentam comparar os governos de Lula e FHC apresentando todo tipo de números e estatísticas. O interessante é que o cenário parece estranhamente ambíguo: para cada estatística que mostra Lula melhor que FHC existe outra que mostra o exato contrário. Para dois exemplos interessantes desse tipo de campanha, veja esses dois links:

Esse fenômeno pode parecer estranho para os espectadores da campanha menos acostumados aos números. Afinal, quem foi melhor para o ensino superior, FHC que aumentou o número de matrículas ou Lula que criou mais universidades? Quem diminuiu mais a pobreza, FHC que aumentou 4 vezes mais o IDH ou Lula que criou 3 vezes mais empregos?

Não há nada de estranho aí. O que está por trás dessa estranheza é uma falácia estatística que pode ser chamada “falácia do atirador”. Imagine um homem que quer demonstrar que é um excelente atirador e te mostra um alvo pintado em um campo de tiro, com 10 tiros certeiros na mosca. Você pode achar que ele é um grande atirador mesmo, mas sabe como ele produziu esse resultado?

O atirador ergueu uma enorme parede de madeira, de 10 metros de largura e 5 de altura, colocou-se na posição de tiro e descarregou 500 tiros contra a parede, sem tentar mirar particularmente em nenhuma posição. Claro que depois disso a parede estará cravejada de buracos e em alguns lugares haverá buracos de tiro mais próximos um dos outros. O atirador escolhe convenientemente 10 buracos que, ao acaso, ficaram bastante próximos entre si e desenha e pinta o alvo em torno deles. Então ele corta o resto da madeira e recoloca o alvo em sua posição original, com 10 tiros “certeiros” na mosca.

O homem não é um excelente atirador. Ele apenas escolheu o alvo depois de ter os resultados. Ele selecionou os “bons” resultados e descartou os ruins. Ele transformou uma distribuição bastante larga em uma distribuição mais estreita apenas descartando certos resultados e mostrando outros.

Como isso se aplica à campanha eleitoral?

Para cada aspecto de um governo que você queira avaliar, existe um sem número de estatísticas que podem ser usadas. Se, por exemplo, eu quero avaliar a evolução da renda, posso mostrar o crescimento do PIB per capita, ou de algum índice de salários, ou da fração do PIB correspondente aos salários, ou quanto subiram os salários em comparação com a taxa básica de juros, ou comparar com taxas “reais” praticadas no mercado. Posso comparar esses números em dólares ou reais, posso comparar o poder aquisitivo real, ou quanto essa renda compra de uma certa cesta de produtos essenciais. Posso focar apenas no crescimento da renda da classe C, ou em quanto cresceu (ou caiu) a razão da renda da classe C pela renda da classe A. Posso comparar quantos bens de consumo essenciais as pessoas conseguem comprar, ou posso comparar quanto o crescimento de suas rendas se compara com o rendimento de um certo investimento padronizado. Todas essas são formas de comparar quanto a renda cresceu.

Deu para perceber que existe um grande número de estatísticas para comparar dois governos, mesmo que fiquemos apenas no restrito conjunto de estatísticas referentes ao aumento da renda. Se eu comparar todos esses números entre o governo A e o governo B, alguns resultados serão pró-A e outros serão pró-B. É natural que seja assim por uma razão simples: há uma flutuação incrível nesses números. Flutuações temporais, flutuações causadas por diferentes metodologias ou mesmo flutuação que resulta do processo de amostragem. A incerteza nesses números as vezes é muito grande, e medidas em semanas diferentes podem causar flutuações de vários pontos percentuais. Não temos um valor determinado para esses números, temos uma distribuição de probabilidades que representa o quanto sabemos sobre eles. E essa distribuição é relativamente larga.

Então existe uma probabilidade de que cada estatística seja pró-A ou pró-B, ainda que os governos A e B tenham sido mais ou menos parecidos. E mesmo que o governo A tenha sido muito melhor que o governo B em certo sentido, ainda assim teremos uma certa probabilidade de ter um certo número de estatísticas pró-B. Mas eu sempre posso escolher que fração das estatísticas que eu pretendo mostrar será pró-A ou pró-B. Eu posso apenas mostrar 100% de estatísticas pró-A e argumentar assim que o governo A foi incrível. Isso é bem ilustrado pela famosa propaganda da Folha de São Paulo de alguns anos atrás, em que se apresenta diversas estatísticas positivas do governo de Adolf Hitler na Alemanha, que certamente foi um governo desastroso!!!

Então é impossível comparar dois governos com estatísticas? Claro que não. É perfeitamente possível. Apenas é necessário fazê-lo de forma sistemática, com métodos claros, com padrões e referências bem definidos. Existem procedimentos para se evitar a falácia do atirador em estudos estatísticos. Por exemplo, pode-se escolher que estatísticas serão calculadas de antemão, antes da colheita de dados, de acordo com um método bem definido. Isso evita que se “desenhe o alvo” em torno do resultado desejado. Pode-se fazer uma análise de sensitividade, mostrando que ainda que a metodologia fosse diferente, o resultado não seria tão diferente assim. Enfim, existem técnicas para isso.

Mas isso é algo que campanhas eleitorais nunca serão capazes de fazer. Elas são enviesadas por princípio, a cesta de índices que escolhem para mostrar é viciada e sua interpretação errônea e vazia. E isso vale para qualquer campanha, independente da orientação ideológica do candidato. É inevitável. Não chega nem a ser desonestidade, é da natureza da propaganda. O ideal seria que, ao invés de usar os números de forma leviana, fossem contratados estatísticos profissionais e neutros para criar essas análises. Mas isso nunca vai acontecer. 😉

O melhor é que o eleitor esteja atento às formas com que os números podem ser usados contra ele. Números adequadamente escolhidos podem defender qualquer estória que se deseje contar. Mas não fique achando que toda estatística é resultado de manipulação. Há métodos adequados para se evitar a manipulação, mesmo a manipulação involuntária.

Há uma citação de natureza ética difundida entre os estatísticos adequada para fechar essa discussão. Infelizmente não me lembro o autor ou a exata fraseologia, mas a essência é: é sempre possível mentir usando a estatística, mas é impossível dizer a verdade sem ela.

A física da pesquisa e a física da sala de aula

quarta-feira, 29 set 2010; \39\America/New_York\America/New_York\k 39 2 comentários

Disclaimer: esse post é uma opinião muito pessoal de seu autor, e pode ser que os outros membros do blog não concordem.

Como eu já disse por aqui, eu fico bastante entusiasmado com a idéia de cursos abertos online e disponibilização de material em vídeo, como na iniciativa OpenCourseWare, por exemplo. E eu sou um usuário adicto desses materiais. Já devo ter ouvido as aulas de mais de uma dezena desses cursos, por diversão mesmo, em áreas muito diversas (história, estudos religiosos, biologia, antropologia…). Mas não comecei esse texto para falar desses cursos, mas para falar de algo que esses cursos me fizeram notar a respeito de uma diferença fundamental entre o ensino de física e o ensino em outras áreas do conhecimento, de forma particular, mas não restrita, nas ciências médicas e biológicas.

Para exemplificar o que quero dizer, vou me referir à terceira aula do curso de biologia geral dado na primavera de 2010, na Universidade da Califórnia em Berkeley, cujas aulas em vídeo e éudio estão disponíveis para download no site de webcasts da universidade (http://webcast.berkeley.edu). Em certo ponto dessa aula, a professora diz “e realmente nos últimos 5 ou 6 anos muita pesquisa foi feita para entender a estrutura interna e função do ribossomo, e eu vou mostrar para vocês uma imagem…” e passa a discorrer sobre assunto de pesquisa muito recente, sobre o qual ainda há dúvidas e questões em discussão. Cenas como essa são comuns em todos os cursos que ouvi. Assuntos de pesquisa são citados na sala de aula rotineiramente e discutidos nos trabalhos e dissertações que os alunos tem de entregar para ser avaliados. Isso me chocou. Me chocou como algo completamente alheio com a minha experiência de sala de aula, que acredito ser não muito diferente da experiência de todos os físicos formados no Brasil, e provavelmente no mundo todo. É inconcebível na nossa experiência que um professor de Física I (ou de Physics 101) entre na sala de aula e dê como exercício de casa a uma turma mista de dezenas e dezenas ingressantes de diversos cursos – engenharia, física, química, … – a leitura de um artigo de pesquisa publicado a menos de 10 anos. Nenhum assunto discutido em uma aula de física, mesmo nos últimos anos da faculdade, é mais recente do que a década de 40. Em compensação, poucos assuntos discutidos em uma aula de biologia celular são mais antigos que a década de 70, e muitos tem menos de 10 ou 15 anos de idade! E por que é assim?

Tudo bem, há uma série de explicações muito plausíveis para isso. Talvez a mais forte seja que os conceitos físicos e as ferramentas matemáticas usadas na pesquisa são muito mais avançados do que os que estão sendo estudados na graduação, e que é necessário um período longo de treinamento para sair da primeira aula sobre as leis de movimento de Newton e chegar na mecânica quântica, passando por todos aqueles passos intermediários. A maturação de um físico é um processo longo e lento, nessa visão. Vai da primeira aula de Física I até mais ou menos o meio do doutorado. A física é uma ciência mais antiga e madura, dizem os que defendem essa idéia, e um estudante de física tem que estudar toooodas essas coisas com detalhes, desde o nascimento da mecânica newtoniana até a mecânica quântica e suas aplicações mais elementares. Além disso, um ingressante em física ainda não foi exposto nem ao ferramental matemático básico para prosseguir aprendendo física – o cálculo, a algebra linear e etc…

Apesar de acreditar que há alguma verdade nisso, sinceramente acho que ela é exagerada e super-simplificada pela típica autosuficiência e arrogância dos físicos (eu me incluo nessa conta) e pela inércia do sistema educacional. Faz anos que é assim, foi assim que fizemos no passado, é assim que faremos no futuro porque é assim que se ensina física. E bem, veja só, é mais difícil aprender física, não é?

Não. Não é. Sinceramente, não é. Aprender biologia pra valer é tão difícil quanto aprender física. Ou mais! Pode ter um pouco menos de matemática, mas nas duas ou três primeiras aulas do curso introdutório para a graduação da UC Berkeley que assisti já há uma série de mecanismos celulares complicados, relações entre as organelas, estruturas moleculares complicadas, como as isomerias e as simetrias afetam a função das moléculas, e se o carbono alfa está assim, então a isomeria faz com que o poro da membrana nuclear fique assado… 😯 😯 😯

Não é fácil, definitivamente. E não é “coleção de selos”, é uma sequencia lógica de mecanismos e estruturas bem entendida até certo ponto. Eu não estou acompanhando direito.

Porque um ingressante de biologia está pronto para discutir a biologia molecular dos poros da membrana nuclear de maneira tão detalhada e um estudante de física não está pronto para discutir fenômenos críticos e transições de fase, ou entender, pelo menos num nível qualitativo, o que é decoerência, o que são teorias de campo conforme e porque a correspondência AdS/CFT é tão importante, quais são as alternativas para explicar energia escura, porque o grafeno é um material tão especial, porque é tão difícil ter materiais semicondutores que sejam ferromagnéticos, o que a física por trás de folding de proteínas tem a ver com a física de cristais magnéticos, quais são os melhores candidatos para física além do modelo padrão, como podemos detectar radiação Hawking?

E se tocamos nesse assunto, porque não ir mais fundo? Se os estudantes de física não chegam à metade do século passado, os estudantes do colegial param muito antes disso. A física que fingimos ensinar nas escolas tem pelo menos 150 anos de idade, e é absolutamente inútil para essas pessoas da forma como é ensinada, em todos os aspectos. Não estimulam curiosidade científica, não as ajudam a entender o ambiente tecnológico em que vivem, não fornecem ferramentas de trabalho úteis e nem as preparam para a universidade.

O ensino de Física está, em minha opinião, caduco em todos os níveis e precisando de urgente reforma. E quanto mais a pesquisa avança, mais urgente essa mudança se torna. Se queremos pessoas prontas para integrar os quadros de pesquisa, se queremos estudantes motivados e se queremos desenvolver o quanto antes o gosto pela pesquisa, precisamos forçar a fazer o que os biólogos fizeram de forma natural, e trazer a física da pesquisa de volta para as salas de aula.

Esperteza no Mercado Financeiro…

terça-feira, 10 mar 2009; \11\America/New_York\America/New_York\k 11 9 comentários

Já não é de hoje que eu ando ouvindo as trombetas do apocalipse culpando os “analistas quantitativos” (chamados de “quants”) pela infâme crise financeira atual: segundo voz corrente em Wall Street, “a culpa de tudo é desses PhDs”,

“Quants occupy a revealing niche in modern capitalism. They make a lot of money but not as much as the traders who tease them and treat them like geeks. Until recently they rarely made partner at places like Goldman Sachs. In some quarters they get blamed for the current breakdown — “All I can say is, beware of geeks bearing formulas,” Warren Buffett said on “The Charlie Rose Show” last fall. Even the quants tend to agree that what they do is not quite science.”

Ou seja, no final das contas, eis o que está em jogo: Quanto mais “racionalização” (i.e., o trabalho dos quants) se tenta introduzir no tal “mercado financeiro”, pior fica a situação! 😥

Efetivamente, isso até faz sentido (nem acredito que falei isso — se protejam dos raios! 👿 ), uma vez que o tal “mercado financeiro” foi construído, historicamente, por forças que só viam uma maximização selvagem dos lucros, sem racionalidade nenhuma, quiçá ser passível de modelagem matemática. De fato, é como tentar se domar uma besta selvagem… com sete cabeças! 😯

Muita ingenuidade é acreditar que se pode simplesmente colocar um bando de gente modelando algo que, ainda hoje, contém forças intensas que não querem se submeter a nenhum tipo de racionalização (uma vez que, mais cedo ou mais tarde, isso acaba implicando numa racionalização dos lucros, i.e., vc não ganha tão selvagemente mas também não perde tanto dinheiro a ponto de causar uma epopéia mundial, como essa que estamos vivendo ❗ ).

O que é mais triste de tudo isso — absolutamente triste 😥 — é a idéia de que todo esse impasse não passa duma reinvenção da famigerada Guerra das Ciências (leia mais em Phony Science Wars, The Two Cultures, Making Social Science Matter, Social Text Affair, Edge Foundation, The Third Culture). Pior ainda, como o fato é que estamos numa crise financeira (recessão a caminho duma depressão!) de proporções mundiais, envolvendo as maiores potências econômicas atuais, fica cabalmente demonstrado que irracionalidade não leva a lugar nenhum, i.e., enquanto os cães ladravam (tentando avisar que a selvageria não iria levar a lugar nenhum), a caravana ia passando incólume (sem nunca perceber o tamanho do buraco negro que estava a sua frente).

Triste é ter que notar que essa é a essência da natureza humana: a completa e total falta de comunicação, um cabo-de-guerra onde todo mundo perde… 😥 Por que é tão difícil assim de finalmente darmos um passo a frente, largarmos essa irracionalidade “macho alpha” (que é a bússola guia dos “stock traders”) de lado, e partirmos em direção duma maior inclusão de razão na nossa vida como um todo, das “hard sciences” até o mercado financeiro?!

Esse é o objetivo final da chamada Terceira Cultura, que tenta construir uma ponte entre o antigo cabo-de-guerra representado pela “Guerra das Ciências”, e mover a humanidade adiante. E é isso que eu honestamente espero que deixemos como legado para as próximas gerações.

😈

Novas estruturas sociais e o cientista hacker…

quinta-feira, 19 fev 2009; \08\America/New_York\America/New_York\k 08 Deixe um comentário

Com a crescente fusão entre ciência e tecnologia (principalmente TI), surgem novas formas de produção e distribuição do conhecimento.

Origens da divulgação científica

Em ciências (exatas, humanas ou biológicas), desde os primórdios até hoje, a forma preferida de divulgação do conhecimento é oral, por meio de palestras, congressos e conversas formais ou informais. Isso acontece porque explicar a lógica por detrás de uma idéia, de um raciocínio ou de uma metodologia, costuma requerer mais do que a comunicação escrita pode oferecer. Ao vivo, é possível interagir com o interlocutor. Perguntas e respostas são fundamentais para o entendimento.

Com o desenvolvimento histórico, porém, os modos de organização sociais mudaram, outros continentes foram descobertos, a humanidade se expandiu. A história das ciências também mudou: a cada nova escolha feita pelas sociedades, era necessária uma nova adaptação do método científico e de sua divulgação. Na Babilônia e no Egito, há registros de números Pitagóricos, incluindo o famoso teorema de Pitágoras, que datam de 1900-1600 AC, alguns ainda em escrita cuneiforme. Compare isso com as nossas mais modernas formas de escrita: TeX, XHTML, MathML.

Enquanto o mundo era pequeno (Europa/Eurásia) e com o aparecimento de “centros de excelência” para as diversas áreas do saber, a divulgação do conhecimento humano acontecia sem grandes problemas. Porém, com a entrada do “Novo Mundo”, as distâncias começaram a mudar o modo de divulgação científica, passando de oral para escrita. Só assim era possível comunicar as descobertas para os diversos cantos do mundo. Publicava-se uma enciclopédia, uma revista, e essa era levada de barco para o resto do globo. Foi basicamente por essa razão – transposição das distâncias –, num contexto de desenvolvimento da tecnologia da impressão por Gutenberg, que as revistas científicas tomaram a forma que, em alguns casos, adotam até hoje. Contudo, a revolução tecnológica desse último século, incluindo a revolução digital, começou a chacoalhar as fundações desse modelo.

Internet: agilidade na popularização do conhecimento

Flexibilidade e dinamismo na divulgação do conhecimento são peças fundamentais em ciências. Dentre outras razões, estão o simples fato de se atrair um maior interesse no trabalho dos pesquisadores (jovens cientistas, alunos) e o fato de que o resultado da pesquisa de um determinado grupo poder catapultar a pesquisa de outros grupos. Quanto mais pessoas tiverem acesso aos resultados de determinada pesquisa e quanto mais rápido esses resultados forem divulgados, maior será a chance de avançar aquela área do saber. Em alguns casos, essa dinâmica é necessária para manter vivo um campo do conhecimento.

A invenção da Internet e a popularização das tecnologias de computadores, modems, bandas-largas e redes foram um passo fundamental na direção de se agilizar a produção e divulgação do conhecimento. Hoje em dia, é rotina um pesquisador de um lado do globo comunicar seus resultados para seus colaboradores em outros cantos do planeta. Quando se adiciona a isso o fato de que o conhecimento da humanidade pode seguir um novo paradigma de “velocidade, flexibilidade e dinâmica”, esse avanço tecnológico passa a ser incomensurável.

Esse novo ”modus operandi” é fundamental para que se possa maximizar os caminhos da ciência: tanto na direção do cientista para o leitor quanto na do leitor para o cientista. Mas, para que isso se realize, é imprescindível que a divulgação seja o mais democrática possível, habilitanto qualquer pessoa em qualquer lugar do mundo a ter acesso a informação. Nossa sociedade industrial transformou-se em uma sociedade que valoriza a informação. Essa é uma das razões que justifica a existência de modelos de distribuição como o usado pelo arXiv (distribuição gratuita) em lugar de modelos canônicos (revistas especializadas e seus custos).

Ciência da Computação e a revolução digital

Ciência e tecnologia são conceitos diferentes. De acordo com suas definições de dicionário:

  • ciência: conhecimento; conhecimento de princípios e causas; confirmação da verdade dos fatos;
  • tecnologia: aplicação prática da ciência para o comércio e/ou indústria [sinônimos: engenharia, ciência aplicada].

Dada essa distinção, surge a questão de como ciência e tecnologia se relacionam. Em outras palavras, “qual é a ”distância” entre um fato científico e seu correspondente tecnológico?” Para quem está familiarizado com essa questão, é fácil ver que isso é complicado. É preciso entrar nos pormenores de cada área do saber e avaliar o quão próximo do dia-a-dia cada uma delas está. “O que é que se pode fazer de prático com Gravitação Quântica?” Contraste isso com: “O que é que se pode fazer de prático com uma vacina contra a AIDS?” ou ainda “O que é que se pode fazer de prático com a nanotecnologia?” A Gravitação Quântica está bem longe de trazer resultados práticos para o nosso dia-a-dia. Em compensação, pesquisas em HIV e em nanotecnologia estão presentes e afetam a nossa vida diariamente.

Entretanto, é preciso ter cuidado com esse tipo de afirmação: avanços tecnológicos aparecem onde menos se espera. As dificuldades técnicas em se construir equipamentos para pesquisa pura, como aceleradores de partículas (por exemplo, CERN e SLAC) levaram a avanços enormes para os componentes de computadores. O volume de dados que trafega pelas redes de computadores desses experimentos chega a atingir 1 Terabyte (1024 Gigabytes) por segundo, e uma colisão típica nesses aceleradores leva alguns segundos. Um experimento para se medir alguma propriedade de uma teoria de Gravitação Quântica pode levar a avanços dessa natureza.

Para ilustrar esse argumento, vale a pena lembrar duas frases do físico inglês Michael Faraday. Enquanto Faraday explicava uma nova descoberta para o Ministro das Finanças e para o Primeiro Ministro britânicos, perguntaram-lhe ”‘Mas afinal, que uso tem isso?’”, no que Faraday respondeu, ”‘Excelência, é provável que em breve o senhor esteja cobrando impostos sobre isso’”. Em uma outra conversa, o Primeiro Ministro britânico lhe perguntou a respeito de uma nova descoberta ”‘Que valor tem isso?’”; Faraday respondeu, ”‘Que valor tem um recém-nascido?’” e prosseguiu explicando que sem os cuidados de uma boa infância, um recém-nascido não cresce e não se torna um adulto criativo e trabalhador.

Na área de Ciência da Computação, a distância entre ciência e tecnologia fica ainda mais difícil de medir. Por exemplo, Teoria dos Grafos é uma das áreas de pesquisa da matemática pura. Porém, em Ciência da Computação, o conhecimento de Teoria dos Grafos é fundamental para a construção de compiladores (programas que traduzem código escrito em uma linguagem para linguagem de máquina), ou então para o desenvolvimento das linguagens usadas na criação de páginas WWW para a Internet, como o HTML, XHTML, XML, CSS e seus interpretadores (navegadores, como Mozilla Firefox e Opera). Uma teoria abstrata como Teoria dos Grafos acabou gerando uma aplicação imediata. Sem ela, nenhum de nós estaria surfando na Internet hoje.

A Ciência da Computação introduziu um novo paradigma a respeito dessa “distância” entre teórico e prático. E esse novo paradigma trouxe consigo um novo conceito para a nossa sociedade pós-industrial: ”O conceito de Sociedade da Informação”. Uma visão corrente afirma que foi a Tecnologia da Informação que causou essa mudança. Entretanto, é preciso ter em mente que esta teve origem na Ciência da Computação. Uma nova gama de ciências apareceram por causa desse ”insight”, como Teoria da Informação e Inteligência Artificial. O momento histórico, portanto, é mais do que propício para discutirmos uma possível liberação dos meios convencionais de divulgação científica.

Propriedade intelectual

Cooperação e colaboração entre cientistas e acesso às pesquisas e seus resultados são pontos para que se caminhe em direção ao futuro. Portanto, tanto a ciência quanto seus pesquisadores são historicamente livres. No começo dos tempos científicos, a pesquisa e seus resultados tinham uma aplicação prática muito mais tímida do que hoje em dia. Atualmente, é possível ganhar um Prêmio Nobel pela descoberta da estrutura de dupla-hélice do DNA (via cristalografia de raios-X), ou pela descoberta da liberdade assintótica dos quarks, coisa que os egípcios e babilônios jamais sonharam. As aplicações da nanotecnologia vão desde tecidos inteligentes até computadores quânticos e ”spintrônica”. No campo de biotecnologia, desenvolvem-se fármacos para combater um vírus específico. Em suma, aprendemos a dar forma, cor, sabor e até cara para nossos achados científicos de tal forma que, teorias antes consideradas completamente abstratas e sem aplicação prática, são hoje os pilares de uma revolução no nosso modo de vida.

Com esses avanços, um método para a proteção do conhecimento foi desenvolvido. Trata-se da ”Propriedade Intelectual”. Esse desenvolvimento ocorreu ao mesmo tempo em que a nossa ciência ficava cada vez mais próxima da tecnologia. Isso acontece por uma razão bem simples: economicamente, é mais fácil atribuir valor à tecnologia do que à ciência. Afinal de contas, o que é mais fácil quantificar: a Teoria Quântica de Campos e seus aceleradores de partículas ou os computadores e suas tecnologias de rede e bandas-largas? O que é mais fácil de medir: 20 anos de estudo ou um novo antibiótico?

Em vista disso, a medida de ”distância” entre ciência e tecnologia passou a ser cada vez mais fundamental: com o aumento da proteção sobre o conhecimento, o custo sobre o desenvolvimento científico pode tornar-se proibitivo. O desenvolvimento científico deixaria de ser livre. Já imaginaram o que seria do mundo moderno se Maxwell tivesse “cobrado” por sua teoria, o Eletromagnetismo? Sua teoria resume-se a 5 equações. Quatro delas descrevem os fênomenos elétricos e magnéticos propriamente ditos e uma delas descreve a conservação de carga. Essas equações, chamadas Equações de Maxwell, são a base de tudo que é elétrico, eletrônico e magnético hoje em dia (lâmpadas, geladeiras, microondas, computadores). Isso ilustra a dificuldade de atribuir-se um valor econômico a descobertas científicas.

Porém, é necessário dar valor à tecnologia, afinal de contas os produtos e resultados das pesquisas científicas têm que gerar alguma coisa. E é por isso que o paradigma atual, de revolução digital e sociedade da informação, é tão crítico. Como foi mostrado acima em Ciência da Computação, essa distância entre ciência e tecnologia é algo mal definido. Um mestre em Teoria dos Grafos pode inventar um novo compilador, isto é, um teórico pode produzir tecnologia. A Ciência da Computação é a primeira a permitir esse nível de interação entre teoria e prática, entre ciência e tecnologia. Esse é o primeiro palco onde a mais abstrata das matemáticas acaba tendo aplicações práticas de uma utilidade inigualável.

Bazar do conhecimento: por uma sociedade livre e universal

É essa mistura entre ciência e tecnologia, entre teoria e prática, que foi responsável pela revolução digital, pelo nosso novo paradigma cultural (pós-industrial) de sociedade da informação. Portanto, nesse novo momento histórico nós, enquanto coletividade/sociedade, teremos que fazer uma escolha que mudará nossas vidas de forma crítica: ”como é que vamos lidar com a impossibilidade de se medir a distância entre ciência e tecnologia?”. Essa pergunta é fundamental para os futuros modelos econômicos.

Dentre os estudiosos dessa nova economia e sociedade, destacam-se Eric Raymond (The Cathedral and the Bazaar) e Richard Stallman (Free Software, Free Society). O ponto principal dessas referências é que tudo que nelas é descrito como cultura hacker sempre fez parte da cultura da ciência e dos cientistas. Segundo o dicionário dos programadores, a definição de ”hacker” é “um programador para quem a computação em si é sua própria recompensa” e “aquele que gosta do desafio intelectual de superar barreiras criativamente ou encontrar alternativas para limitações”). Ora, cientistas têm sido assim desde sempre. Cientistas são ”hackers”: hackers da matemática, da física, da química, da biologia, da ciência da computação.

Portanto, e chegamos agora ao ponto crucial: estamos vivendo o momento do ”interlace de culturas”, de permeação da cultura ”hacker” na cultura científica. Creio que esse interlace se originou na Ciência da Computação, a primeira ciência a permitir uma interação intensa entre teoria e prática. Assim, nesse momento cultural, vivemos a impossibilidade de discernir ciência de tecnologia e cultura hacker de cultura científica. Dessa forma, a escolha crítica que teremos que fazer reside no fato de que a cultura hacker/científica é fundamental e diferente do paradigma econômico em que vivemos hoje, principalmente no que diz respeito à produção de valor.

O caminho na direção de uma sociedade mais livre e universalmente inclusiva terá que lidar com essas questões, terá que formular respostas para essas questões, terá que encontrar novos paradigmas sociais e econômicos que acomodem essas questões. Um dos problemas a serem atacados é o da universalidade da ciência, principalmente no que diz respeito à sua divulgação. A meu ver, a solução mais universalmente inclusiva e livre para essa questão deve seguir os moldes do arXiv. Trata-se de uma solução que permita o acesso irrestrito ao conhecimento, às pesquisas e seus resultados. E, dado o modelo econômico atual, isso só pode ser feito através de uma forma eletrônica e gratuita de divulgação científica. Seria fantástico se o modelo do arXiv fosse adotado para todas as outras áreas do saber.

Epílogo: Uma breve história do arXiv

No começo, o arXiv era chamado “LANL preprint archive” (LANL é o Laboratório Nacional de Los Alamos – lugar onde a física das bombas atômicas da Segunda Guerra Mundial foi finalmente entendida e “dominada”). Ele é um arquivo para ”preprints” eletrônicos de artigos científicos nos campos de Física, Matemática, Ciência da Computação e Biologia Quantitativa. No passado, o servidor do arXiv ficava no LANL mas, atualmente, o arXiv é servido e operado pela Universidade de Cornell, além de ser espelhado pelo mundo afora. Sua idéia original é devida ao físico Paul Ginsparg.

O arXiv surgiu em 1991 como um arquivo de ”preprints” em física (hep-th, sigla que denota “física teórica de altas energias”) e, mais tarde, foi expandido para incluir, além de outras áreas de física, matemática, ciência da computação e, mais recentemente, biologia quantitativa. Em Março de 2004, o arXiv continha cerca de 267.000 preprints e recebia cerca de 3.000-4.000 novos preprints por mês!

O primeiro nome do arXiv foi xxx.lanl.gov, porém esse nome foi mudado quando se descobriu que programas de “censorware” (ou seja, programas de filtragem de conteúdo) estavam bloqueando seu acesso a partir de diversos sites, acreditando que as três letras X implicassem num site pornográfico. A idéia do XXX era a de que o arXiv era melhor que o WWW em todos os aspectos (já que a letra x vem depois da letra w no alfabeto).

A existência do arXiv foi um dos fatores mais importantes que levou à presente revolução em publicações científicas, conhecida como Open Access Movement (veja também Budapest Open Access Initiative e Berlin Declaration), com a possibilidade de levar ao desaparecimento das revistas científicas tradicionais (e, mais importante ainda, seus modelos de publicação).

Um método popular para se acessar a porção de matemática do arXiv é via o portal da Universidade da Califórnia em Davis chamado de Front. O portal oferece um método de busca poderoso e uma interface mais amigável para o usuário. Por essa razão, o arquivo de matemática é conhecido como ”[the] Front”.

Cientistas e matemáticos profissionais (como Grigori Perelman em 2002 e Richard Arenstorf em 2004) ”carregam” regularmente seus achados e demonstrações matemáticas no arXiv para o acesso e revisão mundial (e gratuito).

Referências

Enquete…

Diversão garantida…

😈

Surpresas

quinta-feira, 12 fev 2009; \07\America/New_York\America/New_York\k 07 10 comentários

Uns dias atrás em um post do blog Cosmic Variance o Sean Carroll estava se perguntando sobre  grandes surpresa na ciência.  Entre perguntas sobre qual foi a coisa mais surpreendente que já descobrimos e qual seria a próxima coisa mais surpreendente que poderíamos descobrir no futuro, diversas grandes surpresas foram levantadas pelos comentadores.

Quando falamos sobre coisas chocantes a respeito do universo tendemos a falar de micro-coisas e de mecânica quântica. Coisas estranhas acontecem nessa escala de tamanho, fenômenos incompatíveis com nossa experiência cotidiana da natureza e até difíceis de descrever para pessoas não-iniciadas em física moderna e contemporânea.

Apenas uma das pessoas qeu comentou se lembrou de uma coisa que foi históricamente muito mais chocante e que levou séculos e séculos de gradual aumento da nossa compreensão das coisas para se conhecer: a ordem de grandeza do tamanho e da idade do nosso universo, a distância até as estrelas próximas, a estrutura heterogênea na escala das galáxias, a estrutura homogênea na escala cosmológica, … tudo isso levou 500 anos ou mais de pesquisa para ser estabelecido. E mais e mais fatos sobre a estrutura de larga escala do universo têm sido descobertos, em intervalos de tempo cada vez mais curtos. Que nós possamos conhecer tanto sobre essa estrutura do universo nas diversas escalas grandes de tamanho (com relação ao nosso tamanho) que compreendem a primeiro a Terra, depois  o sistema solar, as galáxias,  as estruturas cosmológicas,  …  acho que essa é a maior supresa que a ciência já revelou. Maior que a estranheza do mundo microscópico.

Não que eu esteja diminuindo a surpresa que o mundo microscópico revelou. Mas eu acho que essas descobertas sobre o nosso macrocosmo são as que mais chocariam as pessoas mais brilhantes dos séculos passados se fossem reveladas prematuramente. Dizer para Galileu que as estrelas mais próximas estão a 10^{14} quilômetros de distância e que conseguimos saber detalhes da estrutura de objetos que estão a 10^{20} ou 10^{21} quilômetros de distância e que temos evidências confiáveis de que o universo tem algo em torno de 10^{10}  anos de idade seria muito mais chocante do que tentar falar da estrutura atômica da matéria ou da inexistencia de trajetórias definidas para partículas microscópicas. E acho que o principal motivo para isso é que ele poderia entender isso. Talvez eu esteja errado e essas duas coisas, conhecimento das escalas do universo e a natureza microscópica da matéria sejam uma tão surpreendente quanto a outra. Certamente a segunda causou muito mais impacto de curto prazo na história do mundo, se isso é sinônimo de surpresa.

E as surpresas futuras? Algumas coisas foram sugeridas nos comentários, a maioria delas relacionadas à física de altas energias, algumas brincadeiras, poucas coisas que de fato me supreenderiam. Com o perdão da grande parte dos meus colegas arsphysicistas que trabalham nessa área, eu acho que  a física de altas energias e o mundo microscópio já são coisas tão estranhas  que a existência de alguma coisa ainda mais estranha ainda em escalas maiores de energia não me surpreenderia tanto.

O que realmente me surpreende? O quão rápido está evoluindo a neurosciência.

Um livro que 20 anos atrás dissesse que em 100 anos dominariamos a interface do cérebro com máquinas artificiais e que seriamos capazes de controlar, apenas com o pensamento, máquinas e computadores e até nos comunicarmos à distância usando redes sem fio ligadas aos nossos cérebros seria um livro de ficção científica. E seria daquelas ficções de mais remota realização. Hoje seria um livro de futurologia, daqueles até que bastante plausíveis.

Toda semana a Nature publica um ou dois artigos com feitos experimentais que seriam quase inacreditáveis alguns anos atrás. Pequenos circuitos neurais controlando pequenos robôs, neuronios crescendo estruturas em volta de eletrodos, pequenos sensores capazes de detectar o sinal elétrico emitido por um único neurônio in vivo  no cérebro de um ratinho, um macaco capaz de controlar máquinas complexas com sinais elétricos de seu cérebro a milhares de quilometros de distância através da internet. Daria calafrios nos mais imaginativos escritores de ficção-científica de 20 ou 30 anos atrás saber que essas coisas estavam tão perto de se realizar.

Claro que eu só estou falando de feitos tecnológicos e pouco de neurociência. A questão é que esses feitos vieram com a grande aumento compreensão rápido do funcionamento do cérebro. E ainda estamos nos princípios dessa compreensão. Por isso eu acho que as próximas grandes surpresas estarão associadas ao quanto podemos saber sobre como funcionam nossos próprios cérebros.

%d blogueiros gostam disto: