Arquivo

Archive for the ‘Estatística’ Category

Economia de Subsistência…

domingo, 21 ago 2011; \33\America/New_York\America/New_York\k 33 4 comentários

O blog Daily Infographic publicou um infográfico bastante interessante (que pode ser lido no seguinte link: What You Need to Live Off the Land): pra se manter uma economia de subsistência, vivendo-se sustentavelmente da terra, é preciso um pedaço de terra de aproximadamente 90 4.046,85642 8.093,71284 m2 (i.e., 2 acres: algo como um terreno quadrado com 89,9650646 m de lado).

Ou seja, estimando-se em 25 milhões de pessoas o número da fome de terra, estamos falando em cerca de 202.500 Km2 — isto é, aproximadamente 37% da área da França, ou cerca de 57% da área da Alemanha.

vivendo da terra

Vivendo da terra

As cidades mais científicas do mundo…

sábado, 19 mar 2011; \11\America/New_York\America/New_York\k 11 Deixe um comentário

O Physics arXiv blog publicou uma matéria interessante. Mas, antes de falar da notícia, eu tenho que avisar que não estou entre os maiores fãs desse blog — na verdade, minha opinião flutua bastante: alguns artigos são bons, outros ficam bem longe disso… mas, em todos os casos, o Physics arXiv blog é bem enviesado (a seleção dos tópicos que aparecem por lá deixa isso claro além de qualquer dúvida, isso pra não falar sobre o nível das discussões, sempre bem ‘passageiro’) — e isso sempre me incomoda muito.

De qualquer forma, e sem mais delongas… eis o artigo: Mashups Reveal World’s Top Scientific Cities. O original pode ser lido diretamente nos arXivs: Which cities produce worldwide more excellent papers than can be expected? A new mapping approach—using Google Maps—based on statistical significance testing.

A discussão no ‘Physics arXiv blog’ não passa de “mais do mesmo”: ciênci-o-metria. Infelizmente, perde-se a chance de se avaliar o artigo propriamente dito, escolhendo-se apenas notificar a “mensagem” contida no mesmo. Parece até mesmo um órgão de Relações Públicas, apenas alardeando e propagandeando.

O artigo propriamente dito é de tão baixa qualidade que a vontade que se tem é de apenas se repetir o adágio invisível, que diz que os artigos dos arXivs não escritos em [La]TeX são sempre de qualidade duvidosa — pior ainda quando são escritos em Word, ou algum editor de pior qualidade ainda; sem identação apropriada (quem ainda usa ‘identação à esquerda’, ao invés de ‘justificado’? :razz:): via de regra, a falta de atenção a esse tipo de detalhe num artigo costuma refletir a baixa qualidade do material escrito. Mas, como eu disse, esse é apenas um “adágio invisível”, uma unspoken rule, que não se vê, não se ouve, e cujo perfume não se sente. 😳 🙄

De qualquer forma, a máquina de salsicha continua na ativa: como se mensurar o imensurável: quais trabalhos científicos têm mais qualidade, quais são mais dignos de fomento, quais têm mais impacto na comunidade?

Todas essas são questões relevantes, claro, mas uma lição que a Ciência tem que aprender com a Arte é que a medição da criatividade é algo estupidamente difícil. Aliás, nem é preciso se apelar para o lado mais humanista desta questão: basta apenas se aprender Sistemas Dinâmicos corretamente (o que, de fato, parece ser algo tão complicado quanto nos dias de hoje). A razão deste meu argumento é bem simples: como se pode avaliar algo que possui resultados de médio a longo prazo (sem esperarmos por tal prazo)?

A resposta é simples: não é possível se avaliar nada que dependa de médio a longo prazo sem esperarmos tal prazo passar e medirmos o resultado efetivo do que se deseja avaliar. Ou seja, precisamos esperar o tempo passar pra podermos sequer ter a chance de sermos justos nesta empreitada! Ou seja, falando um pouco mais rigorosamente, é preciso termos acesso a todos os dados para podermos conhecer o problema de modo completo.

Infelizmente, com a idéia de que as Universidades devem ser “profissionalizadas” (sabe-se lá o que isso significa :razz:) e, mais ainda, de que toda a empreitada científica deve ser “profissionalizada”, todo esse tipo de questão métrica se torna relevante: como se pode escolher aquilo que há de “melhor” para se fomentar? Assim como numa empresa, numa linha de montagem, é preciso haver alguma forma de “selo de garantia”, alguma forma de “controle de qualidade”. (Note que não estou falando do processo de ensino de estudantes, mas sim de pesquisa científica — falar de ensino por si só abriria outra Caixa de Pandora!)

Entretanto, ao contrário de empresas, fábricas e linhas de montagem, Universidades e Pesquisa Científica [fundamental] possuem planos de ação, missões, de longo prazo, de longuíssimo prazo: há universidades com cerca de 1000 anos de existência: quantas empresas, fábricas e linhas de montagem podem dizer o mesmo?! A própria Revolução Industrial tem apenas cerca de 250 anos!

Felizmente ou não, esta é a natureza da busca pelo conhecimento, e este é o papel da Ciência, principalmente daquela dita fundamental (que costuma dar frutos bem distante das aplicações do dia-a-dia). Por outro lado, hoje em dia, na nossa Era da Informação, é possível se converter algo tão abstrato quanto Teoria dos Grafos em compiladores e navegadores. Este é o caminho da Ciência e do Conhecimento: a menos que se tenha acesso a toda informação, só se pode ver aquilo que está no curto prazo… 😉

Isso tudo só server pra fazer com qua a analogia posta acima — entre Sistemas Dinâmicos e Funções de Partição — fique ainda mais clara aos olhos: quando vc tem acesso à Função de Partição dum problema, vc tem em mãos toda a informação necessária pra resolver o problema completamente; no caso de Sistemas Dinâmicos, como o nome indica (dependência temporal), é muito difícil de se calcular o que vai acontecer no futuro (não-linearidades, caos, etc). E, no final das contas, tudo que se quer medir são os Fenômenos Críticos, as Transições de Fases, e as Propriedades de Escala do sistema em questão.

A mensagem é clara: sem uma visão mais global é impossível se poder qualificar e medir justamente um trabalho científico. Incontáveis exemplos, de Einstein à Wilson, todos nobelistas, jamais teriam os “índices” e os “fatores de impacto” necessários, hoje, para serem contratados em regime de ‘tenure track’ — isso é claro pra qualquer um que já tenha feito o exercício mental requerido por esta questão.

Algumas empresas e alguns nichos industriais já descobriram esse fato básico da natureza humana… aliás, no âmbito de Sistemas Dinâmicos tudo isso tem nome: Cisne Negro e Dragões Reis. 😈

Infelizmente, parece que esse aprendizado e essa mensagem ainda não chegaram na academia — um fato bem irônico, posto que a academia é o lugar onde tais idéias (transições de fase, cisne negros e dragões reis) nasceram! 😳 Então, por enquanto, nós ainda vamos nos debelando com índices e fatores de impacto e outras bobeiras afins. Eu gostaria que fosse feito um estudo com as revistas de maior impacto, procurando-se saber quantos dos artigos publicados nestas revistas deram origens a novos caminhos e novos ramos em seus respectivos campos da Ciência. Taí uma perguntinha bem capiciosa e que por motivos “mágicos” ainda ninguém teve a idéia de responder… 🙄 (Diquinha: eu não me lembro de Einstein ter publicado na Nature nem na Science, então nem as Relatividades nem a Mecânica Quântica (ou Teoria Quântica de Campos) tiveram suas origens nas revistas ditas de alto impacto; o mesmo vale, por exemplo, para as chamadas Transições Quânticas de Fase: o Kosterlitz não publicou numa revista de alto impacto — aliás, porque ninguém pergunta pro Kosterlitz o que ele pensa disso tudo, afinal de contas ele deu origem a todo um ramo da Física, logo deve saber o que significa “alto impacto científico”, não?! :razz:)

Pra finalizar, vou apenas me resignar a dizer que a análise estatística feita no tal artigo é de baixa qualidade, não apenas porque não leva em conta os cisnes negros e os dragões reis, mas também porque não leva em conta tantos outros métodos que a tornariam bem mais robusta. É uma pena, porque os “efeitos visuais”, os “efeitos especiais”, do artigo são bem bonitinhos… [bonitinhos mas ordinários! :razz:]

[]’s.

Atualizado (2011-Mar-19 @ 11:15h EDT): Ah… a ironia do destino. Assim que acabei de escrever o post acima, trombei no seguinte livro: Little Bets: How Breakthrough Ideas Emerge from Small Discoveries. O ponto do livro é clararamente exposto no título, mas também já foi feito por Asimov,

“The most exciting phrase to hear in science, the one that heralds new discoveries, is not ‘Eureka!’ (I’ve found it!), but ‘That’s funny…'”

Isaac Asimov.

Experimentação, passo-a-passo, erros e mais erros… é assim que se faz Ciência: a idéia de que pesquisa e progresso é feito através duma seqüência de ‘acertos’, de passos corretos, não poderia estar mais distante da realidade… c’est la vie

Robust Discretization Schemes…

quarta-feira, 26 jan 2011; \04\America/New_York\America/New_York\k 04 3 comentários

ResearchBlogging.org

Today, the following article came up on the arXivs:

This is all fine and dandy… but my question is: “How does this paper (above) compare to the following”:

That is, GR is naturally written in terms of [pseudo-]differential forms (aka tensor densities), so the methods described above should be very appropriate to attack the problem of discretizing the path integral in such a way as to retain its symmetries.

» Robert Oeckl (2005). DISCRETE GAUGE THEORY: From Lattices to TQFT World Scientific eBooks, 1-216 DOI: 10.1142/9781860947377

História do Mundo, em menos de 5 minutos…

quarta-feira, 1 dez 2010; \48\America/New_York\America/New_York\k 48 1 comentário

Hans Rosling ataca mais uma vez! 😈

Verdades, mentiras e estatisticas na campanha eleitoral

quarta-feira, 13 out 2010; \41\America/New_York\America/New_York\k 41 3 comentários

Peço licença aos meus co-blogueiros para falar sobre as eleições presidenciais. Uma vez que eu não vou emitir nenhum juízo sobre nenhum dos candidatos, nem explicitar preferência alguma, creio que não há problema. Na verdade o tema eleitoral é só uma desculpa para falar sobre estatística :P. Caso haja problema, por favor me avisem.

Nessa campanha presidencial – como, aliás, deve ser em qualquer campanha eleitoral – tem acontecido uma fenômeno interessante nas propagandas e discursos de aliados de cada um dos candidatos do segundo turno. Ambas as campanhas tentam comparar os governos de Lula e FHC apresentando todo tipo de números e estatísticas. O interessante é que o cenário parece estranhamente ambíguo: para cada estatística que mostra Lula melhor que FHC existe outra que mostra o exato contrário. Para dois exemplos interessantes desse tipo de campanha, veja esses dois links:

Esse fenômeno pode parecer estranho para os espectadores da campanha menos acostumados aos números. Afinal, quem foi melhor para o ensino superior, FHC que aumentou o número de matrículas ou Lula que criou mais universidades? Quem diminuiu mais a pobreza, FHC que aumentou 4 vezes mais o IDH ou Lula que criou 3 vezes mais empregos?

Não há nada de estranho aí. O que está por trás dessa estranheza é uma falácia estatística que pode ser chamada “falácia do atirador”. Imagine um homem que quer demonstrar que é um excelente atirador e te mostra um alvo pintado em um campo de tiro, com 10 tiros certeiros na mosca. Você pode achar que ele é um grande atirador mesmo, mas sabe como ele produziu esse resultado?

O atirador ergueu uma enorme parede de madeira, de 10 metros de largura e 5 de altura, colocou-se na posição de tiro e descarregou 500 tiros contra a parede, sem tentar mirar particularmente em nenhuma posição. Claro que depois disso a parede estará cravejada de buracos e em alguns lugares haverá buracos de tiro mais próximos um dos outros. O atirador escolhe convenientemente 10 buracos que, ao acaso, ficaram bastante próximos entre si e desenha e pinta o alvo em torno deles. Então ele corta o resto da madeira e recoloca o alvo em sua posição original, com 10 tiros “certeiros” na mosca.

O homem não é um excelente atirador. Ele apenas escolheu o alvo depois de ter os resultados. Ele selecionou os “bons” resultados e descartou os ruins. Ele transformou uma distribuição bastante larga em uma distribuição mais estreita apenas descartando certos resultados e mostrando outros.

Como isso se aplica à campanha eleitoral?

Para cada aspecto de um governo que você queira avaliar, existe um sem número de estatísticas que podem ser usadas. Se, por exemplo, eu quero avaliar a evolução da renda, posso mostrar o crescimento do PIB per capita, ou de algum índice de salários, ou da fração do PIB correspondente aos salários, ou quanto subiram os salários em comparação com a taxa básica de juros, ou comparar com taxas “reais” praticadas no mercado. Posso comparar esses números em dólares ou reais, posso comparar o poder aquisitivo real, ou quanto essa renda compra de uma certa cesta de produtos essenciais. Posso focar apenas no crescimento da renda da classe C, ou em quanto cresceu (ou caiu) a razão da renda da classe C pela renda da classe A. Posso comparar quantos bens de consumo essenciais as pessoas conseguem comprar, ou posso comparar quanto o crescimento de suas rendas se compara com o rendimento de um certo investimento padronizado. Todas essas são formas de comparar quanto a renda cresceu.

Deu para perceber que existe um grande número de estatísticas para comparar dois governos, mesmo que fiquemos apenas no restrito conjunto de estatísticas referentes ao aumento da renda. Se eu comparar todos esses números entre o governo A e o governo B, alguns resultados serão pró-A e outros serão pró-B. É natural que seja assim por uma razão simples: há uma flutuação incrível nesses números. Flutuações temporais, flutuações causadas por diferentes metodologias ou mesmo flutuação que resulta do processo de amostragem. A incerteza nesses números as vezes é muito grande, e medidas em semanas diferentes podem causar flutuações de vários pontos percentuais. Não temos um valor determinado para esses números, temos uma distribuição de probabilidades que representa o quanto sabemos sobre eles. E essa distribuição é relativamente larga.

Então existe uma probabilidade de que cada estatística seja pró-A ou pró-B, ainda que os governos A e B tenham sido mais ou menos parecidos. E mesmo que o governo A tenha sido muito melhor que o governo B em certo sentido, ainda assim teremos uma certa probabilidade de ter um certo número de estatísticas pró-B. Mas eu sempre posso escolher que fração das estatísticas que eu pretendo mostrar será pró-A ou pró-B. Eu posso apenas mostrar 100% de estatísticas pró-A e argumentar assim que o governo A foi incrível. Isso é bem ilustrado pela famosa propaganda da Folha de São Paulo de alguns anos atrás, em que se apresenta diversas estatísticas positivas do governo de Adolf Hitler na Alemanha, que certamente foi um governo desastroso!!!

Então é impossível comparar dois governos com estatísticas? Claro que não. É perfeitamente possível. Apenas é necessário fazê-lo de forma sistemática, com métodos claros, com padrões e referências bem definidos. Existem procedimentos para se evitar a falácia do atirador em estudos estatísticos. Por exemplo, pode-se escolher que estatísticas serão calculadas de antemão, antes da colheita de dados, de acordo com um método bem definido. Isso evita que se “desenhe o alvo” em torno do resultado desejado. Pode-se fazer uma análise de sensitividade, mostrando que ainda que a metodologia fosse diferente, o resultado não seria tão diferente assim. Enfim, existem técnicas para isso.

Mas isso é algo que campanhas eleitorais nunca serão capazes de fazer. Elas são enviesadas por princípio, a cesta de índices que escolhem para mostrar é viciada e sua interpretação errônea e vazia. E isso vale para qualquer campanha, independente da orientação ideológica do candidato. É inevitável. Não chega nem a ser desonestidade, é da natureza da propaganda. O ideal seria que, ao invés de usar os números de forma leviana, fossem contratados estatísticos profissionais e neutros para criar essas análises. Mas isso nunca vai acontecer. 😉

O melhor é que o eleitor esteja atento às formas com que os números podem ser usados contra ele. Números adequadamente escolhidos podem defender qualquer estória que se deseje contar. Mas não fique achando que toda estatística é resultado de manipulação. Há métodos adequados para se evitar a manipulação, mesmo a manipulação involuntária.

Há uma citação de natureza ética difundida entre os estatísticos adequada para fechar essa discussão. Infelizmente não me lembro o autor ou a exata fraseologia, mas a essência é: é sempre possível mentir usando a estatística, mas é impossível dizer a verdade sem ela.

%d blogueiros gostam disto: