Arquivo

Posts Tagged ‘Economia’

Economia de Subsistência…

domingo, 21 ago 2011; \33\UTC\UTC\k 33 4 comentários

O blog Daily Infographic publicou um infográfico bastante interessante (que pode ser lido no seguinte link: What You Need to Live Off the Land): pra se manter uma economia de subsistência, vivendo-se sustentavelmente da terra, é preciso um pedaço de terra de aproximadamente 90 4.046,85642 8.093,71284 m2 (i.e., 2 acres: algo como um terreno quadrado com 89,9650646 m de lado).

Ou seja, estimando-se em 25 milhões de pessoas o número da fome de terra, estamos falando em cerca de 202.500 Km2 — isto é, aproximadamente 37% da área da França, ou cerca de 57% da área da Alemanha.

vivendo da terra

Vivendo da terra

Anúncios

Real e ficção na economia brasileira

quinta-feira, 2 jun 2011; \22\UTC\UTC\k 22 9 comentários

Este post apresenta opiniões sobre política econômica do autor e não necessariamente refletem as opiniões de todos os editores do blog.

Não foi com muita surpresa que eu vi essa sequência de notícias que você pode receber o fato mais importante diretamente dos títulos:

  1. DVD [no Brasil] custa mais que o triplo dos EUA
  2. iPad brasileiro é o mais caro do mundo
  3. Artigo no Financial Times vê bolha em formação no Brasil

fatos que estão também relacionados ao que eu postei sobre o fictício PIB brasileiro (comentários os quais parece que os brasileiros discordam…).

Parece vitrola quebrada, mas o elo de ligação é a tributação e a estrutura do serviço público no Brasil. A situação é tão grave que é assim: se o produto é importado, no Brasil ele é um dos mais caros do mundo por causa do excesso de tributos a importados; se o produto é nacional, ele também fica entre os mais caros do mundo, por causa do excesso de tributos internos. Eu considero a política brasileira com respeito a importações um atraso, eu vou me explicar abaixo. A tributação exagerada faz tudo ser mais caro no Brasil, onde os salários também são baixos, e o resultado vai desde um PIB surrealista — porque os serviços públicos e privados somados estão acima do preço real comparado a outros países — a anulação do poder de compra do brasileiro. No meu ver, a razão disto é que o serviço público brasileiro é muito caro, requerendo impostos que somam mais da metade de um produto no mercado. E a minha birra com isto é que o Brasil cobra para mais de 35% de imposto do PIB, acima da maioria dos países ricos, todavia oferece um serviço público de péssima qualidade.

Por quê? E qual a solução? Eu acredito que é porque o investimento do governo brasileiro não é no serviço final, é no sistema político. Por exemplo, o orçamento do Congresso Nacional e do Senado é maior que o orçamento total do MCT. Dado o orçamento total do MCT, que parte deste realmente vai para as mãos dos pesquisadores, e quanto se perde nas mãos dos diversos acessores, auxiliares, suplentes dentro do MCT e dentro das diversas secretarias e subsecretariais do serviço público? Como é possível que o Brasil tenha um investimento em educação pública (digo o número oficial do orçamento do MEC) superior ao do Canadá, mas os professores das escolas brasileiras ganham miséria? Estes últimos ganham pouco, mas ninguém do gabinete de educação das prefeituras e dos governos estaduais recebe três salários mínimos. No Brasil, os grandes salários públicos estão concentrados em certos cargos políticos e burocráticos enquanto que os serviços propriamente ditos recebem pouco investimento. Segundo os dados do IBGE deste ano, o funcionário público brasileiro em média recebe mais que o da área privada (sem incluir benefícios do setor público). Ou seja, não é que o orçamento do MEC é baixo e sim que há uma espécie de atrito financeiro no Estado brasileiro que faz com que a parcela do orçamento que é realmente investido no serviço ser baixa. E a corrupção faz parte natural disto porque o excesso de atravessadores a favorece.

A solução que ninguém gostaria de ver acontecer é começar a enxugar o estado brasileiro, diminuindo duas coisas: primeiro, acabando com o excesso de burocratas, secretários, auxiliares e tudo mais (incluindo os serviços de corregedoria e procuradoria dos próprios regularadores), e segundo, deixando serviços importantes como hospitais, planos de saúde, escolas, universidades públicas, policia e bombeiros, forças armadas, etc., mas acabando com certos excessos da participação do estado na economia, como o controle estatal de bancos e empresas (como a Petrobras e a Embraer) e acabando com leis de monopólio (como de extração de base energética). Antes que você pule da cadeira e brande de raiva “Absurdo!”, pense por que o estado brasileiro tem participação no setor privado, em primeiro lugar? Que benefício para a sociedade isso tras? Agora eu vou dar a razão de porque eu acredito que a privatização do Banco do Brasil e termino do monopólio energético iria ajudar o país: o Estado ficaria mais barato, e poderia diminuir impostos e criaria maior competição no mercado. Maior competição não vai automaticamente gerar melhor serviço mas é melhor a chance disto do que nenhuma chance. E com menos impostos, a economia cresce, os preços dos produtos ficam mais realista e o poder de compra do brasileiro aumenta. Com maior produção econonomica privada, a arrecadação do Estado não fica comprometida: você pode derrubar de 35% para 25% do PIB em imposto, mas se o PIB privado cresce, esses 25% podem representar algo mais significativo que 35% de uma economia engessada. E principalmente, com a diminuição dos burocratas, pode-se injetar o dinheiro do imposto no serviço, ao invés de deixá-lo com os secretários. Legislação que incentiva o setor privado a agir no lugar do publico localmente é outro elemento importante: leis como a Lei de Incentivo a Cultura deveriam ser emuladas para áreas como saúde, educação e ciência. Críticas de que esse sistema é ruim porque incentiva a Maria Bethânia, uma grande artista, é tolice. É como argumentar que é ruim a iniciativa privada descontar 15% de imposto de renda financiando um grande centro privado para o Miguel Nicolelis baseado no fato de que este já é um cientista bem estabelecido e com pesquisas de impacto e que no lugar disso o investimento deveria ir exclusivamente para um Centro de Estudo de Besouros da Amazônia. O incentivo privado a pesquisa reflete a própria realidade do que é ciência de interesse da sociedade ao invés do interesse de um grupo pequeno de burocratas.

OKay, chega. Por último eu quero comentar sobre a política de importação do Brasil, que eu acho absurda. A lógica parece ter sido estabelecida em algum momento da antiguidade brasileira quando alguém conseguiu convencer as pessoas que a entrada de produtos importados indiscriminada no país prejudica o mercado interno. Por que isso seria verdade? Alguém pode dizer: “porque importar diminui postos de trabalho interno”. Se uma câmera digital importada de Taiwan no Brasil custasse o mesmo que ela custa nos EUA (onde a câmera também é importada), haveria mais movimentação para a economia interna: criação de postos de trabalhos em transportadoras para levar dos portos as cidades, de gerentes de vendas e de vendedores, de técnicos da assistência técnica, de vendedores de peças, da indústria nacional fabricando acessórios, e por ai vai. Onde se criaria o emprego de assistência técnica no Brasil de novos postos de câmeras e lentes Nikon? Quem vai transportar os automóveis japoneses do porto até as concessionárias? Se o MacBook era inacessível ao brasileiro porque custava R$ 8 mil e passou ao preço norte-americano de R$1,6 mil, que mercado vai se beneficiar com a criação de novas lojas de pontos de venda de produtos da Apple, agora mais popular? A patente prova de que importação não atrapalha o mercado interno é os EUA, onde muitos produtos comercializados internamente (com excessão de alimentos, mas incluso bebidas alcóolicas) são importados. Grandes empresas estrangeiras tem hoje nos EUA o seu maior mercado (a começar pela população grande), e criam muitos postos de trabalho no país. Os únicos reais beneficiados da política tributária brasileira são alguns funcionários públicos, e exclusivamente estes.

Esperteza no Mercado Financeiro…

terça-feira, 10 mar 2009; \11\UTC\UTC\k 11 9 comentários

Já não é de hoje que eu ando ouvindo as trombetas do apocalipse culpando os “analistas quantitativos” (chamados de “quants”) pela infâme crise financeira atual: segundo voz corrente em Wall Street, “a culpa de tudo é desses PhDs”,

“Quants occupy a revealing niche in modern capitalism. They make a lot of money but not as much as the traders who tease them and treat them like geeks. Until recently they rarely made partner at places like Goldman Sachs. In some quarters they get blamed for the current breakdown — “All I can say is, beware of geeks bearing formulas,” Warren Buffett said on “The Charlie Rose Show” last fall. Even the quants tend to agree that what they do is not quite science.”

Ou seja, no final das contas, eis o que está em jogo: Quanto mais “racionalização” (i.e., o trabalho dos quants) se tenta introduzir no tal “mercado financeiro”, pior fica a situação! 😥

Efetivamente, isso até faz sentido (nem acredito que falei isso — se protejam dos raios! 👿 ), uma vez que o tal “mercado financeiro” foi construído, historicamente, por forças que só viam uma maximização selvagem dos lucros, sem racionalidade nenhuma, quiçá ser passível de modelagem matemática. De fato, é como tentar se domar uma besta selvagem… com sete cabeças! 😯

Muita ingenuidade é acreditar que se pode simplesmente colocar um bando de gente modelando algo que, ainda hoje, contém forças intensas que não querem se submeter a nenhum tipo de racionalização (uma vez que, mais cedo ou mais tarde, isso acaba implicando numa racionalização dos lucros, i.e., vc não ganha tão selvagemente mas também não perde tanto dinheiro a ponto de causar uma epopéia mundial, como essa que estamos vivendo ❗ ).

O que é mais triste de tudo isso — absolutamente triste 😥 — é a idéia de que todo esse impasse não passa duma reinvenção da famigerada Guerra das Ciências (leia mais em Phony Science Wars, The Two Cultures, Making Social Science Matter, Social Text Affair, Edge Foundation, The Third Culture). Pior ainda, como o fato é que estamos numa crise financeira (recessão a caminho duma depressão!) de proporções mundiais, envolvendo as maiores potências econômicas atuais, fica cabalmente demonstrado que irracionalidade não leva a lugar nenhum, i.e., enquanto os cães ladravam (tentando avisar que a selvageria não iria levar a lugar nenhum), a caravana ia passando incólume (sem nunca perceber o tamanho do buraco negro que estava a sua frente).

Triste é ter que notar que essa é a essência da natureza humana: a completa e total falta de comunicação, um cabo-de-guerra onde todo mundo perde… 😥 Por que é tão difícil assim de finalmente darmos um passo a frente, largarmos essa irracionalidade “macho alpha” (que é a bússola guia dos “stock traders”) de lado, e partirmos em direção duma maior inclusão de razão na nossa vida como um todo, das “hard sciences” até o mercado financeiro?!

Esse é o objetivo final da chamada Terceira Cultura, que tenta construir uma ponte entre o antigo cabo-de-guerra representado pela “Guerra das Ciências”, e mover a humanidade adiante. E é isso que eu honestamente espero que deixemos como legado para as próximas gerações.

😈

Bill Moyers entrevista Robert Johnson…

sábado, 28 fev 2009; \09\UTC\UTC\k 09 Deixe um comentário

Pra quem não conhece os personagens em questão: Bill Moyers e Robert A. Johnson.

Novas estruturas sociais e o cientista hacker…

quinta-feira, 19 fev 2009; \08\UTC\UTC\k 08 Deixe um comentário

Com a crescente fusão entre ciência e tecnologia (principalmente TI), surgem novas formas de produção e distribuição do conhecimento.

Origens da divulgação científica

Em ciências (exatas, humanas ou biológicas), desde os primórdios até hoje, a forma preferida de divulgação do conhecimento é oral, por meio de palestras, congressos e conversas formais ou informais. Isso acontece porque explicar a lógica por detrás de uma idéia, de um raciocínio ou de uma metodologia, costuma requerer mais do que a comunicação escrita pode oferecer. Ao vivo, é possível interagir com o interlocutor. Perguntas e respostas são fundamentais para o entendimento.

Com o desenvolvimento histórico, porém, os modos de organização sociais mudaram, outros continentes foram descobertos, a humanidade se expandiu. A história das ciências também mudou: a cada nova escolha feita pelas sociedades, era necessária uma nova adaptação do método científico e de sua divulgação. Na Babilônia e no Egito, há registros de números Pitagóricos, incluindo o famoso teorema de Pitágoras, que datam de 1900-1600 AC, alguns ainda em escrita cuneiforme. Compare isso com as nossas mais modernas formas de escrita: TeX, XHTML, MathML.

Enquanto o mundo era pequeno (Europa/Eurásia) e com o aparecimento de “centros de excelência” para as diversas áreas do saber, a divulgação do conhecimento humano acontecia sem grandes problemas. Porém, com a entrada do “Novo Mundo”, as distâncias começaram a mudar o modo de divulgação científica, passando de oral para escrita. Só assim era possível comunicar as descobertas para os diversos cantos do mundo. Publicava-se uma enciclopédia, uma revista, e essa era levada de barco para o resto do globo. Foi basicamente por essa razão – transposição das distâncias –, num contexto de desenvolvimento da tecnologia da impressão por Gutenberg, que as revistas científicas tomaram a forma que, em alguns casos, adotam até hoje. Contudo, a revolução tecnológica desse último século, incluindo a revolução digital, começou a chacoalhar as fundações desse modelo.

Internet: agilidade na popularização do conhecimento

Flexibilidade e dinamismo na divulgação do conhecimento são peças fundamentais em ciências. Dentre outras razões, estão o simples fato de se atrair um maior interesse no trabalho dos pesquisadores (jovens cientistas, alunos) e o fato de que o resultado da pesquisa de um determinado grupo poder catapultar a pesquisa de outros grupos. Quanto mais pessoas tiverem acesso aos resultados de determinada pesquisa e quanto mais rápido esses resultados forem divulgados, maior será a chance de avançar aquela área do saber. Em alguns casos, essa dinâmica é necessária para manter vivo um campo do conhecimento.

A invenção da Internet e a popularização das tecnologias de computadores, modems, bandas-largas e redes foram um passo fundamental na direção de se agilizar a produção e divulgação do conhecimento. Hoje em dia, é rotina um pesquisador de um lado do globo comunicar seus resultados para seus colaboradores em outros cantos do planeta. Quando se adiciona a isso o fato de que o conhecimento da humanidade pode seguir um novo paradigma de “velocidade, flexibilidade e dinâmica”, esse avanço tecnológico passa a ser incomensurável.

Esse novo ”modus operandi” é fundamental para que se possa maximizar os caminhos da ciência: tanto na direção do cientista para o leitor quanto na do leitor para o cientista. Mas, para que isso se realize, é imprescindível que a divulgação seja o mais democrática possível, habilitanto qualquer pessoa em qualquer lugar do mundo a ter acesso a informação. Nossa sociedade industrial transformou-se em uma sociedade que valoriza a informação. Essa é uma das razões que justifica a existência de modelos de distribuição como o usado pelo arXiv (distribuição gratuita) em lugar de modelos canônicos (revistas especializadas e seus custos).

Ciência da Computação e a revolução digital

Ciência e tecnologia são conceitos diferentes. De acordo com suas definições de dicionário:

  • ciência: conhecimento; conhecimento de princípios e causas; confirmação da verdade dos fatos;
  • tecnologia: aplicação prática da ciência para o comércio e/ou indústria [sinônimos: engenharia, ciência aplicada].

Dada essa distinção, surge a questão de como ciência e tecnologia se relacionam. Em outras palavras, “qual é a ”distância” entre um fato científico e seu correspondente tecnológico?” Para quem está familiarizado com essa questão, é fácil ver que isso é complicado. É preciso entrar nos pormenores de cada área do saber e avaliar o quão próximo do dia-a-dia cada uma delas está. “O que é que se pode fazer de prático com Gravitação Quântica?” Contraste isso com: “O que é que se pode fazer de prático com uma vacina contra a AIDS?” ou ainda “O que é que se pode fazer de prático com a nanotecnologia?” A Gravitação Quântica está bem longe de trazer resultados práticos para o nosso dia-a-dia. Em compensação, pesquisas em HIV e em nanotecnologia estão presentes e afetam a nossa vida diariamente.

Entretanto, é preciso ter cuidado com esse tipo de afirmação: avanços tecnológicos aparecem onde menos se espera. As dificuldades técnicas em se construir equipamentos para pesquisa pura, como aceleradores de partículas (por exemplo, CERN e SLAC) levaram a avanços enormes para os componentes de computadores. O volume de dados que trafega pelas redes de computadores desses experimentos chega a atingir 1 Terabyte (1024 Gigabytes) por segundo, e uma colisão típica nesses aceleradores leva alguns segundos. Um experimento para se medir alguma propriedade de uma teoria de Gravitação Quântica pode levar a avanços dessa natureza.

Para ilustrar esse argumento, vale a pena lembrar duas frases do físico inglês Michael Faraday. Enquanto Faraday explicava uma nova descoberta para o Ministro das Finanças e para o Primeiro Ministro britânicos, perguntaram-lhe ”‘Mas afinal, que uso tem isso?’”, no que Faraday respondeu, ”‘Excelência, é provável que em breve o senhor esteja cobrando impostos sobre isso’”. Em uma outra conversa, o Primeiro Ministro britânico lhe perguntou a respeito de uma nova descoberta ”‘Que valor tem isso?’”; Faraday respondeu, ”‘Que valor tem um recém-nascido?’” e prosseguiu explicando que sem os cuidados de uma boa infância, um recém-nascido não cresce e não se torna um adulto criativo e trabalhador.

Na área de Ciência da Computação, a distância entre ciência e tecnologia fica ainda mais difícil de medir. Por exemplo, Teoria dos Grafos é uma das áreas de pesquisa da matemática pura. Porém, em Ciência da Computação, o conhecimento de Teoria dos Grafos é fundamental para a construção de compiladores (programas que traduzem código escrito em uma linguagem para linguagem de máquina), ou então para o desenvolvimento das linguagens usadas na criação de páginas WWW para a Internet, como o HTML, XHTML, XML, CSS e seus interpretadores (navegadores, como Mozilla Firefox e Opera). Uma teoria abstrata como Teoria dos Grafos acabou gerando uma aplicação imediata. Sem ela, nenhum de nós estaria surfando na Internet hoje.

A Ciência da Computação introduziu um novo paradigma a respeito dessa “distância” entre teórico e prático. E esse novo paradigma trouxe consigo um novo conceito para a nossa sociedade pós-industrial: ”O conceito de Sociedade da Informação”. Uma visão corrente afirma que foi a Tecnologia da Informação que causou essa mudança. Entretanto, é preciso ter em mente que esta teve origem na Ciência da Computação. Uma nova gama de ciências apareceram por causa desse ”insight”, como Teoria da Informação e Inteligência Artificial. O momento histórico, portanto, é mais do que propício para discutirmos uma possível liberação dos meios convencionais de divulgação científica.

Propriedade intelectual

Cooperação e colaboração entre cientistas e acesso às pesquisas e seus resultados são pontos para que se caminhe em direção ao futuro. Portanto, tanto a ciência quanto seus pesquisadores são historicamente livres. No começo dos tempos científicos, a pesquisa e seus resultados tinham uma aplicação prática muito mais tímida do que hoje em dia. Atualmente, é possível ganhar um Prêmio Nobel pela descoberta da estrutura de dupla-hélice do DNA (via cristalografia de raios-X), ou pela descoberta da liberdade assintótica dos quarks, coisa que os egípcios e babilônios jamais sonharam. As aplicações da nanotecnologia vão desde tecidos inteligentes até computadores quânticos e ”spintrônica”. No campo de biotecnologia, desenvolvem-se fármacos para combater um vírus específico. Em suma, aprendemos a dar forma, cor, sabor e até cara para nossos achados científicos de tal forma que, teorias antes consideradas completamente abstratas e sem aplicação prática, são hoje os pilares de uma revolução no nosso modo de vida.

Com esses avanços, um método para a proteção do conhecimento foi desenvolvido. Trata-se da ”Propriedade Intelectual”. Esse desenvolvimento ocorreu ao mesmo tempo em que a nossa ciência ficava cada vez mais próxima da tecnologia. Isso acontece por uma razão bem simples: economicamente, é mais fácil atribuir valor à tecnologia do que à ciência. Afinal de contas, o que é mais fácil quantificar: a Teoria Quântica de Campos e seus aceleradores de partículas ou os computadores e suas tecnologias de rede e bandas-largas? O que é mais fácil de medir: 20 anos de estudo ou um novo antibiótico?

Em vista disso, a medida de ”distância” entre ciência e tecnologia passou a ser cada vez mais fundamental: com o aumento da proteção sobre o conhecimento, o custo sobre o desenvolvimento científico pode tornar-se proibitivo. O desenvolvimento científico deixaria de ser livre. Já imaginaram o que seria do mundo moderno se Maxwell tivesse “cobrado” por sua teoria, o Eletromagnetismo? Sua teoria resume-se a 5 equações. Quatro delas descrevem os fênomenos elétricos e magnéticos propriamente ditos e uma delas descreve a conservação de carga. Essas equações, chamadas Equações de Maxwell, são a base de tudo que é elétrico, eletrônico e magnético hoje em dia (lâmpadas, geladeiras, microondas, computadores). Isso ilustra a dificuldade de atribuir-se um valor econômico a descobertas científicas.

Porém, é necessário dar valor à tecnologia, afinal de contas os produtos e resultados das pesquisas científicas têm que gerar alguma coisa. E é por isso que o paradigma atual, de revolução digital e sociedade da informação, é tão crítico. Como foi mostrado acima em Ciência da Computação, essa distância entre ciência e tecnologia é algo mal definido. Um mestre em Teoria dos Grafos pode inventar um novo compilador, isto é, um teórico pode produzir tecnologia. A Ciência da Computação é a primeira a permitir esse nível de interação entre teoria e prática, entre ciência e tecnologia. Esse é o primeiro palco onde a mais abstrata das matemáticas acaba tendo aplicações práticas de uma utilidade inigualável.

Bazar do conhecimento: por uma sociedade livre e universal

É essa mistura entre ciência e tecnologia, entre teoria e prática, que foi responsável pela revolução digital, pelo nosso novo paradigma cultural (pós-industrial) de sociedade da informação. Portanto, nesse novo momento histórico nós, enquanto coletividade/sociedade, teremos que fazer uma escolha que mudará nossas vidas de forma crítica: ”como é que vamos lidar com a impossibilidade de se medir a distância entre ciência e tecnologia?”. Essa pergunta é fundamental para os futuros modelos econômicos.

Dentre os estudiosos dessa nova economia e sociedade, destacam-se Eric Raymond (The Cathedral and the Bazaar) e Richard Stallman (Free Software, Free Society). O ponto principal dessas referências é que tudo que nelas é descrito como cultura hacker sempre fez parte da cultura da ciência e dos cientistas. Segundo o dicionário dos programadores, a definição de ”hacker” é “um programador para quem a computação em si é sua própria recompensa” e “aquele que gosta do desafio intelectual de superar barreiras criativamente ou encontrar alternativas para limitações”). Ora, cientistas têm sido assim desde sempre. Cientistas são ”hackers”: hackers da matemática, da física, da química, da biologia, da ciência da computação.

Portanto, e chegamos agora ao ponto crucial: estamos vivendo o momento do ”interlace de culturas”, de permeação da cultura ”hacker” na cultura científica. Creio que esse interlace se originou na Ciência da Computação, a primeira ciência a permitir uma interação intensa entre teoria e prática. Assim, nesse momento cultural, vivemos a impossibilidade de discernir ciência de tecnologia e cultura hacker de cultura científica. Dessa forma, a escolha crítica que teremos que fazer reside no fato de que a cultura hacker/científica é fundamental e diferente do paradigma econômico em que vivemos hoje, principalmente no que diz respeito à produção de valor.

O caminho na direção de uma sociedade mais livre e universalmente inclusiva terá que lidar com essas questões, terá que formular respostas para essas questões, terá que encontrar novos paradigmas sociais e econômicos que acomodem essas questões. Um dos problemas a serem atacados é o da universalidade da ciência, principalmente no que diz respeito à sua divulgação. A meu ver, a solução mais universalmente inclusiva e livre para essa questão deve seguir os moldes do arXiv. Trata-se de uma solução que permita o acesso irrestrito ao conhecimento, às pesquisas e seus resultados. E, dado o modelo econômico atual, isso só pode ser feito através de uma forma eletrônica e gratuita de divulgação científica. Seria fantástico se o modelo do arXiv fosse adotado para todas as outras áreas do saber.

Epílogo: Uma breve história do arXiv

No começo, o arXiv era chamado “LANL preprint archive” (LANL é o Laboratório Nacional de Los Alamos – lugar onde a física das bombas atômicas da Segunda Guerra Mundial foi finalmente entendida e “dominada”). Ele é um arquivo para ”preprints” eletrônicos de artigos científicos nos campos de Física, Matemática, Ciência da Computação e Biologia Quantitativa. No passado, o servidor do arXiv ficava no LANL mas, atualmente, o arXiv é servido e operado pela Universidade de Cornell, além de ser espelhado pelo mundo afora. Sua idéia original é devida ao físico Paul Ginsparg.

O arXiv surgiu em 1991 como um arquivo de ”preprints” em física (hep-th, sigla que denota “física teórica de altas energias”) e, mais tarde, foi expandido para incluir, além de outras áreas de física, matemática, ciência da computação e, mais recentemente, biologia quantitativa. Em Março de 2004, o arXiv continha cerca de 267.000 preprints e recebia cerca de 3.000-4.000 novos preprints por mês!

O primeiro nome do arXiv foi xxx.lanl.gov, porém esse nome foi mudado quando se descobriu que programas de “censorware” (ou seja, programas de filtragem de conteúdo) estavam bloqueando seu acesso a partir de diversos sites, acreditando que as três letras X implicassem num site pornográfico. A idéia do XXX era a de que o arXiv era melhor que o WWW em todos os aspectos (já que a letra x vem depois da letra w no alfabeto).

A existência do arXiv foi um dos fatores mais importantes que levou à presente revolução em publicações científicas, conhecida como Open Access Movement (veja também Budapest Open Access Initiative e Berlin Declaration), com a possibilidade de levar ao desaparecimento das revistas científicas tradicionais (e, mais importante ainda, seus modelos de publicação).

Um método popular para se acessar a porção de matemática do arXiv é via o portal da Universidade da Califórnia em Davis chamado de Front. O portal oferece um método de busca poderoso e uma interface mais amigável para o usuário. Por essa razão, o arquivo de matemática é conhecido como ”[the] Front”.

Cientistas e matemáticos profissionais (como Grigori Perelman em 2002 e Richard Arenstorf em 2004) ”carregam” regularmente seus achados e demonstrações matemáticas no arXiv para o acesso e revisão mundial (e gratuito).

Referências

Enquete…

Diversão garantida…

😈

Micromotivos e macrocomportamento, parte I

sexta-feira, 31 out 2008; \44\UTC\UTC\k 44 5 comentários

Escolhendo como título o nome do livro famoso de um laureado pelo prêmio Sveriges Riksbank de Ciências Econômicas em Memória de Alfred Nobel [1], Thomas Schelling [2], pretendo discutir um pouco a minha área de pesquisa recente: modelagem quantitativa em ciências sociais e economia. Apesar de parecer um assunto novo, esse tipo de modelagem é na verdade bastante antigo, remontando a  Pierre de Laplace, Thomas Malthus,  David Ricardo, passando por Léon Walras, John Von Neumann e companhia. Essa é no entanto uma área de modelos bastante primários e ainda muito qualitativos. Ao longo desse período de história da modelagem quantitativa de fenômenos sociais houve um diálogo intenso (e negligenciado pelos dois lados)  com a física, particularmente a termodinâmica e a nascente mecânica estatística no final do século XIX. Ao longo das últimas duas décadas essa relação se intensificou novamente e o paradigma da mecânica estatística passou a integrar um programa de pesquisa em ciências sociais e economia com a criação de modelos microscópicos para diversos aspectos como dinâmica de opiniões, tráfego de automóveis,  negociações no mercado financeiro e outros.

A mecânica estatística é a área da física que lida com a ponte entre a dinâmica microscópia dos constituíntes da matéria e as observações macroscópicas que fazemos sobre ela. Por exemplo ela é capaz de, assumindo-se as leis de Newton para o movimento das moléculas de um gás, mostrar que as propriedades macroscópicas do mesmo devem satisfazer certas equações de estado (por exemplo a famosa lei dos gases ideias PV = nRT). É importante notar que essa ponte é feita admitindo-se um certo grau de ignorância sobre o estado microscópico do sistema e a forma correta de se fazer isso é associar uma distribuição de probabilidades aos possíveis estados microscópicos.

O primeiro problema na direção de um modelo estatístico para problemas economicos deve ser então identificar qual é a dinâmica microscópica – a forma com que cada agente economico se move no espaço de configurações. Para as moléculas dos gases temos leis newtonianas de movimento, para partículas menores temos a mecânica quântica. O que temos para pessoas tomando decisões de consumo e poupança, empresas tomando decisões de produção, governos intervindo e bancos decidindo taxas de empréstimo?

Nesse ponto é que paramos para a primeira grande crítica a esse tipo de modelagem. Partículas microscópicas não são conscientes, não aprendem, não tomam decisões racionais nem usam critérios objetivos para mover-se. São diferentes das pessoas. São mesmo? A história da modelagem das decisões economicas começou no século XIX com Léon Walras, Vilfredo Pareto e uma analogia com a mecânica. Walras criou uma teoria de equilíbrio, em analogia com o equilibrio mecânico. Claro que ninguém está propondo que pensemos nas partículas como pequenos seres racionais, mas a analogia com a mecânica e com a termodinâmica levou os economistas a admitir a idéia de que decisões racionais são tomadas através de problemas otimização (maximização de lucros, minimização de custos, etc.).

Na teoria microeconomica neoclássica as pessoas agem segundo escalas de preferência ordenadas através de um função chamada Utilidade. Construiu-se um modelo segundo o qual as pessoas agem para maximizar uma função que diz quão “felizes” elas estão com a decisão que tomaram, sujeito a vínculos que dependem das decisões das outras pessoas. A evolução dessa linguagem levou à construção do modelo de agente econômico ubíquo: o chamado Homo economicus, um agente ultra-racional, capaz de maximizar uma função  utilidade complicada de diversos parâmetros e escolher dentre todas as estratégias a que mais lhe traz benefício. Esse agente ideal tem poder computacional infinito e completo conhecimento de seu espaço de possíveis estratégias.

Esse modelo, apesar de ter bem servido à economia por um século, passou a ser questionado através de problemas em que era claro que, mesmo que houvesse um agente com esse grau de racionalidade, não há estratégias ótimas a se seguir diante da limitada informação disponível ao agente. Um desses modelos é o El Farol Bar. Hoje há modelos de agentes economicos tendem a ser mais realistas e focam-se na capacidade de aprendizado e desenvolvimento de estratégias “on-the-fly”, trocando o agente ultra-racional por um com racionalidade limitada.

Mas mesmo que nos mantenhamos no problema de agentes ultra-racionais, ainda resta a pergunta: como ligamos os modelos microscópicos de maximização de utilidade ao comportamento macroscópico da economia? Nesse campo a análise economica ofereceu poucas respostas. Há poucos estudos teóricos [3] anteriores à década de 90 por exemplo sobre quais são as propriedades de uma economia de escambo de duas mercadorias com muitos agentes neo-clássicos – que maximizam a utilidade em cada transação atingindo um equilíbrio local de Pareto. Os livros clássicos de microeconomia tratam de um problema com dois agentes e os de macroeconomia usam esses resultados para tirar conclusões globais (!). Hoje em dia é um exercício trivial simular isso em computador, mas esse é um problema que  deve ter solução analítica – não passa de um gás de agentes que quando se chocam trocam mercadorias conservadas segundo uma regra de espalhamento bem definida com taxas de transição conhecidas ainda que a regra de maximização de utilidade seja razoavelmente relaxada.

Depois desse blablablá todo (parece mesmo que estou virando economista: em dois posts usei apenas uma equação, e a mais simples que eu conheço :P), permita-me ao menos deixá-los com um tira gosto. No meu próximo post vou comentar um pequeno modelo com solução analítica em que se pode ilustrar o uso de agentes com racionalidade limitada e uma agregação que remete à mecânica estatística – apesar das analogias imperfeitas. É um pequeno modelo de decisão de tráfego, baseado no jogo da minoria. Apesar do contexto diferente, é um modelo que possui claras analogias com problemas de decisão binária que podem ser observadas no mercado financeiro (comprar ou vender?) e que possui a característica fundamental de que o agente gostaria de estar sempre na minoria.

Notas:

[1] Com freqüência denominado erroneamente de Nobel de Economia.

[2] Micromotives and Macrobehavior, Thomas Schelling.

[3] Talvez o problema não seja a escassez de resultados teóricos, mas uma falta de capacidade minha de encontrá-los.

Update:

Dias atrás o físico Jean-Phillipe Bouchaud, professor da École Polytechnique, na França, Chairman do fundo de investimentos francês CFM e pioneiro em pesquisa na interface entre economia e física estatísica escreveu um ensaio para a revista Nature apontando a necessidade desse tipo de modelagem:  Economics need a scientific revolutionNature 455, 1181 (30 October 2008).

A Crise Financeira…

sábado, 11 out 2008; \41\UTC\UTC\k 41 8 comentários

A crise econômica que atualmente afeta o mundo inteiro, tem sido o foco de mutias notícias ultimamente. Em particular, para um resumão do que está em jogo, vcs podem dar uma lida em Understand the Financial Crisis — esse é um Wiki feito pelo pessoal da Wired; é só rolar a página e se divertir.

Porém, duas reportagens me deixaram oficialmente estressado:

  1. Paulson Warns Of “Fragile” Economy;
  2. A Look At Wall Street’s Shadow Market.

Ambas foram feitas pelo programa 60 minutes, que é um dos programas mais bem sucedidos da televisão norte-americana, sendo o jornal televisivo mais assistido, e celebrou seu aniversário de 40 anos em Setembro de 2008.

Como vcs podem ver (tanto no vídeo quanto na transcrição), nos dois programas que foram ao ar em finais-de-semana consecutivos, houve uma menção em cada um do seguinte fato: os Físicos e Matemáticos, os “PhDs de Wall Street”, como seus modelos numéricos, não-humanos, frios, nunca viram a crise chegando.

Uma das primeiras coisas que me deixa nervoso com esse tipo de insinuação é a retórica de que “modelos matemáticos”, por alguma razão, não são “humanos” o suficiente pra lidar com todas as variáveis que modelam o “mercado”. Como se modelos matemáticos precisassem ter alguma característica fundamental para poder modelor correta e precisamente qualquer fenômeno da Natureza. Depois da Mecânica Quântica, da Relatividade Geral, de irmos pra Lua, dos Computadores, da Internet, e tudo o mais que a Ciência criou… inclusive as estatísticas usadas ao longo de ambos os programas em questão para justificar a lógica sendo explicada e desenvolvida ao longo da reportagem… ainda assim, os repórteres/editores se viram na necessidade de usar uma retórica reminiscente das “Science Wars” — vcs podem ler mais sobre as “science wars” na seguinte resenha: Phony Science Wars.

É um absurdo acreditar que a mesma ciência que, de um lado corrobora a lógica sendo usada (através de dados estatísticos, gráficos e inferências), por outro lado não é suficientemente robusta para modelar o famigerado “mercado”.

O que me leva diretamente ao segundo ponto que me deixa tenso: A mesma “ciência” que errou tão profusamente de um lado, faturou bilhões de dólares do outro — basta seguir o faturamento de duas firmas pra se perceber tal fato:

Durante o mesmo período em que essas duas empresas (hedge funds) tiveram seus maiores faturamentos (2007–2008), bancos como o Citigroup e Merrill Lynch tiveram suas maiores perdas! Ou seja, a mesma razão pela qual uns tiveram seus maiores faturamento, outros tiveram suas maiores perdas.

Simplesmente não é possível que essa “ciência”, que já está soando como “magia negra”, só funcione de um lado dessa cerca, só funcione para algumas empresas mas não para todas.

É claro que essa não é a resposta… a resposta só pode ser uma: existe gente competente e gente incompetente — é simples assim. Pra se arrumar um emprego na Renaissance Tech ou na D.E. Shaw, o processo de seleção é árduo e duro: é preciso se saber muito mais que “matemática financeira”… é preciso realmente se conhecer o que está em jogo: até aplicações de Cadeias de Monte Carlo, Finanças Quânticas, Teoria dos Jogos e Teoria de Jogos Quânticos!

Portanto, o simples fato de que esses dois exemplos conseguiram não só se safar, mas mais ainda, conseguiram faturar alto, pelas mesmas razões que levaram outros bancos à falência, mostra claramente que não é problema da Ciência, nem de ser fria, nem de ser não-humana… mas sim das pessoas contratadas pra fazer algo que não conhecem bem.

Mais ainda, qualquer um que tenha um amigo(a) trabalhando em bancos de investimento, os famosos Analistas Quantitativos, sabe muito bem como essa dinâmica funciona: em geral, quants são vistos como não sendo tão capazes quanto os brokers, aquela galera que fica no chão da bolsa, gritando furiosamente pra comprar ou vender ações… seguindo os modelos desenvolvidos pelos quants. É ainda aquele resquício primitivo da natureza humana… 😥

Pior do que tudo isso é o fato de que o mercado de Hedge Funds é completamente desregulamentado — i.e., a mesma razão que está sendo dada para toda essa quebralheira que está havendo, é a que permitiu que Hedge Funds como os exemplificados acima faturassem alto.

Portanto, a palavra de ordem não é que Físicos ou Matemáticos e seus modelos não sabiam o que estavam fazendo… mas sim que havia muita incompetência sendo distribuída por Wall Street afora. Engraçado, não: ao invés de se mistificar o mundo, dizendo que a Ciência só funciona de um lado da cerca, mas não do outro (retomando as “Science Wars”), tudo parece que faz sentido quando se nota a obviedade em questão: gente mal preparada causou danos incríveis.

Infelizmente, para se poder olhar a realidade na cara e enfrentá-la com dignidade, é preciso coragem… coragem para poder admitir que crimes foram cometidos… tanto que o FBI já está investigando toda essa bagunça

É isso aí… agora deixo vcs com alguns links para maiores diversões:

[]’s.

Atualizado: Isso tudo me fez lembrar do filme Wall Street. Vem bem a calhar, não?!

%d blogueiros gostam disto: