Arquivo

Archive for the ‘Free Software’ Category

Would the Bard Have Survived the Web?

terça-feira, 15 fev 2011; \07\America/New_York\America/New_York\k 07 3 comentários

O New York Times tem um artigo de opinião de hoje entitulado Would the Bard Have Survived the Web? (“Teriam os menestréis sobrevivido a Internet?”, tradução livre). Vcs podem ler o artigo em Inglês seguindo o link acima, ou, se preferirem, podem ler a tradução para pt_BR via Google Translate.

Aqui vão meus comentários sobre o assunto:

  • Poor understanding of the concept of “market”, as it was done in the past and as it is done today, in our “Information Era”;
  • Poor understanding of the concept of “intellectual property” and “copyright”;
  • Pathetically dismissive argument against “[a] handful of law professors and other experts”: a 6-line paragraph? Out of which, only a single phrase address the actual point?! Seriously, this is the best these 3 people could do to ground their defense in solid and robust arguments?! They couldn’t even come up with a typical list of pros and cons? Deconstructing this 1-paragraph argument is really a silly exercise: the misunderstanding of the differences between “Science” and “Technology” is enough to make this 1-paragraph self-destructive. This is pretty shameful… 😦
  • Here are a couple of question that i would like answer: if “Science” had patented some of its *basic* and *fundamental* research outcomes, like the following, what would these same folks be saying, what would their tune be: electromagnetism (TV, radio), quantum mechanics (modern electronics, semiconductor devices, X-rays, MRIs, etc), general relativity (GPS; fluid mechanics: think missiles and torpedos)? What would happen if all of these *fundamental research* discoveries had been patented, copyrighted and “intellectual property-ed”?! Science, Physics in fact, would definitely not need any government support today, nor run the risk to have DOE’s budget completely slashed (regarding research support).
  • And, the cherry on the top of this piece, is the constant comparison with the Dark Ages, with the Medieval Times… seriously: the world really did not change since then?! Over 300 years have passed and the best these 3 gentlemen can do is propose a “market” as it was done over 3 centuries ago? This is their *very best* solution to address their “problem”? Do they even understand that the very concept of “market” has changed in these 3 centuries? Do they understand that the very core of their issue is exactly the grasping to understand what the “Web” really means and how to best use it? Do they realize that people don’t quite know what to do with this deluge of information and possibilities coming from the Web? :sigh: 😦

A semana nos arXivs…

quinta-feira, 1 out 2009; \40\America/New_York\America/New_York\k 40 Deixe um comentário


Calças que desafiam a gravidade

Calças que desafiam a gravidade

Evolução…

Evolução…

A semana nos arXivs…

sexta-feira, 25 set 2009; \39\America/New_York\America/New_York\k 39 Deixe um comentário


A semana nos arXivs…

quarta-feira, 29 abr 2009; \18\America/New_York\America/New_York\k 18 1 comentário


Matemática na era da Web2.0…

quarta-feira, 25 fev 2009; \09\America/New_York\America/New_York\k 09 3 comentários

A WWW daria uma lousa e tanto… se a gente conseguisse rabiscar uma equação

A WWW foi concebida no CERN e, desde então, o patamar em que chegamos atualmente (chamado de Web 2.0) é bem diferente daquilo que se imaginava na época da criação da Web. Hoje em dia já se fala em Web 3.0, que é uma espécie de codinome para Cloud Computing. Porém, o sonho original para a WWW é a chamada Semantic Web. Eis o próprio T.B. Lee falando sobre esse assunto,

De fato, a tal “Web 3.0” deve incluir toda essa parte “semântica” (veja mais em W3C Semantic Web Activity, The Semantic Web e The Semantic Web Revisited (PDF)), chamada tecnicamente de Metadata — apesar de que a incorporação de todos esses “metadados” em bancos-de-dados e aplicações (“cloud”) afins ainda vai levar algum tempo. 😉

De qualquer maneira… essa “simples” idéia — de assimilar os “metadados” de forma fundamental e intrínseca nas entranhas da Web — tem um enorme potencial quando o assunto é Publicação Científica. Um exemplo claro disso é o Scientific Publishing Task Force: Mindswap: Science and the Semantic Web, Science and the Semantic Web (PDF), Semantic web in science: how to build it, how to use it, ScienceOnline09: The Semantic Web in Science.

Então, como se pode ver com clareza, essa idéia de se associar “semântica” aos elementos já pertencentes da WWW, realmente será algo revolucionário.

A razão pra essa longa introdução é o paradigma adotado pelo MathML, que é a linguagem que permitirá a introdução de linguagem Matemática na WWW. Existem dois modos de se “descrever” uma informação em MathML, Presentation MathML e Content MathML — enquanto o pMathML foca na apresentação e aparência das equações e elementos matemáticos, o cMathML foca no significado semântico das expressões (num esquema bem parecido com Cálculo λ 😎 ).

Então, fica claro que o objetivo de MathML não é apenas o de “apresentar” uma informação, mas também de dar significado semântico a ela, o que fará com que a comunicação matemática seja muito superior do que a comunicação atual, feita em HTML!

O paradigma atual: \TeX

Hoje em dia, efetivamente, quem tem necessidade de publicar muitas equações usa \TeX, mais especificamente, usa-se \LaTeX — esse é o de facto padrão.

Essa linguagem é extremamente poderosa, versátil e flexível, podendo ser extendida de várias maneiras diferentes. E isso facilita muito sua aplicação em várias áreas diferentes: desde símbolos matemáticos, gráficos vetoriais, …, até símbolos musicais, de xadrez e tipografia em línguas gráficas, como árabe, hindu, chinês e afins!

Por essas e por outras, atualmente é muito mais comum de se encontrar programas que convertem de \TeX para MathML do que programas que nativamente facilitam a edição nativa [em MathML]. Tanto que existe um livro unicamente dedicado a esse assunto: The LaTex Web Companion. Aliás, nessa linha, eu recomendo o uso do formato DocBook, cuja saída pode ser HTML, PDF, \TeX (via o uso de XSLT), etc.

Portanto, o que acabou acontecendo é que quando alguém precisa publicar fórmulas e afins, ou se cria um documento em PDF, ou se usa de “algum desvio” para colocar a informação na Rede — em geral, esse desvio consiste em se converter o conteúdo desejado em alguma imagem, e inserí-la no HTML em questão.

A saída: habilitar os navegadores

A alternativa pra tornar tudo isso integrado (Web 3.0, MathML, etc) e unificado é prepararmos os navegadores para essa nova jornada, nova etapa, da WWW. Por exemplo, o Firefox tem toda uma infra-estrutura dedicada para MathML: MathML in Mozilla. Porém, pra isso, é preciso que os desenvolvedores de navegadores sigam os padrões já definidos para MathML. Essa é uma lista dos navegadores que suportam MathML. Além disso, pra quem usa Firefox, esse é um ‘add-on’ bem interessante, Firemath (eu não tenho uma conta com o Mozilla, então, se alguém que tiver uma conta quiser me mandar o add-on, eu agradeço 😉 ).

Portanto, o caminho ainda se encontra aberto… e as possibilidades são infinitas! 😈

Referências…

Novas estruturas sociais e o cientista hacker…

quinta-feira, 19 fev 2009; \08\America/New_York\America/New_York\k 08 Deixe um comentário

Com a crescente fusão entre ciência e tecnologia (principalmente TI), surgem novas formas de produção e distribuição do conhecimento.

Origens da divulgação científica

Em ciências (exatas, humanas ou biológicas), desde os primórdios até hoje, a forma preferida de divulgação do conhecimento é oral, por meio de palestras, congressos e conversas formais ou informais. Isso acontece porque explicar a lógica por detrás de uma idéia, de um raciocínio ou de uma metodologia, costuma requerer mais do que a comunicação escrita pode oferecer. Ao vivo, é possível interagir com o interlocutor. Perguntas e respostas são fundamentais para o entendimento.

Com o desenvolvimento histórico, porém, os modos de organização sociais mudaram, outros continentes foram descobertos, a humanidade se expandiu. A história das ciências também mudou: a cada nova escolha feita pelas sociedades, era necessária uma nova adaptação do método científico e de sua divulgação. Na Babilônia e no Egito, há registros de números Pitagóricos, incluindo o famoso teorema de Pitágoras, que datam de 1900-1600 AC, alguns ainda em escrita cuneiforme. Compare isso com as nossas mais modernas formas de escrita: TeX, XHTML, MathML.

Enquanto o mundo era pequeno (Europa/Eurásia) e com o aparecimento de “centros de excelência” para as diversas áreas do saber, a divulgação do conhecimento humano acontecia sem grandes problemas. Porém, com a entrada do “Novo Mundo”, as distâncias começaram a mudar o modo de divulgação científica, passando de oral para escrita. Só assim era possível comunicar as descobertas para os diversos cantos do mundo. Publicava-se uma enciclopédia, uma revista, e essa era levada de barco para o resto do globo. Foi basicamente por essa razão – transposição das distâncias –, num contexto de desenvolvimento da tecnologia da impressão por Gutenberg, que as revistas científicas tomaram a forma que, em alguns casos, adotam até hoje. Contudo, a revolução tecnológica desse último século, incluindo a revolução digital, começou a chacoalhar as fundações desse modelo.

Internet: agilidade na popularização do conhecimento

Flexibilidade e dinamismo na divulgação do conhecimento são peças fundamentais em ciências. Dentre outras razões, estão o simples fato de se atrair um maior interesse no trabalho dos pesquisadores (jovens cientistas, alunos) e o fato de que o resultado da pesquisa de um determinado grupo poder catapultar a pesquisa de outros grupos. Quanto mais pessoas tiverem acesso aos resultados de determinada pesquisa e quanto mais rápido esses resultados forem divulgados, maior será a chance de avançar aquela área do saber. Em alguns casos, essa dinâmica é necessária para manter vivo um campo do conhecimento.

A invenção da Internet e a popularização das tecnologias de computadores, modems, bandas-largas e redes foram um passo fundamental na direção de se agilizar a produção e divulgação do conhecimento. Hoje em dia, é rotina um pesquisador de um lado do globo comunicar seus resultados para seus colaboradores em outros cantos do planeta. Quando se adiciona a isso o fato de que o conhecimento da humanidade pode seguir um novo paradigma de “velocidade, flexibilidade e dinâmica”, esse avanço tecnológico passa a ser incomensurável.

Esse novo ”modus operandi” é fundamental para que se possa maximizar os caminhos da ciência: tanto na direção do cientista para o leitor quanto na do leitor para o cientista. Mas, para que isso se realize, é imprescindível que a divulgação seja o mais democrática possível, habilitanto qualquer pessoa em qualquer lugar do mundo a ter acesso a informação. Nossa sociedade industrial transformou-se em uma sociedade que valoriza a informação. Essa é uma das razões que justifica a existência de modelos de distribuição como o usado pelo arXiv (distribuição gratuita) em lugar de modelos canônicos (revistas especializadas e seus custos).

Ciência da Computação e a revolução digital

Ciência e tecnologia são conceitos diferentes. De acordo com suas definições de dicionário:

  • ciência: conhecimento; conhecimento de princípios e causas; confirmação da verdade dos fatos;
  • tecnologia: aplicação prática da ciência para o comércio e/ou indústria [sinônimos: engenharia, ciência aplicada].

Dada essa distinção, surge a questão de como ciência e tecnologia se relacionam. Em outras palavras, “qual é a ”distância” entre um fato científico e seu correspondente tecnológico?” Para quem está familiarizado com essa questão, é fácil ver que isso é complicado. É preciso entrar nos pormenores de cada área do saber e avaliar o quão próximo do dia-a-dia cada uma delas está. “O que é que se pode fazer de prático com Gravitação Quântica?” Contraste isso com: “O que é que se pode fazer de prático com uma vacina contra a AIDS?” ou ainda “O que é que se pode fazer de prático com a nanotecnologia?” A Gravitação Quântica está bem longe de trazer resultados práticos para o nosso dia-a-dia. Em compensação, pesquisas em HIV e em nanotecnologia estão presentes e afetam a nossa vida diariamente.

Entretanto, é preciso ter cuidado com esse tipo de afirmação: avanços tecnológicos aparecem onde menos se espera. As dificuldades técnicas em se construir equipamentos para pesquisa pura, como aceleradores de partículas (por exemplo, CERN e SLAC) levaram a avanços enormes para os componentes de computadores. O volume de dados que trafega pelas redes de computadores desses experimentos chega a atingir 1 Terabyte (1024 Gigabytes) por segundo, e uma colisão típica nesses aceleradores leva alguns segundos. Um experimento para se medir alguma propriedade de uma teoria de Gravitação Quântica pode levar a avanços dessa natureza.

Para ilustrar esse argumento, vale a pena lembrar duas frases do físico inglês Michael Faraday. Enquanto Faraday explicava uma nova descoberta para o Ministro das Finanças e para o Primeiro Ministro britânicos, perguntaram-lhe ”‘Mas afinal, que uso tem isso?’”, no que Faraday respondeu, ”‘Excelência, é provável que em breve o senhor esteja cobrando impostos sobre isso’”. Em uma outra conversa, o Primeiro Ministro britânico lhe perguntou a respeito de uma nova descoberta ”‘Que valor tem isso?’”; Faraday respondeu, ”‘Que valor tem um recém-nascido?’” e prosseguiu explicando que sem os cuidados de uma boa infância, um recém-nascido não cresce e não se torna um adulto criativo e trabalhador.

Na área de Ciência da Computação, a distância entre ciência e tecnologia fica ainda mais difícil de medir. Por exemplo, Teoria dos Grafos é uma das áreas de pesquisa da matemática pura. Porém, em Ciência da Computação, o conhecimento de Teoria dos Grafos é fundamental para a construção de compiladores (programas que traduzem código escrito em uma linguagem para linguagem de máquina), ou então para o desenvolvimento das linguagens usadas na criação de páginas WWW para a Internet, como o HTML, XHTML, XML, CSS e seus interpretadores (navegadores, como Mozilla Firefox e Opera). Uma teoria abstrata como Teoria dos Grafos acabou gerando uma aplicação imediata. Sem ela, nenhum de nós estaria surfando na Internet hoje.

A Ciência da Computação introduziu um novo paradigma a respeito dessa “distância” entre teórico e prático. E esse novo paradigma trouxe consigo um novo conceito para a nossa sociedade pós-industrial: ”O conceito de Sociedade da Informação”. Uma visão corrente afirma que foi a Tecnologia da Informação que causou essa mudança. Entretanto, é preciso ter em mente que esta teve origem na Ciência da Computação. Uma nova gama de ciências apareceram por causa desse ”insight”, como Teoria da Informação e Inteligência Artificial. O momento histórico, portanto, é mais do que propício para discutirmos uma possível liberação dos meios convencionais de divulgação científica.

Propriedade intelectual

Cooperação e colaboração entre cientistas e acesso às pesquisas e seus resultados são pontos para que se caminhe em direção ao futuro. Portanto, tanto a ciência quanto seus pesquisadores são historicamente livres. No começo dos tempos científicos, a pesquisa e seus resultados tinham uma aplicação prática muito mais tímida do que hoje em dia. Atualmente, é possível ganhar um Prêmio Nobel pela descoberta da estrutura de dupla-hélice do DNA (via cristalografia de raios-X), ou pela descoberta da liberdade assintótica dos quarks, coisa que os egípcios e babilônios jamais sonharam. As aplicações da nanotecnologia vão desde tecidos inteligentes até computadores quânticos e ”spintrônica”. No campo de biotecnologia, desenvolvem-se fármacos para combater um vírus específico. Em suma, aprendemos a dar forma, cor, sabor e até cara para nossos achados científicos de tal forma que, teorias antes consideradas completamente abstratas e sem aplicação prática, são hoje os pilares de uma revolução no nosso modo de vida.

Com esses avanços, um método para a proteção do conhecimento foi desenvolvido. Trata-se da ”Propriedade Intelectual”. Esse desenvolvimento ocorreu ao mesmo tempo em que a nossa ciência ficava cada vez mais próxima da tecnologia. Isso acontece por uma razão bem simples: economicamente, é mais fácil atribuir valor à tecnologia do que à ciência. Afinal de contas, o que é mais fácil quantificar: a Teoria Quântica de Campos e seus aceleradores de partículas ou os computadores e suas tecnologias de rede e bandas-largas? O que é mais fácil de medir: 20 anos de estudo ou um novo antibiótico?

Em vista disso, a medida de ”distância” entre ciência e tecnologia passou a ser cada vez mais fundamental: com o aumento da proteção sobre o conhecimento, o custo sobre o desenvolvimento científico pode tornar-se proibitivo. O desenvolvimento científico deixaria de ser livre. Já imaginaram o que seria do mundo moderno se Maxwell tivesse “cobrado” por sua teoria, o Eletromagnetismo? Sua teoria resume-se a 5 equações. Quatro delas descrevem os fênomenos elétricos e magnéticos propriamente ditos e uma delas descreve a conservação de carga. Essas equações, chamadas Equações de Maxwell, são a base de tudo que é elétrico, eletrônico e magnético hoje em dia (lâmpadas, geladeiras, microondas, computadores). Isso ilustra a dificuldade de atribuir-se um valor econômico a descobertas científicas.

Porém, é necessário dar valor à tecnologia, afinal de contas os produtos e resultados das pesquisas científicas têm que gerar alguma coisa. E é por isso que o paradigma atual, de revolução digital e sociedade da informação, é tão crítico. Como foi mostrado acima em Ciência da Computação, essa distância entre ciência e tecnologia é algo mal definido. Um mestre em Teoria dos Grafos pode inventar um novo compilador, isto é, um teórico pode produzir tecnologia. A Ciência da Computação é a primeira a permitir esse nível de interação entre teoria e prática, entre ciência e tecnologia. Esse é o primeiro palco onde a mais abstrata das matemáticas acaba tendo aplicações práticas de uma utilidade inigualável.

Bazar do conhecimento: por uma sociedade livre e universal

É essa mistura entre ciência e tecnologia, entre teoria e prática, que foi responsável pela revolução digital, pelo nosso novo paradigma cultural (pós-industrial) de sociedade da informação. Portanto, nesse novo momento histórico nós, enquanto coletividade/sociedade, teremos que fazer uma escolha que mudará nossas vidas de forma crítica: ”como é que vamos lidar com a impossibilidade de se medir a distância entre ciência e tecnologia?”. Essa pergunta é fundamental para os futuros modelos econômicos.

Dentre os estudiosos dessa nova economia e sociedade, destacam-se Eric Raymond (The Cathedral and the Bazaar) e Richard Stallman (Free Software, Free Society). O ponto principal dessas referências é que tudo que nelas é descrito como cultura hacker sempre fez parte da cultura da ciência e dos cientistas. Segundo o dicionário dos programadores, a definição de ”hacker” é “um programador para quem a computação em si é sua própria recompensa” e “aquele que gosta do desafio intelectual de superar barreiras criativamente ou encontrar alternativas para limitações”). Ora, cientistas têm sido assim desde sempre. Cientistas são ”hackers”: hackers da matemática, da física, da química, da biologia, da ciência da computação.

Portanto, e chegamos agora ao ponto crucial: estamos vivendo o momento do ”interlace de culturas”, de permeação da cultura ”hacker” na cultura científica. Creio que esse interlace se originou na Ciência da Computação, a primeira ciência a permitir uma interação intensa entre teoria e prática. Assim, nesse momento cultural, vivemos a impossibilidade de discernir ciência de tecnologia e cultura hacker de cultura científica. Dessa forma, a escolha crítica que teremos que fazer reside no fato de que a cultura hacker/científica é fundamental e diferente do paradigma econômico em que vivemos hoje, principalmente no que diz respeito à produção de valor.

O caminho na direção de uma sociedade mais livre e universalmente inclusiva terá que lidar com essas questões, terá que formular respostas para essas questões, terá que encontrar novos paradigmas sociais e econômicos que acomodem essas questões. Um dos problemas a serem atacados é o da universalidade da ciência, principalmente no que diz respeito à sua divulgação. A meu ver, a solução mais universalmente inclusiva e livre para essa questão deve seguir os moldes do arXiv. Trata-se de uma solução que permita o acesso irrestrito ao conhecimento, às pesquisas e seus resultados. E, dado o modelo econômico atual, isso só pode ser feito através de uma forma eletrônica e gratuita de divulgação científica. Seria fantástico se o modelo do arXiv fosse adotado para todas as outras áreas do saber.

Epílogo: Uma breve história do arXiv

No começo, o arXiv era chamado “LANL preprint archive” (LANL é o Laboratório Nacional de Los Alamos – lugar onde a física das bombas atômicas da Segunda Guerra Mundial foi finalmente entendida e “dominada”). Ele é um arquivo para ”preprints” eletrônicos de artigos científicos nos campos de Física, Matemática, Ciência da Computação e Biologia Quantitativa. No passado, o servidor do arXiv ficava no LANL mas, atualmente, o arXiv é servido e operado pela Universidade de Cornell, além de ser espelhado pelo mundo afora. Sua idéia original é devida ao físico Paul Ginsparg.

O arXiv surgiu em 1991 como um arquivo de ”preprints” em física (hep-th, sigla que denota “física teórica de altas energias”) e, mais tarde, foi expandido para incluir, além de outras áreas de física, matemática, ciência da computação e, mais recentemente, biologia quantitativa. Em Março de 2004, o arXiv continha cerca de 267.000 preprints e recebia cerca de 3.000-4.000 novos preprints por mês!

O primeiro nome do arXiv foi xxx.lanl.gov, porém esse nome foi mudado quando se descobriu que programas de “censorware” (ou seja, programas de filtragem de conteúdo) estavam bloqueando seu acesso a partir de diversos sites, acreditando que as três letras X implicassem num site pornográfico. A idéia do XXX era a de que o arXiv era melhor que o WWW em todos os aspectos (já que a letra x vem depois da letra w no alfabeto).

A existência do arXiv foi um dos fatores mais importantes que levou à presente revolução em publicações científicas, conhecida como Open Access Movement (veja também Budapest Open Access Initiative e Berlin Declaration), com a possibilidade de levar ao desaparecimento das revistas científicas tradicionais (e, mais importante ainda, seus modelos de publicação).

Um método popular para se acessar a porção de matemática do arXiv é via o portal da Universidade da Califórnia em Davis chamado de Front. O portal oferece um método de busca poderoso e uma interface mais amigável para o usuário. Por essa razão, o arquivo de matemática é conhecido como ”[the] Front”.

Cientistas e matemáticos profissionais (como Grigori Perelman em 2002 e Richard Arenstorf em 2004) ”carregam” regularmente seus achados e demonstrações matemáticas no arXiv para o acesso e revisão mundial (e gratuito).

Referências

Enquete…

Diversão garantida…

😈

Algumas notícias sobre o Brasil…

quinta-feira, 13 nov 2008; \46\America/New_York\America/New_York\k 46 Deixe um comentário

O CSM continua sua série sobre o Brasil (parte 2/3 — a terceira e última parte vem amanhã, e também será colocada aqui no AP 😉 ), também com repercurssões pela BBC; e um novo livro lida com a idéia duma nova governança global:

Como se isso já não fosse suficiente pra garantir a diversão, deixo uma saidêra impagável:

[]’s!

Atualizado (2008-Nov-13 @ 17:15h): A terceira parte da reportagem saiu,

Dia do Acesso Livre…

terça-feira, 14 out 2008; \42\America/New_York\America/New_York\k 42 1 comentário


Hoje é Dia do Acesso Livre:

É importante que, hoje em dia, em meio a toda essa revolução digital que estamos passando, nós tenhamos noção da dimensão do que conceitos como “Acesso Livre” significam.

Para maiores informações,

Feliz Dia do Acesso Livre! 😈

Um pouquinho de Linux e o valor de “listas”…

sábado, 11 out 2008; \41\America/New_York\America/New_York\k 41 Deixe um comentário

Essa é rapidinha, só pra ressaltar dois links interessantes que apareceram nessa semana:

O primeiro link acima é sobre o projeto APTonCD, que faz um repositório dos pacotes duma distribuição baseada no apt (e.g., Debian ou Ubuntu) num CD ou DVD. Dessa forma é possível se carregar pra todo lugar os seus pacotes preferidos. 😉

O segundo link é um resumão com as melhores dicas do Shell-fu colocadas dentro dum único .bashrc.

E, pra quem gosta de “listas disso” e “listas daquilo”, acho que esse artigo vem bem a calhar:

Qual é a informação que realmente tem significado em listas e rankings? Mesmo que os dados sejam estatisticamente significativos, o modo como eles são comparados relativamente (i.e., os pesos atribuídos) tende a ser arbitrário, o que afeta o resultado final — às vezes, até alterando completamente as respostas obtidas.

Diversão garantida, []’s. 😈

Acesso Livre…

segunda-feira, 6 out 2008; \41\America/New_York\America/New_York\k 41 Deixe um comentário

Hoje em dia, o movimento que visa o acesso livre vai de vento-em-popa e já praticamente dispensa apresentações; principalmente no Brasil, onde a CAPES já até desenvolveu o famoso Portal de Acesso Livre.

Porém, o que muitos não sabem é a história de como tudo isso começou, em meados de 1991, quando Paul Ginsparg (sim, aquele já conhecido pelos férmions de Ginsparg-Wilson) deu início aos arXivs.

A entrevista abaixo é uma das poucas que o Ginsparg já deu, e é excelente, recheadas de ‘causos’:

É importantíssimo também lembrar que sem o TeX, dado de presente e mão beijada para o mundo todo pelo Don Knuth, nada disso teria sido possível — o TeX é uma das primeiras linguagens de markup.

Outro ingrediente importante foi a criação da WWW por Tim Berners-Lee. Como o próprio Ginsparg conta na entrevista, TBL o contactou pessoalmente… e assim os arXivs foram levados dum servidor de FTP para um de WWW… e assim surgiu o primeiro, ❗ , servidor da web no mundo!


N.B.: o servidor da HET Brown foi um dos primeiros também (se não me engano, foi o terceiro), logo em seguida dos arXivs: foi um dos meus predecessores (chamado Stephen Hahn) que o instalou, na sala de número 625 no prédio chamado Barus & Holley, e até pouco tempo atrás (quando eu atualizei e reconfigurei tudo pra rodar via Apache 2.0.63), tudo rodava naquele mesmo servidor original (um verdadeiro rinoceronte 🙂 )! Enquanto isso, no Brasil, o DFMA teve uma das primeiras páginas da USP, assim como o Ciências Moleculares, que certamente foi a primeira página sobre um curso de bacharelado da USP (quiçá do Brasil — ainda me lembro do dia em que instalei o primeiro servidor HTTP no servidor do CM, ainda chamado lnx00, e começamos a brincar com HTML)! Foi nessa mesma época que nasceu o Projeto Sócrates, do qual tive a sorte de participar (mas essa é outra estória).


Bom, essa é a história do Acesso Livre, não só no mundo, mas no Brasil também… que, como vcs vêm, tem tido uma participação bem sólida nisso tudo. 🙂

[]’s.

Que formatos de arquivos as revistas científicas andam exigindo aos autores?

quarta-feira, 1 out 2008; \40\America/New_York\America/New_York\k 40 2 comentários

Num post recente de um estudante de pós-graduação da Faculdade de Educação da USP, foi relatado um pouco sobre suas vãs tentativas de ter seus textos lidos por outras pessoas (seus pares de periódicos, orientador etc.), o que o levou a optar a usar um sistema operacional e software pagos. Como já fui bolsista, sei que, se tivesse que lidar com os valores da bolsa para gastos além de moradia, comida, livros e outras coisas para sobrevivência, isso só aumentaria as dificuldades financeiras que um pós-graduando já possui (não que seria impossível). Como exemplo, foi mencionada a Revista da Faculdade de Educação (USP), um períodico que ele encontrou problemas para enviar seus arquivos. Consta, nas instruções aos autores, o seguinte:

1. The presentation of papers should observe the following standards:

  • works should be prepared using Word for Windows, and sent in floppy disk and two printed copies.

Como disse recentemente, está aí uma prova sobre a falta de liberdade de escolha, por causa da imposição do uso de formatos fechados, pagos e dependentes da plataforma (sistema operacional), escolhida por alguns. Não vou nem comentar sobre o floppy. Isso existe ainda? Imagino que o site deve estar desatualizado.

Vamos ver quanto custaria essa brincadeira (em prazo imediato)? Se eu, que rodo GNU/Linux, quisesse adquirir o Windows Vista, obteria pela bagatala de aproximadamente R$ 300. Já o pacote Office, que inclui o processador de textos Word exigido pela revista, sairia por aproximadamente R$ 200. Esse preço foi de uma loja das que consegui verificar o preço, sugerida na página da Microsoft, na seção de compras. Ou seja, R$ 500, mais da metade da bolsa de um estudante de mestrado (do CNPq ou CAPES). Fora as futuras atualizações que a pessoa terá que arcar.

Recentemente, o professor Jean-Claude Guédon veio à USP [1] e falou um pouco, entre outras coisas, sobre algumas modificações que estão ocorrendo na produção e comunicação científica em nossa era digital.  Entre elas, mencionou algumas iniciativas que visam tornar o acesso ao material científico cada vez mais aberto e acessível a qualquer um (veja, por exemplo, a Budapest Open Access Initiative).

Muitos elogios foram feitos a iniciativas como a SciELO (The Scientific Electronic Library Online), sistema brasileiro onde ficam várias revistas em que o acesso a todos seus artigos é aberto. Ao mesmo tempo, vemos no exemplo citado logo acima uma revista brasileira, sob o domínio do SciELO, que obriga seus autores a usarem sistemas caros e fechados (esse para mim é o principal obstáculo) para poder submeter seus artigos.

Alguém vê algum sentido e concorda com isso? Caso concorde, gostaria de saber o porquê, sendo que existem diversas formas de contornar esse problema, sem ter que obrigar autores a usar determinado sabor em seu computador. Se uma pessoa quer e pode usar um sistema operacional e programas caros e de qualidade ruins (pelo menos para mim, muitos discordarão, mas esse não é meu foco aqui), tudo bem. As pessoas devem mesmo ter sua liberdade de escolha. Mas obrigar aqueles que optam por outros sistemas (e. g., o GNU/Linux, aberto e gratuito) e softwares (e. g., editores de texto Vim e Emacs, processador de textos Open Office, que possibilita salvar em formatos abertos etc.), devem aceitar situações como essa? A comunicação, o mais importante aqui, deve ser dificultada por esses detalhes? Você já se deparou com situações como a vivida por nosso colega? Conte-nos como foi. Quais revistas ou situações lhe ofereceram esse tipo de obstáculo?

[1] Resumos do professor Ewout ter Haar das aulas do Professor Guédon: aula 1, aula 2, aula 3, aula 4, aula 5, aula 7 e aula 9.

Alguns vídeos dessas aulas podem ser vistos aqui.

Esta mensagem está sob a licença CreativeCommons Atribuição, Compartilhamento pela mesma Licença.

%d blogueiros gostam disto: