Archive

Posts Tagged ‘FLOSS’

A semana nos arXivs…

quarta-feira, 29 abr 2009; \18\UTC\UTC\k 18 1 comentário


Novas estruturas sociais e o cientista hacker…

quinta-feira, 19 fev 2009; \08\UTC\UTC\k 08 Deixe um comentário

Com a crescente fusão entre ciência e tecnologia (principalmente TI), surgem novas formas de produção e distribuição do conhecimento.

Origens da divulgação científica

Em ciências (exatas, humanas ou biológicas), desde os primórdios até hoje, a forma preferida de divulgação do conhecimento é oral, por meio de palestras, congressos e conversas formais ou informais. Isso acontece porque explicar a lógica por detrás de uma idéia, de um raciocínio ou de uma metodologia, costuma requerer mais do que a comunicação escrita pode oferecer. Ao vivo, é possível interagir com o interlocutor. Perguntas e respostas são fundamentais para o entendimento.

Com o desenvolvimento histórico, porém, os modos de organização sociais mudaram, outros continentes foram descobertos, a humanidade se expandiu. A história das ciências também mudou: a cada nova escolha feita pelas sociedades, era necessária uma nova adaptação do método científico e de sua divulgação. Na Babilônia e no Egito, há registros de números Pitagóricos, incluindo o famoso teorema de Pitágoras, que datam de 1900-1600 AC, alguns ainda em escrita cuneiforme. Compare isso com as nossas mais modernas formas de escrita: TeX, XHTML, MathML.

Enquanto o mundo era pequeno (Europa/Eurásia) e com o aparecimento de “centros de excelência” para as diversas áreas do saber, a divulgação do conhecimento humano acontecia sem grandes problemas. Porém, com a entrada do “Novo Mundo”, as distâncias começaram a mudar o modo de divulgação científica, passando de oral para escrita. Só assim era possível comunicar as descobertas para os diversos cantos do mundo. Publicava-se uma enciclopédia, uma revista, e essa era levada de barco para o resto do globo. Foi basicamente por essa razão – transposição das distâncias –, num contexto de desenvolvimento da tecnologia da impressão por Gutenberg, que as revistas científicas tomaram a forma que, em alguns casos, adotam até hoje. Contudo, a revolução tecnológica desse último século, incluindo a revolução digital, começou a chacoalhar as fundações desse modelo.

Internet: agilidade na popularização do conhecimento

Flexibilidade e dinamismo na divulgação do conhecimento são peças fundamentais em ciências. Dentre outras razões, estão o simples fato de se atrair um maior interesse no trabalho dos pesquisadores (jovens cientistas, alunos) e o fato de que o resultado da pesquisa de um determinado grupo poder catapultar a pesquisa de outros grupos. Quanto mais pessoas tiverem acesso aos resultados de determinada pesquisa e quanto mais rápido esses resultados forem divulgados, maior será a chance de avançar aquela área do saber. Em alguns casos, essa dinâmica é necessária para manter vivo um campo do conhecimento.

A invenção da Internet e a popularização das tecnologias de computadores, modems, bandas-largas e redes foram um passo fundamental na direção de se agilizar a produção e divulgação do conhecimento. Hoje em dia, é rotina um pesquisador de um lado do globo comunicar seus resultados para seus colaboradores em outros cantos do planeta. Quando se adiciona a isso o fato de que o conhecimento da humanidade pode seguir um novo paradigma de “velocidade, flexibilidade e dinâmica”, esse avanço tecnológico passa a ser incomensurável.

Esse novo ”modus operandi” é fundamental para que se possa maximizar os caminhos da ciência: tanto na direção do cientista para o leitor quanto na do leitor para o cientista. Mas, para que isso se realize, é imprescindível que a divulgação seja o mais democrática possível, habilitanto qualquer pessoa em qualquer lugar do mundo a ter acesso a informação. Nossa sociedade industrial transformou-se em uma sociedade que valoriza a informação. Essa é uma das razões que justifica a existência de modelos de distribuição como o usado pelo arXiv (distribuição gratuita) em lugar de modelos canônicos (revistas especializadas e seus custos).

Ciência da Computação e a revolução digital

Ciência e tecnologia são conceitos diferentes. De acordo com suas definições de dicionário:

  • ciência: conhecimento; conhecimento de princípios e causas; confirmação da verdade dos fatos;
  • tecnologia: aplicação prática da ciência para o comércio e/ou indústria [sinônimos: engenharia, ciência aplicada].

Dada essa distinção, surge a questão de como ciência e tecnologia se relacionam. Em outras palavras, “qual é a ”distância” entre um fato científico e seu correspondente tecnológico?” Para quem está familiarizado com essa questão, é fácil ver que isso é complicado. É preciso entrar nos pormenores de cada área do saber e avaliar o quão próximo do dia-a-dia cada uma delas está. “O que é que se pode fazer de prático com Gravitação Quântica?” Contraste isso com: “O que é que se pode fazer de prático com uma vacina contra a AIDS?” ou ainda “O que é que se pode fazer de prático com a nanotecnologia?” A Gravitação Quântica está bem longe de trazer resultados práticos para o nosso dia-a-dia. Em compensação, pesquisas em HIV e em nanotecnologia estão presentes e afetam a nossa vida diariamente.

Entretanto, é preciso ter cuidado com esse tipo de afirmação: avanços tecnológicos aparecem onde menos se espera. As dificuldades técnicas em se construir equipamentos para pesquisa pura, como aceleradores de partículas (por exemplo, CERN e SLAC) levaram a avanços enormes para os componentes de computadores. O volume de dados que trafega pelas redes de computadores desses experimentos chega a atingir 1 Terabyte (1024 Gigabytes) por segundo, e uma colisão típica nesses aceleradores leva alguns segundos. Um experimento para se medir alguma propriedade de uma teoria de Gravitação Quântica pode levar a avanços dessa natureza.

Para ilustrar esse argumento, vale a pena lembrar duas frases do físico inglês Michael Faraday. Enquanto Faraday explicava uma nova descoberta para o Ministro das Finanças e para o Primeiro Ministro britânicos, perguntaram-lhe ”‘Mas afinal, que uso tem isso?’”, no que Faraday respondeu, ”‘Excelência, é provável que em breve o senhor esteja cobrando impostos sobre isso’”. Em uma outra conversa, o Primeiro Ministro britânico lhe perguntou a respeito de uma nova descoberta ”‘Que valor tem isso?’”; Faraday respondeu, ”‘Que valor tem um recém-nascido?’” e prosseguiu explicando que sem os cuidados de uma boa infância, um recém-nascido não cresce e não se torna um adulto criativo e trabalhador.

Na área de Ciência da Computação, a distância entre ciência e tecnologia fica ainda mais difícil de medir. Por exemplo, Teoria dos Grafos é uma das áreas de pesquisa da matemática pura. Porém, em Ciência da Computação, o conhecimento de Teoria dos Grafos é fundamental para a construção de compiladores (programas que traduzem código escrito em uma linguagem para linguagem de máquina), ou então para o desenvolvimento das linguagens usadas na criação de páginas WWW para a Internet, como o HTML, XHTML, XML, CSS e seus interpretadores (navegadores, como Mozilla Firefox e Opera). Uma teoria abstrata como Teoria dos Grafos acabou gerando uma aplicação imediata. Sem ela, nenhum de nós estaria surfando na Internet hoje.

A Ciência da Computação introduziu um novo paradigma a respeito dessa “distância” entre teórico e prático. E esse novo paradigma trouxe consigo um novo conceito para a nossa sociedade pós-industrial: ”O conceito de Sociedade da Informação”. Uma visão corrente afirma que foi a Tecnologia da Informação que causou essa mudança. Entretanto, é preciso ter em mente que esta teve origem na Ciência da Computação. Uma nova gama de ciências apareceram por causa desse ”insight”, como Teoria da Informação e Inteligência Artificial. O momento histórico, portanto, é mais do que propício para discutirmos uma possível liberação dos meios convencionais de divulgação científica.

Propriedade intelectual

Cooperação e colaboração entre cientistas e acesso às pesquisas e seus resultados são pontos para que se caminhe em direção ao futuro. Portanto, tanto a ciência quanto seus pesquisadores são historicamente livres. No começo dos tempos científicos, a pesquisa e seus resultados tinham uma aplicação prática muito mais tímida do que hoje em dia. Atualmente, é possível ganhar um Prêmio Nobel pela descoberta da estrutura de dupla-hélice do DNA (via cristalografia de raios-X), ou pela descoberta da liberdade assintótica dos quarks, coisa que os egípcios e babilônios jamais sonharam. As aplicações da nanotecnologia vão desde tecidos inteligentes até computadores quânticos e ”spintrônica”. No campo de biotecnologia, desenvolvem-se fármacos para combater um vírus específico. Em suma, aprendemos a dar forma, cor, sabor e até cara para nossos achados científicos de tal forma que, teorias antes consideradas completamente abstratas e sem aplicação prática, são hoje os pilares de uma revolução no nosso modo de vida.

Com esses avanços, um método para a proteção do conhecimento foi desenvolvido. Trata-se da ”Propriedade Intelectual”. Esse desenvolvimento ocorreu ao mesmo tempo em que a nossa ciência ficava cada vez mais próxima da tecnologia. Isso acontece por uma razão bem simples: economicamente, é mais fácil atribuir valor à tecnologia do que à ciência. Afinal de contas, o que é mais fácil quantificar: a Teoria Quântica de Campos e seus aceleradores de partículas ou os computadores e suas tecnologias de rede e bandas-largas? O que é mais fácil de medir: 20 anos de estudo ou um novo antibiótico?

Em vista disso, a medida de ”distância” entre ciência e tecnologia passou a ser cada vez mais fundamental: com o aumento da proteção sobre o conhecimento, o custo sobre o desenvolvimento científico pode tornar-se proibitivo. O desenvolvimento científico deixaria de ser livre. Já imaginaram o que seria do mundo moderno se Maxwell tivesse “cobrado” por sua teoria, o Eletromagnetismo? Sua teoria resume-se a 5 equações. Quatro delas descrevem os fênomenos elétricos e magnéticos propriamente ditos e uma delas descreve a conservação de carga. Essas equações, chamadas Equações de Maxwell, são a base de tudo que é elétrico, eletrônico e magnético hoje em dia (lâmpadas, geladeiras, microondas, computadores). Isso ilustra a dificuldade de atribuir-se um valor econômico a descobertas científicas.

Porém, é necessário dar valor à tecnologia, afinal de contas os produtos e resultados das pesquisas científicas têm que gerar alguma coisa. E é por isso que o paradigma atual, de revolução digital e sociedade da informação, é tão crítico. Como foi mostrado acima em Ciência da Computação, essa distância entre ciência e tecnologia é algo mal definido. Um mestre em Teoria dos Grafos pode inventar um novo compilador, isto é, um teórico pode produzir tecnologia. A Ciência da Computação é a primeira a permitir esse nível de interação entre teoria e prática, entre ciência e tecnologia. Esse é o primeiro palco onde a mais abstrata das matemáticas acaba tendo aplicações práticas de uma utilidade inigualável.

Bazar do conhecimento: por uma sociedade livre e universal

É essa mistura entre ciência e tecnologia, entre teoria e prática, que foi responsável pela revolução digital, pelo nosso novo paradigma cultural (pós-industrial) de sociedade da informação. Portanto, nesse novo momento histórico nós, enquanto coletividade/sociedade, teremos que fazer uma escolha que mudará nossas vidas de forma crítica: ”como é que vamos lidar com a impossibilidade de se medir a distância entre ciência e tecnologia?”. Essa pergunta é fundamental para os futuros modelos econômicos.

Dentre os estudiosos dessa nova economia e sociedade, destacam-se Eric Raymond (The Cathedral and the Bazaar) e Richard Stallman (Free Software, Free Society). O ponto principal dessas referências é que tudo que nelas é descrito como cultura hacker sempre fez parte da cultura da ciência e dos cientistas. Segundo o dicionário dos programadores, a definição de ”hacker” é “um programador para quem a computação em si é sua própria recompensa” e “aquele que gosta do desafio intelectual de superar barreiras criativamente ou encontrar alternativas para limitações”). Ora, cientistas têm sido assim desde sempre. Cientistas são ”hackers”: hackers da matemática, da física, da química, da biologia, da ciência da computação.

Portanto, e chegamos agora ao ponto crucial: estamos vivendo o momento do ”interlace de culturas”, de permeação da cultura ”hacker” na cultura científica. Creio que esse interlace se originou na Ciência da Computação, a primeira ciência a permitir uma interação intensa entre teoria e prática. Assim, nesse momento cultural, vivemos a impossibilidade de discernir ciência de tecnologia e cultura hacker de cultura científica. Dessa forma, a escolha crítica que teremos que fazer reside no fato de que a cultura hacker/científica é fundamental e diferente do paradigma econômico em que vivemos hoje, principalmente no que diz respeito à produção de valor.

O caminho na direção de uma sociedade mais livre e universalmente inclusiva terá que lidar com essas questões, terá que formular respostas para essas questões, terá que encontrar novos paradigmas sociais e econômicos que acomodem essas questões. Um dos problemas a serem atacados é o da universalidade da ciência, principalmente no que diz respeito à sua divulgação. A meu ver, a solução mais universalmente inclusiva e livre para essa questão deve seguir os moldes do arXiv. Trata-se de uma solução que permita o acesso irrestrito ao conhecimento, às pesquisas e seus resultados. E, dado o modelo econômico atual, isso só pode ser feito através de uma forma eletrônica e gratuita de divulgação científica. Seria fantástico se o modelo do arXiv fosse adotado para todas as outras áreas do saber.

Epílogo: Uma breve história do arXiv

No começo, o arXiv era chamado “LANL preprint archive” (LANL é o Laboratório Nacional de Los Alamos – lugar onde a física das bombas atômicas da Segunda Guerra Mundial foi finalmente entendida e “dominada”). Ele é um arquivo para ”preprints” eletrônicos de artigos científicos nos campos de Física, Matemática, Ciência da Computação e Biologia Quantitativa. No passado, o servidor do arXiv ficava no LANL mas, atualmente, o arXiv é servido e operado pela Universidade de Cornell, além de ser espelhado pelo mundo afora. Sua idéia original é devida ao físico Paul Ginsparg.

O arXiv surgiu em 1991 como um arquivo de ”preprints” em física (hep-th, sigla que denota “física teórica de altas energias”) e, mais tarde, foi expandido para incluir, além de outras áreas de física, matemática, ciência da computação e, mais recentemente, biologia quantitativa. Em Março de 2004, o arXiv continha cerca de 267.000 preprints e recebia cerca de 3.000-4.000 novos preprints por mês!

O primeiro nome do arXiv foi xxx.lanl.gov, porém esse nome foi mudado quando se descobriu que programas de “censorware” (ou seja, programas de filtragem de conteúdo) estavam bloqueando seu acesso a partir de diversos sites, acreditando que as três letras X implicassem num site pornográfico. A idéia do XXX era a de que o arXiv era melhor que o WWW em todos os aspectos (já que a letra x vem depois da letra w no alfabeto).

A existência do arXiv foi um dos fatores mais importantes que levou à presente revolução em publicações científicas, conhecida como Open Access Movement (veja também Budapest Open Access Initiative e Berlin Declaration), com a possibilidade de levar ao desaparecimento das revistas científicas tradicionais (e, mais importante ainda, seus modelos de publicação).

Um método popular para se acessar a porção de matemática do arXiv é via o portal da Universidade da Califórnia em Davis chamado de Front. O portal oferece um método de busca poderoso e uma interface mais amigável para o usuário. Por essa razão, o arquivo de matemática é conhecido como ”[the] Front”.

Cientistas e matemáticos profissionais (como Grigori Perelman em 2002 e Richard Arenstorf em 2004) ”carregam” regularmente seus achados e demonstrações matemáticas no arXiv para o acesso e revisão mundial (e gratuito).

Referências

Enquete…

Diversão garantida…

😈

Dia do Acesso Livre…

terça-feira, 14 out 2008; \42\UTC\UTC\k 42 1 comentário


Hoje é Dia do Acesso Livre:

É importante que, hoje em dia, em meio a toda essa revolução digital que estamos passando, nós tenhamos noção da dimensão do que conceitos como “Acesso Livre” significam.

Para maiores informações,

Feliz Dia do Acesso Livre! 😈

Edição colaborativa em TeX…

domingo, 12 out 2008; \41\UTC\UTC\k 41 8 comentários

Muita gente, mais cedo ou mais tarde, acaba trombando nesse problema: como editar colaborativamente um artigo científico, em geral editado em \TeX e \LaTeX?

Imagine a seguinte situação: vc numa sala, no seu depto preferido, e seu colaborador na sala ao lado! Como é que vcs podem se coordenar para escrever um artigo juntos? Agora, imaginem uma situação mais idealizada, só pra facilitar o argumento a seguir: vc e seu colaborador estão a meio planeta de distância. 😈

No meio científico, essa situação é razoavelmente comum: vários autores colaborando num mesmo artigo, um em cada canto desse nosso mundo redondo.

Praqueles que não têm uma necessidade tipográfica muito grande, algo como Google Docs dá conta do recado: vc simplesmente transfere sua ferramenta editorial para “the cloud“. 😉

Agora, pra quem tem necessidades tipográficas mais agudas — e.g., TeX, LaTeX, DocBook ou HTML —, a colaboração é certamente mais complicada e delicada.

As primeiras alternativas que surgiram foram as seguintes:

Quem usa Emacs pode utilizar AUCTeX e psvn.el para integrar tudo de modo suficientemente transparente.

Uma alternativa um pouco mais moderna, que integra e faz o papel de agregar as funcionalidades de “editor de textos” e “controle de versões”, é a seguinte:

  • Gobby (roda em qualquer plataforma: Microsoft Windows, Mac OS X, GNU/Linux e *NIX afins);
  • SubEthaEdit (só para Mac OS X).

Essencialmente, ambos são equivalentes: O Gobby é uma implementação “software livre” do SubEthaEdit. Para usuários menos experientes em lidar com o controle de versões, delegar essa tarefa diretamente para o editor pode ser uma saída viável. Para maiores informações sobre esse tipo de editores, é só dar uma olhada em Collaborative real-time editor. Infelizmente, eu não sei quantos desses têm suporte para TeX ou LaTeX.

Isso tudo posto… aautgora é hora de falar no Git: o Git é um dos softwares para controle de versão mais rápidos disponível atualmente. Aliás, mais do que isso, o paradigma descentralizado e distribuído do git o torna um candidato natural para um sistema de arquivos com as mesmas propriedades: o jeito mais fácil de entender o conceito do git é imaginar que vc pode, e.g., ter uma pasta no seu computador ‘replicada’ em outros computadores (que vc explicitamente permitiu acessar a pasta original): ou seja, todos os seus colaboradores vão ter acesso à mesma pasta, de tal forma que quando qualquer arquivo (formatos ASCII ou binários, i.e., TeX, LaTeX, DOC(X), PDF, JPEG, TXT, HTML, RTF, etc) dentro dessa pasta for atualizado, todos os colaboradores recebem essa mesma atualização!

Fora isso, o git tem algumas outras propriedades bem interessantes para quem está desenvolvendo uma colaboração científica, que tende a ser um processo altamente emaranhado e não-linear: suporte para desenvolvimento não-linear (resolução de conflitos de edição), desenvolvimento distribuído, é possível usar subversion através de comandos de compatibilidade, velocidade e escalabilidade (eficiência para grandes projetos), autenticação criptografada, entre outras.

Ou seja, através do uso do git o controle de versões é extremamente mais poderoso e flexível, isso pra não falar na resolução de conflitos, i.e., quando dois ou mais dos seus colaboradores estiver trabalhando no artigo (ou gráfico, imagem, etc — qualquer tipo de arquivo), ao mesmo tempo, qual modificação tem maior prioridade? O git é excelente nesse departamento… além de permitir que vc compartilhe toda uma pasta com seus colaboradores, uma vez que qualquer tipo de arquivo é monitorado e atualizado automaticamente.

É, a meu ver, a saída mais sofisticada e robusta para o problema de colaboração e acesso de várias pessoas a um mesmo conjunto de arquivos (e tudo pode funcionar de modo encriptado, o que torna todo o processo ainda mais confortável). Porém, infelizmente, ainda não há nenhum suporte para git no Emacs nem em nenhum outro editor que eu conheço. Mas, dado que o AUCTeX é uma ferramenta tão poderosa, vale a pena se ajustar ao meio termo: “Emacs + AUCTeX” e Git no console. Pode ser meio confuso no começo, mas uma vez que se acostuma com esse arranjo… é puro zen! 😎

O que me traz à terceira opção: Dropbox (leiam mais no link Tour).

Essencialmente, o Dropbox é uma versão mais “user-friendly”, amigável, de softwares de controle de versões: o processo de instalação cria uma pasta no seu computador que fica arquivada no cloud deles… e, dessa forma, toda vez que qualquer arquivo denro dessa pasta for modificado, as diferenças são propagadas para o cloud, onde ficam arquivadas também. E é agora que vem o pulo-do-gato: uma das sub-pastas (dentro da pasta-mãe, compartilhada via o serviço do Dropbox) é chamada Public, de modo que qualquer arquivo dentro dessa pasta pode ser acessado por quem tiver o respectivo acesso permitido.

Até aqui, tudo soa exatamente como no git, acima… a diferença crucial é que o Dropbox não usa o git como ‘backend’, i.e., o Dropbox tem seu próprio método de atualização dos arquivos — que, até agora, não é muito bem conhecido publicamente.

Portanto, nesse sentido, o Dropbox é uma espécie de git light, i.e., é uma versão mais levinha e com menos recursos do que o git — não tão robusto, mas que satisfaz as necessidades da grande maioria dos usuários.

A grande vantagem é que não é preciso que “alguém” instale um servidor rodando git, o que torna tudo muito mais acessível a qualquer nível de usuários. 😉

Então, no final das contas, essa não é uma saída tão ruim assim… perde-se uns recursos dum lado, mas ganha-se em manutenção do outro — em geral, é um bom meio termo. E, de quebra, ainda é possível se usar TrueCrypt para se encriptar o conteúdo de toda a pasta, tornando tudo muito mais seguro (mesmo que o conteúdo da pasta esteja na ‘cloud’, ele estará encriptado 😉 ).


Pessoalmente, meu sonho de consumo seria um servidor rodando uma combinação dos seguintes:

juntamente com todo o indexamento feito pelo SPIRES! E, a essa mistura, adicionaria-se um servidor git, para que todos os usuários pudessem colaborar livremente e, de modo completamente transparente, publicar o artigo assim que acabado!

Dessa forma, numa mesma e única plataforma estariam centralizadas as melhores e mais robustas funcionalidades disponíveis no momento — seria o paraíso! 🙂

Bom… é isso aí: a diversão é mais-do-que-garantida, []’s! 😈

Um pouquinho de Linux e o valor de “listas”…

sábado, 11 out 2008; \41\UTC\UTC\k 41 Deixe um comentário

Essa é rapidinha, só pra ressaltar dois links interessantes que apareceram nessa semana:

O primeiro link acima é sobre o projeto APTonCD, que faz um repositório dos pacotes duma distribuição baseada no apt (e.g., Debian ou Ubuntu) num CD ou DVD. Dessa forma é possível se carregar pra todo lugar os seus pacotes preferidos. 😉

O segundo link é um resumão com as melhores dicas do Shell-fu colocadas dentro dum único .bashrc.

E, pra quem gosta de “listas disso” e “listas daquilo”, acho que esse artigo vem bem a calhar:

Qual é a informação que realmente tem significado em listas e rankings? Mesmo que os dados sejam estatisticamente significativos, o modo como eles são comparados relativamente (i.e., os pesos atribuídos) tende a ser arbitrário, o que afeta o resultado final — às vezes, até alterando completamente as respostas obtidas.

Diversão garantida, []’s. 😈

Acesso Livre…

segunda-feira, 6 out 2008; \41\UTC\UTC\k 41 Deixe um comentário

Hoje em dia, o movimento que visa o acesso livre vai de vento-em-popa e já praticamente dispensa apresentações; principalmente no Brasil, onde a CAPES já até desenvolveu o famoso Portal de Acesso Livre.

Porém, o que muitos não sabem é a história de como tudo isso começou, em meados de 1991, quando Paul Ginsparg (sim, aquele já conhecido pelos férmions de Ginsparg-Wilson) deu início aos arXivs.

A entrevista abaixo é uma das poucas que o Ginsparg já deu, e é excelente, recheadas de ‘causos’:

É importantíssimo também lembrar que sem o TeX, dado de presente e mão beijada para o mundo todo pelo Don Knuth, nada disso teria sido possível — o TeX é uma das primeiras linguagens de markup.

Outro ingrediente importante foi a criação da WWW por Tim Berners-Lee. Como o próprio Ginsparg conta na entrevista, TBL o contactou pessoalmente… e assim os arXivs foram levados dum servidor de FTP para um de WWW… e assim surgiu o primeiro, ❗ , servidor da web no mundo!


N.B.: o servidor da HET Brown foi um dos primeiros também (se não me engano, foi o terceiro), logo em seguida dos arXivs: foi um dos meus predecessores (chamado Stephen Hahn) que o instalou, na sala de número 625 no prédio chamado Barus & Holley, e até pouco tempo atrás (quando eu atualizei e reconfigurei tudo pra rodar via Apache 2.0.63), tudo rodava naquele mesmo servidor original (um verdadeiro rinoceronte 🙂 )! Enquanto isso, no Brasil, o DFMA teve uma das primeiras páginas da USP, assim como o Ciências Moleculares, que certamente foi a primeira página sobre um curso de bacharelado da USP (quiçá do Brasil — ainda me lembro do dia em que instalei o primeiro servidor HTTP no servidor do CM, ainda chamado lnx00, e começamos a brincar com HTML)! Foi nessa mesma época que nasceu o Projeto Sócrates, do qual tive a sorte de participar (mas essa é outra estória).


Bom, essa é a história do Acesso Livre, não só no mundo, mas no Brasil também… que, como vcs vêm, tem tido uma participação bem sólida nisso tudo. 🙂

[]’s.

A semana nos arXivs…

sexta-feira, 3 out 2008; \40\UTC\UTC\k 40 Deixe um comentário
%d blogueiros gostam disto: