Arquivo

Posts Tagged ‘supercomputadores’

Revolução do grafeno dá mais um passo

quinta-feira, 30 abr 2009; \18\America/New_York\America/New_York\k 18 1 comentário

Fotografia obtida por microscópico eletrônico de varredura do circuito integrado nanométrico construido a base de grafeno. As barras amarelas são eletrodos de cromo e ouro e sobre a superfície azul ligando os eletrodos há uma fina camada de grafeno.

Fotografia obtida por microscópico eletrônico de varredura do circuito integrado nanométrico construido a base de grafeno. As barras amarelas são eletrodos de cromo e ouro e sobre a superfície azul ligando os eletrodos há uma fina camada de grafeno. Figura do artigo original de R. Sordan et al.

Físicos na Itália desenvolveram o primeiro circuito integrado de grafeno, o relatório foi publicado semana passada no arxiv.

O grafeno é um nanomaterial descoberto em 2004 que consiste em uma folha bidimensional de átomos de carbono de apenas um único átomo de espessura (uma fatia atômica de grafite). Ele difere dos demais materiais semicondutores — que são os materiais com as propriedades eletrônicas adequadas para construção de diodos e transitores — por manter alta mobilidade dos elétrons mesmo quando dopado com alta densidade de impurezas. Isso reflete em uma resistência a corrente elétrica que está entre as mais baixas já encontradas em um material a temperatura e pressão atmosférica, tornando o grafeno uma potencial matéria-prima para construção de circuitos integrados de alta freqüência (acima de GHz) em escalas micrométricas de tamanho, o que pode vir a substituir a presente tecnologia dos semicondutores de silício utilizados nos computadores e eletrônicos modernos. O trabalho do grupo italiano é um passo importante nessa direção porque demonstra que estes circuitos são factíveis. Em 2007, um grupo de Harvard já havia construído o primeiro transistor de grafeno.

Para saber mais:

  1. Fledgling graphene circuit performs basic logic, Physics World.
  2. Graphene na Wikipedia.

Computação Científica e de Alta Performance…

terça-feira, 25 nov 2008; \48\America/New_York\America/New_York\k 48 8 comentários

O termo Computação de Alta Performance (HPC na sigla em Inglês) é usado para designar um determinado tipo particular de hardware, usado para atacar problemas que demandam o máximo da máquina, como “Teorias Quânticas de Campos na Rede“, “Enovelamento de Proteínas“, “Paleoclimatologia“, etc.

Um dos primeiros “galhos” dessa árvore da HPC foi a chamada “computação voluntária“, onde um usuário comum pode doar os ciclos inativos do seu computador para cálculos científicos, e.g.:

Tecnicamente falando, o nome dessa técnica é Computação em Gride — e, atualmente, no melhor espírito da Web2.0, fala-se também em termos de Computação na Nuvem.

O resumão dessa história começa há tempos atrás, enquanto as CPUs ainda eram oficialmente divididas em 2 tipos:

E, dentre esses 2 tipos, há mais algumas subdivisões:

Isso determina, essencialmente, o tipo de CPU que vc tem… aí é hora de falar em paralelização… 😉

Ou seja, a coisa fica bem complicada bem rápido… e, como se pode esperar, navegar nessas águas não é fácil… (Apesar de que o Sam Fulcomer ganhou o prêmio de ‘Ultimate HPC Geek’ desse ano!)

Historicamente falando, os problemas mais complicados sempre eram atacados com hardware que, essencialmente, era construído para o problema em questão (vários dos Cray foram construídos para o cálculo de Campos Quânticos na Rede, ditto para os BlueGene da IBM, etc)… porém, com a descoberta dos Clusters Beowulf, essa arte de se construir “supercomputadores” acabou sendo posta de lado, em favor da massificação desse tipo de clusters — aliás, numa palestra na Brown, ParalleX: A New Execution Model for Sustainable HPC Design, o Thomas Sterling (um dos inventores dos Beowulf) disse claramente que se arrependia de tê-lo feito, uma vez que aquilo que era pra ser apenas uma alternativa barata, passou a virar o foco central e, essencialmente, acabou com o desenvolvimento e pesquisa na área de supercomputação!

Um dos últimos CPUs a serem desnvolvidos ainda nesse aspecto, foi o MULTIFLOW, do qual participaram ativamente Gerry Guralnik e Jim O’Dell — o Jim, aliás, foi um dos primeiros desenvolvedores do Macsyma, no Project MAC do MIT, o precurssor dos CAS modernos.

Por isso, foi muito bom ter visto as notícia abaixo:

O primeiro deles fala do Jaguar, o primeiro computador a quebrar a barreira dos PetaFLOPS! Enquanto que o segundo artigo fala do NVIDIA Tesla, que é um supercomputador pessoal, com até 960 cores!

É inacreditável, mas depois que os clusters tomaram conta do mercado de HPC (como bem disse o Thomas, acima), a única atividade que ainda demandava uma quantidade de processamento tamanha que necessitava de processadores vetoriais era a dos gráficos dos jogos de vídeo-game! E, como era de se esperar, o crescimento e avanço desse setor impulsionou o desenvolvimento de HPC que já estava estagnado em clusters há anos. Então, do mesmo modo que a indústria pornográfica impulsionou a demanda por banda-larga e possibilitou que a Internet chegasse até cada um de nós, em nossas casas; a indústria de vídeo-games propulsionou o desenvolvimento de HPC dum modo completamente inesperado. 🙂

A lição a ser aprendida é que não adianta, alguns problemas só podem ser atacados com investimento em pesquisa básica e fundamental… não dá pra querer baratear tudo, sucateando tecnologia de ponta no processo. 😉

É isso aí: diversão garantida para o feriado! 😈

[]’s.

%d blogueiros gostam disto: