Archive

Archive for maio \26\UTC 2011

Criação de partículas pelo vácuo pode ter sido demonstrada em laboratório

quinta-feira, 26 maio 2011; \21\UTC\UTC\k 21 6 comentários

Um dos conceitos mais difíceis de digerir na mecânica quântica relativística é o fato de que afirmar que “ali há uma partícula” é algo relativo. É devido a este fenômeno que um universo em expansão cria partículas espontaneamente, processo que acredita-se hoje deve ter sido o responsável por popular o nosso universo com prótons, elétrons, fótons, e todo o resto da matéria. É também esse o mesmo fenômeno da radiação Hawking que todo buraco negro emite. Esse efeito pode ter sido observado pela primeira vez em laboratório por Chris Wilson da Universidade Chalmers de Tecnologia de Gothenburg, Suécia, e colaboradores no RIKEN, Japão, New South Wales em Sidney e Michigan em Ann Arbor, EUA[4].

Em poucas palavras, o que eles observaram foi que um espelho se movendo no vácuo com aceleração não uniforme e velocidade próxima da luz, emite luz a uma taxa proporcional ao quadrado da velocidade do espelho em relação ao vácuo.

Este efeito foi previsto em 1970 pelo físico-matemático Gerald More e é mais conhecido como efeito Casimir dinâmico. Na prática, é quase impossível mover um espelho rápido o suficiente para criar uma taxa de partículas apreciável. Por exemplo, um espelho oscilando na frequência de 1 GHz com uma amplitude de 1 nm teria uma velocidade 10 milhões de vezes menor que a velocidade da luz, produzindo apenas um único fóton por dia, mas exigiria 100 MW de potência e o sistema inteiro deve estar a menos de 10 mK de temperatura[1]. Para uma comparação, uma usina de carvão produz cerca de 400-700 MW de potência elétrica.

O esquema realizado por Chris Wilson consistiu em usar uma guia de onda[5] com um SQUID preso em uma das extremidades. O SQUID é um dispositivo eletrônico cuja indutância pode ser finamente calibrada. A presença do SQUID no final da guia resulta em uma probabilidade alta de uma onda eletromagnética ser refletida no ponto próximo ao SQUID. Alterando a indutância do dispotivo, esse ponto pode ser deslocado no espaço. Desse modo, eles obtiveram um espelho que se move a velocidades de até 5% da velocidade da luz. Eles observam então a potência irradiada dentro da guia de luz quando o espelho efetivo começa a se mover. Algumas correlações entre voltagens previstas teoricamente são também comparadas com as medidas experimentais para ter certeza que o efeito é mesmo a criação de partículas no vácuo. Esse esquema experimental foi pela primeira vez proposto por Astrid Lambrecht, Instituto Max Planck de Óptica Quântica, Marc-Thierry Jaekel e Serge Reynaud da Ecole Normal[3].


Esquema experimental para demonstração do efeito Casimir dinâmico. Crédito da Figura: Ref. [2].

Criação de partículas pelo vácuo

Nesse outro post eu tentei explicar em termos simples como o conceito de partícula depende do observador: um estado que é vácuo para um observador A, será repleto de partículas como visto por um outro observador B que se move com aceleração constante em relação a A. No caso do efeito Casimir dinâmico, a condição de contorno dos campos muda no tempo devido a uma força externa, similar ao caso do efeito Casimir. Em termos simples, os valores de comprimento de onda admissíveis ao campo eletromagnético vão mudando a medida que a guia de onda muda de tamanho. Como os fótons são aqueles estados de comprimento de onda fixo do sistema, a medida que a guia de onda muda de tamanho ocorre surgimento de novos comprimentos de onda e o observador detecta novos fótons dentro da cavidade, mesmo quando esta incialmente encontrava-se no vácuo.

Referências e notas

  1. C. Braggio et al. 2005 Europhys. Lett. 70 754 doi: 10.1209/epl/i2005-10048-8.
  2. J. R. Johansson, G. Johansson, C. M. Wilson, F. Nori, Phys. Rev. A 82, 052509 (2010), doi: 10.1103/PhysRevA.82.052509.
  3. Astrid Lambrecht, Marc-Thierry Jaekel, Serge Reynaud. Phys. Rev. Lett. 77, 615–618 (1996), doi: 10.1103/PhysRevLett.77.615
  4. C.M. Wilson et al., arXiv:1105.4714 [quant-ph].
  5. Uma guia de onda é um dispositivo para guiar a direção de propagação de uma onda, forçando uma onda a propagar-se no seu interior, como por exemplo a fibra óptica, ou uma cavidade de metal.

Fermi-LAT pode ter confirmado resultado do PAMELA

sexta-feira, 20 maio 2011; \20\UTC\UTC\k 20 1 comentário

Hoje a Physics World reportou que a colaboração Fermi-LAT fez uma divulgação preliminar durante um congresso de que eles podem ter confirmado o excesso de pósitrons nos raios cósmicos que atingem a Terra na região de 10 a 100 GeV observados pelo PAMELA. Esse resultado é do mais confuso, porque o Fermi-LAT não observa tal excesso para os elétrons.

 Espectro de pósitrons cósmicos do satélite PAMELA.

Espectro de pósitrons cósmicos obtido pelo satélite PAMELA. A linha sólida é o cálculo Moska & Strong. Não incluido o fluxo previsto por fontes pontuais temporárias.

Muitas pessoas irão falar que esse excesso pode ser explicado com processos astrofísicos comuns, mas isso tem que ser visto com muito ceticismo porque genericamente qualquer processo de aceleração clássico deveria gerar um espectro de potência que diminui com o aumento da energia dos pósitrons, como 1/En para n > 0. Porém, o PAMELA, e agora o Fermi-LAT, observam um crescimento do número de pósitrons de 10 a 100 GeV, o que contradiz intuitivamente a possibilidade do excesso vir de aceleramento astrofísico. Além disso, por que o processo astrofísico iria acelerar pósitrons nesta energia mas não os elétrons?

Estrutura de bandas, ARPES e o LNLS 2

domingo, 15 maio 2011; \19\UTC\UTC\k 19 Deixe um comentário

Hoje em dia, muito do que se é feito sobre desenvolvimento e caracterização de novos materiais para nanoeletrônica (nanotubos de carbono, nanofios, grafeno, isolantes topológicos, …) pode ser entendido através da estrutura de banda. Em especial, as propriedades eletrônicas, magnéticas, químicas e ópticas dos materiais são determinadas por este tipo de informação. Entretanto, aqui no Brasil, determinar uma simples estrutura de banda não é tão simples quanto parece.

Estrutura de bandas

Quando estamos estudando sistemas periódicos como sólidos (1D, 2D ou 3D) a “dinâmica” dos elétrons (de valência) no material pode ser descrita através de um Hamiltoniano periódico

H = \displaystyle\sum_{\vec{R}} H_{\vec{R}},

onde \vec{R} são os vetores da rede de Bravais e H_{\vec{R}} é o Hamiltoniano dos elétrons numa única célula unitária localizada em \vec{R}.

Por ser periódico, uma das maneiras mais naturais de diagonalizar o operador Hamiltoniano é tomando a transformada de Fourier dele no espaço-k, o espaço dos vetores de onda. Assim, o Hamiltoniano toma a forma

H = \int_{BZ}\frac{d^3k}{(2\pi)^3} \mathcal{H}(\vec{k}).

A diagonalização de \mathcal{H}(\vec{k}) fornece o espectro (conjunto de todos autovalores) \{ \epsilon_n(\vec{k})\} que são chamadas comumente de estrutura de bandas. Plotando estas várias funções \epsilon_n(\vec{k}) por caminhos que passam pelos pontos de alta simetria da zona de Brillouin vamos obter algo como na Fig. 1, isto é um exemplo do que chamamos de estrutura de bandas.

Os estados eletrônicos que estão abaixo de uma certa energia (energia de Fermi)  são estados ocupados, os que estão acima são estados desocupados. Estas estruturas de bandas são únicas de cada material, e é através dela que determinamos as propriedades eletrônicas, magnéticas, químicas e ópticas dos novos materiais que estão surgindo.

Existem vários métodos teóricos para calcular este tipo de estrutura de bandas. Por exemplo, eu costumo usar métodos ab initio baseados na Teoria do Funcional da Densidade, ou modelo Hamiltonianos no formalismo de segunda quantização (espaço de Fock) como o método tight binding. Mas como um experimento pode confirmar isto?

ARPES

Do ponto de vista experimental uma das mais diretas de determinar isto é usando o método ARPES (Angle Resolved Photoemission Spectroscopy). Este método consiste numa espectroscopia de fotoemissão que mede as energias e momentos dos elétrons emitidos pelo material com uma resolução angular. Isto permite construir a dispersão da banda e a energia de Fermi do material. O esquema de como esta medidas são feitas é mostrado na Fig. 2.

Figura 2. Setup experimental do ARPES.

Embora tenham conceitos simples, os equipamentos necessários precisam de boas precisões. E aqui no Brasil ainda não há nenhum lugar que possa fazer uma medida ARPES. Quem mais tem capacidade de fazer isso é o LNLS (Laboratório Nacional de Luz Síncrotron), mas é necessário de um outro anel síncroton mais moderno para tornar este tipo de medida uma realidade.

LNLS 2

Há algum tempo estão falando numa construção de um outro anel para o LNLS. Este novo anel, batizado de Sirius, teria energia de 3 GeV, seria mais brilhante e teria também um espectro de energia mais amplo. Neste anel seria possível fazer medidas ARPES. O LNLS 2 (ou Sirius) traria outras vantagens além do ARPES, mas este tipo de upgrade é que eu estou mais atualizado, alguém de dentro do LNLS poderia informar melhor todas as outras vantagens. Alguns detalhes do novo anel podem ser encontradas no link: http://www.lnls.br/sLista-108/Sirius.aspx

Entretanto esta obra tem um custo um pouco elevado, R$ 360 milhões que seriam investidos ao longo de 3 anos. Este tipo de investimento é mais importante do que construir um estádio novo pra Copa do Mundo ou pra Olimpíada, mas não é tão falado quanto eles. O Brasil PRECISA deste tipo de investimento pra continuar evoluindo na ciência como todo mundo deseja, mas por enquanto só nos resta esperar que isto realmente saia do papel.


A física da busca de novos materiais

quarta-feira, 11 maio 2011; \19\UTC\UTC\k 19 3 comentários

Nós falamos bastante das nossas áreas de pesquisa e áreas próximas relacionadas nesse blog, que acaba sendo, por alguma razão, também as mesmas coisas que se encontra nos textos de divulgação científica mais conhecidos como os livros do Stephen Hawking, Marcelo Gleiser e Brian Greene. Mas curiosamente, a maioria dos físicos (em número) não trabalha nem com buracos negros nem com as interações das partículas elementares, e sim com a grande área da física que estuda os materiais, como as propriedades dos sólidos.

E desde o ano passado ocorreram grandes descobertas nessa área, que eu pensei em relatar aqui para que talvez desse um gostinho dela para quem estiver interessado. Foi a confirmação experimental de um material que havia sido idealizado em teoria capaz de conduzir eletricidade de forma perfeita, em uma única direção, e apenas na sua borda. Esses são os chamados isolantes topológicos. Por “forma perfeita”, o que se quer dizer é que os elétrons não podem dar revés quando estão se movendo no material. Em um metal, como os fios de ouro usados em todos os aparelhos eletrônicos modernos, os elétrons andam bem devagar porque batem constantemente nos núcleos atômicos. Em um condutor perfeito, os elétrons tem uma direção única de propagação e por isso não podem ricochetear, movendo-se bem mais rápido.

Na mecânica quântica, os elétrons ligados aos átomos não podem possuir qualquer valor abritrário de energia, que é o que cria o espectro discreto de emissão da luz. Em um material, os elétrons que não estão presos bem perto do núcleo mas podem se mover entre diferentes átomos também tem apenas algumas energias disponíveis para se propagar. É possível existir uma banda contínua de energia disponível, digamos de 15 eV até 30 eV, depois um “buraco” de energias proibidas, digamos de 30 eV a 35 eV, e novamente outra banda de energia, p.ex. de 35 a 40 eV. Os materiais isolantes são aqueles que o número de elétrons de valência preenchem completamente uma banda, e a próxima banda está suficientemente separada em energia de modo que só quando você aplica uma tremenda diferença de potencial elétrico os elétrons conseguem saltar da sua banda preenchida para a banda livre (esta última é a chamada “banda de condução”).


Isolante comum.
Isolante topológico. Elétrons ricocheteiam na borda e se movem em uma única direção.
Crédito da Figura: Ref. [1].

Cada elétron de um isolante fica orbitando apenas um único núcleo do material (ou fica preso entre mais de um em uma ligação covalente, mas deixemos esse caso de lado para simplificar). Em uma analogia da física clássica, nós podemos imaginar que a órbita é circular. Mas como ficam os elétrons que estão presos aos átomos logo na borda do material? Se você fizer uma engenharia bem pensada, pode colocar os elétrons da borda em órbitas que não cabem no material e os elétrons serão forçados a ricochetear da borda, como na figura. Ao ricochetear na borda, o elétron pula de um átomo para o próximo. O resultado é que o material é isolante no seu miolo, mas conduz eletricidade em uma fina camada na sua borda. Se você se permitir nessa analogia um pouco mais e imaginar que os elétrons estão todos ordenados para girar sempre em uma única direção dentro do material, então os elétrons da borda não vão conduzir eletricidade em qualquer sentido: eles só se movem em uma única direção.

A física mais detalhada desses materiais é mais complicada que esse modelo clássico. A real origem da condução na borda tem a ver com o fato de que existe um estado de energia estável na borda que liga a banda de condução até a banda do isolante, tornando a diferença de energia entre as bandas degenerada na interface. Essa solução é o que se chama um instanton, e o elétron fica “saltando” entre um mínimo para o próximo das bandas de energia, criando a condução elétrica de uma forma que ainda não se tinha visto até esse sistema aparecer. Uma explicação mais realista você encontrará na Ref. [1].

O que motiva muitos físicos a trabalhar com esses problemas é que são esses novos materiais, como o grafeno e os isolantes topológicos, que podem ser usados em grandes revoluções tecnológicas, como o efeito de tunelamento entre interfaces de semicondutores levou a invenção dos diodos e transitores semicondutores, que são os componentes dos chips de silício usados em computadores, nos sensores das câmeras digitais e celulares, e quase tudo que você possa imaginar de eletrônico.

Referência
1. Hasan, M.Z. and C.L. Kane (2010). “Colloquium: Topological insulators,” Rev. Mod. Phys. vol. 82, pp. 3045-3067. Download: [UPENN] [APS]

Há também o vídeo deste colóquio (1h de duração).

Como a Ciência escapou da Foice do Orçamento — até agora…

segunda-feira, 9 maio 2011; \19\UTC\UTC\k 19 1 comentário

O original, pode ser encontrado aqui: How Science Eluded the Budget Ax — For Now (DOI: 10.1126/science.332.6028.407).

É importantíssimo de se colocar esta notícia em comparação não só com os cortes oçamentários americanos, mas também com os cortes brasileiros: Brazil cuts its science budget, Brazil’s budget cut dismays scientists. De fato, duas comparações bastante interessante são as seguintes: percentual do corte orçamentário (o Brasil cortou o orçamento de Pesquisa e Desenvolvimento em ~13%), e proporção do investimento em Pesquisa e Desenvolvimento em relação ao PIB (o Brasil investe ~1.25% do PIB em Pesquisa e Desenvolvimento).

É dentro deste contexto que a crise econômica mundial foi apenas uma “marola” no Brasil…

When details of the 11th-hour budget compromise that kept the U.S. government running emerged last week, it became clear that science programs fared relatively well. True, most research agencies will have less to spend this year than they did in 2010 (see table), and the totals generally fall well short of what President Barack Obama had requested when he submitted his 2011 budget 14 months ago. But the legislators and Administration officials who struck the spending deal managed to slice $38.5 billion from a total discretionary budget of $1.09 trillion without crippling research activities. How did that happen?

US Research Funding Budget

First and foremost, both Republicans and Democrats were working off a quiet but powerful consensus on the importance of science to economic prosperity. Last fall, Congress authorized steady increases for three key science agencies in a renewal of the America COMPETES Act, and Obama’s recent statements on the 2011 negotiations emphasized the need to continue investing in clean energy and medical research as the overall budget is cut. Second, Senate Democratic leaders had crafted a spending plan in March that, although it failed to pass the full Senate, showed how it could be done. Finally, the so-called cardinals, who chair the 12 appropriations panels in the House of Representatives and the Senate that oversee every federal agency, found ways to protect research while trimming other programs to satisfy the deal’s bottom line.

“There was no magic to it,” explains Representative Frank Wolf (R–VA), whose panel has jurisdiction over the National Science Foundation (NSF), NASA, and the National Oceanic and Atmospheric Administration and the National Institute of Standards and Technology within the Commerce Department. “Science has been a priority for me and the other longtime members of the committee because you’re talking about jobs and about helping America maintain its economic leadership,” says the veteran legislator, who entered Congress in 1981. “There has not been any controversy about this.”

His appropriations counterpart, Senator Barbara Mikulski (D–MD), says she hopes that consensus will translate into “smart cuts that don’t cost us our future. I support science funding that can spur American discovery and ingenuity to create jobs for today and jobs for tomorrow.”

Of course, a passion for science wouldn’t have been enough to carry the day without the numbers to back it up. That’s clear from the actions of the commerce, justice, and science (CJS) panels that Wolf and Mikulski lead.

In February, the Republican-led House passed H.R. 1, which slashed $61 billion from current federal discretionary spending. For Wolf’s spending panel, that translated into $8 billion less than the committee dispensed in 2010. Divvied up among dozens of agencies, the $52.7 billion number forced Wolf to cut $360 million from NSF’s $6.87 billion budget, for example, and $600 million from NASA’s $18.7 billion budget.

In contrast, the 2011 spending plan devised by Senate Democrats gave Mikulski’s CJS panel $53.6 billion to work with. That $900 million difference allowed Mikulski to be kinder to the research agencies under her jurisdiction. It pared $75 million from NSF’s budget and even provided a slight boost to NASA.

“Nineteen billion dollars was authorized, and $19 billion is what I put in my appropriations bill,” Mikulski said at a hearing last week on NASA’s 2012 budget request, referring to both a reauthorization of NASA programs that was enacted last fall and the Senate plan for 2011. “But my [spending] bill died, so NASA won’t get $19 billion.”

The 8 April budget agreement resulted in a CJS allocation of $53.3 billion for each panel. And although that figure is a bit lower than the earlier Senate version, it was enough to turn the two chairs’ support for science into fiscal reality. The Senate bill was a “guide-post showing what could be done within that allocation level,” says a senior staffer at one federal research agency. “Having the Senate offer a road map made a huge difference.”

Wolf says he was happy to be able to deliver most of what science lobbyists had sought for agencies within his jurisdiction. “I thought science ended up pretty well,” Wolf says about the final bill, pointing out that it ranked with the FBI’s fight against global terrorism as his top priority. In contrast, federal support for local and state law enforcement assistance took a big hit, as did other Justice Department programs.

Mikulski believes she did the best she could under the circumstances. But she isn’t happy with the fate of NASA, which employs thousands at its Goddard Space Flight Center outside Washington, D.C., in suburban Maryland. “NASA won’t even get the $18.7 billion it got in 2010,” she said at last week’s hearing. “Simply put, NASA will be cut more.”

With the 2011 budget finally put to bed, Congress is turning to the budget for the 2012 fiscal year that begins on 1 October. In addition to the political bickering over how to reduce a $1.5 trillion annual deficit, legislators will have to deal with the domino effect of the 2011 cuts, as activities that needed increases this year to remain on schedule will be delayed. NSF’s final budget, for example, cuts $48 million from its request to continue building a half-dozen major research facilities, including the newly launched Ocean Observatories Initiative and the National Ecological Observatories Network. A shrunken 2011 budget also means even bigger headaches for NASA’s troubled James Webb Space Telescope.

Striking a positive note, Mikulski told NASA Administrator Charles Bolden last week that “NASA will need to work harder and smarter to accomplish its inspiring mission within a smaller budget.” Wolf was less sanguine. Asked what scientists should do to maintain support for federally funded research in these fiscally stringent times, he offers a one-word strategy: “Pray.”

A lição importante da Física

domingo, 8 maio 2011; \18\UTC\UTC\k 18 10 comentários

Este post apresenta opiniões sobre ensino de Física do autor do post e não necessariamente refletem as opiniões de todos os editores do blog.

Em uma das minhas primeiras aulas de Física na universidade, um professor já quase para se aposentar comentou que ele observou que era comum os calouros falarem apaixonadamente em demonstrar que Einstein estava errado, e quatro anos depois tornavam-se defensores da Relatividade com todos os jargões possíveis.

No nosso sistema educacional contemporâneo ao redor do mundo, professores usam livros-texto de 1000 páginas e preparam os cursos na ordem dos capítulos 1, 2, 3, … e enfatizam aos alunos ler os exemplos 1.2, 2.10, 4.5 e resolver os problemas 1.5, 2.19, 3.14 — porque um igual ao 2.19 vai cair na prova! Todo conteúdo, problemas e soluções relevantes são apresentados aos alunos em classe ou em panfletos. Mas será que as atividades que nós realizamos fora da escola tem paralelo com essa estrutura? Será o tempo que um bloco de madeira de 10.2 g leva para deslizar até o chão em um plano inclinado a 25° de uma altura de 2.4 m a lição importante que queremos ensinar em Física?

Eu creio que a maioria dos físicos concordariam comigo que no trabalho científico é difícil dizer que problemas são interessantes e com solução em um dado momento histórico. No trabalho científico mesmo quando nós concluimos um novo capítulo no conhecimento de Física, não temos claramente quais são os próximos capítulos que podem ser escritos. Quase sempre apenas se tem uma ideia vaga do sumário de três ou mais capítulos que podemos escrever. E nos forçamos a ter várias ideias, porque é quase certo que um dos sumários iniciais não vai render um capítulo inteiro. E como os capítulos em pesquisa científica são novos, um problema que tem uma solução conhecida não é de interesse: os físicos não passam tempo debatendo sobre transmissão de rádio e preferem investigar colisões de prótons em energias nunca antes observadas ou procurar interações que podem não existir da matéria escura. Muito mais valioso para ciência do que saber soluções de cor é elaborar problemas interessantes. Pense no exemplo no final do século XIX, quando buscava-se entender porque não foi possível detectar o éter luminífero, quando então Einstein se interessou por responder a pergunta de porque as equações de Maxwell não eram independentes do referencial. A formulação do problema nos termos de Einstein levou a solução dos mesmos problemas que Lorentz, Poincaré e Abraham investigavam. Foi a elaboração da pergunta, e não um conhecimento pedante de cálculo tensorial, que nos levou a Relatividade.

Eu acredito que a relevância de selecionar problemas interessantes vai além da pesquisa em ciência e insere-se no mundo empresarial, no governo, em ações sociais, jornalismo, na arte e possivelmente em quase todas relações socio-economicas humanas. Por exemplo, nos negócios, ninguém lhe dirá qual é o próximo produto de sucesso. Chegar primeiro no celular e no iPod é parte da busca do progresso. Perceber que problemas do ambiente de negócio são interessantes para serem resolvidos com intuito de aumentar a produtividade e diminuir a burocracia é tarefa espontânea que todo gerente gostaria de ter nos seus empregados. O empresário brasileiro Ricardo Semler, presidente de uma empresa com valor de mercado de mais de US$200 milhões, e cujas ideias de administração levaram-no a dar aulas na Escola de Administração do MIT e Harvard, relatou sua frustração com o sistema de ensino no Fórum Mundial de Tecnologia do Aprendizado de 2009:

Como as pessoas estão chegando a empresa, e portanto ao mercado de trabalho, das escolas? (…) Elas dirão: você precisa me dizer onde eu vou ficar, o que eu devo fazer, qual o meu plano de carreira, e nós dizemos a elas que não temos nada a falar sobre isso, ‘Você tem que encontrar essa solução’. Nós percebemos que as pessoas vem a nós de um sistema educacional onde elas aprendem submissão desde cedo. (…) Elas chegam ao mercado de trabalho prontas para seguir ordens ou seguir uma carreira, coisas que não existem mais.

A narrativa de Semler é bem familiar: professores de Física oferecem a ideia de que os problemas que devem ser resolvidos são aqueles já escritos no final do capítulo. Nós educamos com base em reprodução de conhecimento já estabelecido ao invés de criação original.

Há outro aspecto que eu acredito inibir a criatividade: o formato das avaliações de hoje. Estas enfatizam obter os coeficientes a balancear uma reação química, que o tempo de vôo de um objeto é 25 s ou que a raiz da equação é 3√2+5i no plano complexo. Se o estudante não acerta esse resultado final, ele é penalizado. Parece-me que o sistema recompensa obsessão por estar correto, inibindo tentativas audaciosas. O Brian Greene tem uma história interessante sobre isso: uma vez quando estava em uma turma de crianças, para medir o quanto elas já tinham aprendido de matemática, ele perguntou “quantos 3 cabem em 6?”, escolheu um dos braços que se levantou no ar e a menina foi ao quadro e desenhou um 6 grande com um 3 pequeno dentro! Não era exatamente a resposta que Greene procurava, mas era um 3 dentro de um 6! Em algum momento na evolução educacional desta criança esse tipo de atitude desinibida se perde. Minha experiência com alunos em Dartmouth é que pouquíssimos vão arriscar responder perguntas em classe, eles preferem ficar calados. Como vamos resolver a crise de energia ou o déficit público quando nossos alunos preferem não fazer nada do que arriscar uma solução incorreta?

Se você concordou comigo até agora, acho que podemos ver que um ensino centrado em reprodução de conhecimento ao invés de criação é um problema difícil de resolver. Eu não tenho em mente com essa crítica que podemos dispensar por completo do tradicional, mas podemos tentar encontrar um balanço adequado entre ensinar conteúdo e criação de problemas. Para ter uma ideia do que tenho em mente, considere o exemplo de como ensinamos álgebra para crianças daquelas 6a e 7a séries (escolho esse exemplo porque deve ser familiar a maioria das pessoas). Após ensinar os básicos das regras de álgebra, a criança passa o ano inteiro resolvendo problemas como “aplique a regra distributiva a (1+x)(3+y2)”. Eu lembro que na minha 8a série nós aprendemos a fórmula da Baskhara logo no primeiro mês e passamos o resto do ano resolvendo exemplos diferentes de equações do segundo grau! Uma abordagem distinta é ensinar as regras de álgebra e pedir aos alunos que pensem em problemas de álgebra. Cada aluno poderia escrever cinco ou mais equações aleatoriamente, e o professor poderia sugerir uma para o aluno investigar, uma espécie de “feira de ciências de matemática”. Se um único aluno da 7a série escrever e investigar uma equação como xn+yn=zn (último teorema de Fermat), x2 – n y2 = 1 (equação de Pell) ou ax+ b y = c (equação linear diofantina) estaremos em direção de uma nova geração de Gauss, e o mundo desesperadamente precisa de um novo Gauss. Um abordagem como essa permite os alunos escolherem que problemas de álgebra eles se interessam, que direção eles gostariam de seguir, e vão desde cedo encontrar a possibilidade da limitação do progresso com problemas mal escolhidos. Em cursos de pós-graduação, até o exame pode ter uma pergunta como “Elabore o seu próprio problema e resolva-o”, como ouvi dizer que o Prof. Jayme Tiomno fazia. Em classes de física básica universitária, algo simples pode ser feito: todo dever de casa pode incluir uma solicitação do aluno criar seu próprio problema; depois a turma pode ser dividida em grupos pequenos supervisionados por um professor e/ou monitor de disciplina que observa e ajuda os alunos a discutirem seus próprios problemas no quadro negro. Veja que essa tarefa é muito diferente de pegar um problema do livro e apresentar em sala. Se o problema está no livro, não é interessante! Alunos de turmas mais avançadas da graduação podem ser motivados a elaborarem problemas para a disciplina baseados nos seus interesses pessoais, no seu projeto de iniciação científica, ou em outras disciplinas.

Eu gostaria de concluir com um pouco de psicologia pois não quero embasar minha perspectiva de ensino em anedotas. Há algumas coisas que os neurocientistas parecem ter chegado a um consenso: 1) o cérebro humano desenvolve sua estrutura do dia do nascimento até mais ou menos 20 anos de idade e 2) a prática de uma certa tarefa está associada a especialização de regiões do cérebro para realizá-la e criação de sinapses. Em termos simples: é preciso prática para ser um bom músico, e é melhor começar quando criança. Se nós educarmos exclusivamente para obter alunos que irão fazer fantásticas e rápidas reproduções de exercícios, vamos obter resultados estelares no vestibular e concursos públicos. Mas nós não queremos só isso da educação de ciência: queremos também a habilidade do pensamento crítico e criativo. Eu acredito que motivar os alunos desde cedo a criar seus próprios problemas estimulará essa habilidade e quem sabe, a tornará bastante natural em idade adulta.

Texto baseado em um ensaio sobre ensino de Física que escrevi a pedido da Graduate School of Arts and Sciences de Dartmouth College, em ocasião do Filene Graduate Teaching Award.

Alguns vídeos inspiradores:
Ken Robinson, “Escolas matam criatividade”, com legendas em português.


 

Ricardo Semler no LATWF 2009 (são dois vídeos):
 


 

Brian Greene no Aspen Ideas Festival 2008
 

O que provocou a inflação?

quinta-feira, 5 maio 2011; \18\UTC\UTC\k 18 2 comentários

Dia sim, dia não, aparece um artigo no arXiv especulando sobre modelos específicos da inflação, e hoje mesmo apareceu um especulando sobre inflação advinda da QCD. Sabe-se pouco sobre a inflação, mas uma coisa que se sabe é o seguinte: o que causou a inflação não foi nada dentro do Modelo Padrão.

Para ocorrer inflação só é necessário um ingrediente: um campo escalar que seja a principal componente de energia do universo. Os demais requisitos são fáceis de ajustar: você sempre pode considerar uma região do espaço suficientemente pequena em comparação com as possíveis anisotropias desse campo dentro do qual a inflação ocorre, e sempre pode fazer o campo escalar decair a partir de um certo instante de tempo acoplando-o a outros campos. O que mais se tem na física de partículas são campos escalares neutros com acoplamento a outras partículas mais leves, então é fácil construir vários cenários com pións, kaons, Higgs…, você escolhe!

Mas nenhum desses pode estar certo. Isso é porque a principal função da inflação cosmológica (e a principal evidência de que ela ocorreu) é gerar a distribuição de probabilidades das anisotropias do universo. Uma vez que consideramos um campo escalar qualquer, o tamanho das anisotropias da radiação cósmica de fundo requerem que o parâmetro de Hubble na época da inflação seja de

H_* = \sqrt{\epsilon_*} \times 2.24(10)\times 10^{13} \; \text{GeV}

Ainda não é possível medir \epsilon_* com precisão, porém dentro de suposições razoáveis os dados do WMAP indicam este parâmetro deve ser da ordem de 10-2 (o valor exato depende do modelo usado para ajustar os dados). Isso sugere que durante a inflação, o parâmetro de Hubble era da ordem de 1012 GeV. Seja lá o que causou a inflação, espera-se que a física dessa escala de energia receba correções de efeitos de uma escala de energia M ainda mais alta. Então nós não podemos esperar que nenhuma teoria que recebe correções de efeitos físicos com M < 1012 GeV possa ter relação com a inflação cosmológica, como é caso de todos os campos do Modelo Padrão. Certamente você pode ajustar finamente que essas correções desapareçam, mas não há nenhuma boa motivação para isso. Dado o valor de H_* a densidade de energia durante a inflação deve ser da ordem de 1016 GeV, então um palpite mais razoável é que a inflação ocorreu devido a algum processo associado a essa escala, que pode ser algo como alguma unificação supersimétrica das forças fundamentais, ou o áxion se você olhar para o fato que M do áxion coincide com H*.

%d blogueiros gostam disto: