Arquivo

Archive for dezembro \29\UTC 2009

Bolsas para pós-graduação em física no Brasil e nos EUA

terça-feira, 29 dez 2009; \53\UTC\UTC\k 53 Deixe um comentário

Muitos já devem ter percebido que 3/4 dos editores desse blog fazem ou fizeram seu doutoramento nos EUA. Como tal, acho que temos algo a falar sobre isso. Eu queria discutir algo que é de extrema importância para qualquer pessoa: dinheiro. Meu objetivo não é chorar mágoas, até porque não tenho nenhuma nesse aspecto, mas sim deixar clara uma realidade.

Existe diversos desafios em viver nos EUA enquanto se faz uma pós-graduação e certamente dinheiro é uma delas. A situação do aluno estrangeiro nos EUA é muito diferente, por exemplo, do aluno estrangeiro no Brasil. A primeira grande diferença é que não há bolsas (fellowships) para alunos estrangeiros nos EUA. Por exemplo, agora em novembro o DOE abriu oportunidade para sua prestigiosa bolsa. Contudo, se você ler o edital verá que apenas cidadãos americanos podem se candidatar. Para ter uma base de comparação, você pode ir no site equivalente da FAPESP que tem a bolsa de maior prestígio no Brasil e verá que no Brasil a única exigência para se ter uma bolsa de doutorado é ser um potencial bom aluno de doutorado. Ou seja, se você já não tiver uma bolsa quando chega nos EUA, por exemplo, da CAPES-Fulbright ou, mesmo bolsa da Fulbright sem ligação à CAPES, você não vai conseguir outra.

Para quem não tem bolsa, a forma de suporte é através de TA (assistência de professores), quando você é pago diretamente pela universidade para dar aula, ou RA (assistência de pesquisa), quando você é pago por um grupo de pesquisa para fazer pesquisa junto com eles. Acho que já falei sobre essas atividades aqui no blog e não quero me repetir, o objetivo desse texto é só comparar a situação financeira do aluno no Brasil e nos EUA. Vamos então falar sobre valores, onde também há grande disparidade. Um fellowship desses disponíveis apenas para americanos é de aproximadamente 30-35k dólares por ano. Uma atividade de RA paga em torno de 22-25k dólares por ano. A bolsa da CAPES é de 1.3k por mês, o que dá 15.6k dólares por ano. Para se ter uma comparação de como isso é pouco, no ano de 2008, o governo americano traçou a linha de pobreza como uma renda anual de 11.2k dólares.

Se esse dinheiro já parece pouco, aí que vem a próxima supresa que todo se lembram no mês de abril: dinheiro recebido para fazer pós-graduação nos EUA também é sujeito a imposto de renda, diferentemente do Brasil. E aí o aluno estrangeiro tem outra disparidade: ele, além de ganhar menos ainda paga mais imposto (eu colocaria links aqui, mas a documentação do IRS é tão confusa que nem vale a pena).

Last but not least, há também o programa de Summer Federal Work-Study, que garante aos americanos o dinheiro durante as férias de verão enquanto os alunos internacionais, se voltarem para casa, ficam sem receber nada durante todo esse período. Alunos internacionais terminam com reduzindo suas férias a um mínimo possível e ainda tem que convencer algum grupo de pesquisa a pagar um salário durante o verão, o que é particularmente complicado nos primeiros anos da pós-graduação (mas praticamente garantido após você ter um orientador). Lembre-se que aluguel, contas e afins continuam vencendo durante o verão, e esse dinheiro tem que vir de algum lugar.

É difícil afirmar que há xenofobia (preconceito) envolvido. Poderíamos dizer que é reserva de mercado, mas eu não consigo deixar de achar socialmente injusto, principalmente se levarmos em conta que 36% dos alunos de pós-graduação em ciências e engenharia nos EUA não são americanos (chegando a 40% em física e 42% em matemática. Essa página da NSF é a única estatística em nível nacional dos alunos de pós-graduação nos EUA, mas é muito bem feita, vale a pena a visita). Mas talvez eu só esteja sendo parcial…

A realidade é que esse cenário vem piorando muito. Desde 9/11, passando por crises econômicas mundiais e novas tentativas de sequestro de aviões a cada ano o financiamento de estudantes é pior e os primeiros a sofrerem são os estudantes internacionais. Pelo que contam colegas nas UC (Berkeley, Santa Barbara, Los Angeles…), a situação financeira daquele estado[1] é tão séria que há alguns anos que o número de alunos internacionais financiados foi reduzido a um mínimo nunca visto antes.

Mas vale a pena? Claro que vale, só podia ser mais simples…

[1] Todos os links desse post são para páginas departamentais ou grandes jornais da mídia. Esse link é para o blog Cosmic Variance e, mais que isso, a entrada em questão é tão passional quanto as minhas nesse blog. Porém, veja as sugestões propostas: além da óbvia maior taxação sobre gasolina e petróleo há essa discussão crescente sobre a legalização da maconha. Eu não quero discutir isso nesse blog, não é o lugar, mas não posso deixar de comentar a ironia do Schwarznegger poder ser o governador responsável pela legalização da maconha num estado americano. E eu que achava que ver o Flamengo campeão brasileiro já era surpresa suficiente por uma década…

Supercordas em AdS

terça-feira, 29 dez 2009; \53\UTC\UTC\k 53 Deixe um comentário

Introdução

Faz muito tempo que queria falar sobre um dos tópicos mais quentes da física teórica contemporânea: a dualidade AdS/CFT ou dualidade de Maldacena, que foi quem a descobriu em 1997. Essa dualidade diz que uma certa teoria de supercordas é completamente equivalente a uma teoria de gauge. A teoria de gauge em questão é Super Yang-Mills com 32 geradores fermiônicos de simetria. 16 dessas transformações formam 4 espinores de Weyl e seus conjugados complexos, o que é quatro vezes a quantidade mínima de geradores de geradores de supersimetria e por isso essa teoria é conhecida como {\mathcal N}=4 SYM.

Teoria de cordas é uma teoria quântica de campos para mapas entre superfície de Riemann (bidimensionais) e o espaço-tempo. No caso de teoria de supercordas esse mapa tem como contra-domínio um super-espaço-tempo, onde ações invariantes por translações são teorias com invariância supersimétrica. Existe ainda o que alguns chamam de corda girante, que é uma teoria para mapas entre super-superfícies de Riemann e o espaço-tempo. É um tópico em qualquer introdução à teoria de supercordas mostrar que, após um procedimento conhecido como projeção GSO, essa teoria também tem supersimetria no espaço-tempo (veja, por exemplo, os excelentes livros do Polchinski).

O coração da teoria de supercordas é um procedimento para obter as equações de movimento da teoria no espaço-tempo em função das propriedades quânticas da teoria bidimensional muito mais simples. A teoria de supercordas prevê a existência de uma série infinitas de campos, mas em particular prevê a existência de um campo de spin 2 sem massa. Falar em um spin é um pouco complicado em teoria de supercordas, já que uma dessas equações de movimento só tem solução num espaço de 10 dimensões. E em 10 dimensões você tem que especificar 4 spins para caracterizar um campo completamente (além da massa, claro!). Vamos dizer então que é previsto um campo tensorial de rank 2 simétrico e sem traço, que é naturalmente associado à gravitação já que ele se acopla ao tensor momento-energia.

A dualidade AdS/CFT diz que aquela teoria de campos 4 dimensional que falei acima, é equivalente a essa teoria de campos 10 dimensional que a teoria de supercordas descreve com uma teoria de campos 2 dimensional. Ou seja, nessa dualidade há 3 teorias quânticas de campos envolvidas e isso é uma confusão sem tamanho. Nessa dualidade, a teoria de supercordas é especificamente para mapas entre superfícies de Riemann e super-espaços cuja parte bosônica AdS_5 \times S^5. Nesse post eu vou tentar explicar então o que é essa teoria de quântica de campos 2 dimensional, que acredite ou não, é o que menos se vê nos 13412327365 reviews que existem sobre esse assunto na internet.

Relacionado a esse tema, você também pode ler essas notas que eu redigi sobre teoria de supercordas em background Ramond-Ramond.

Leia mais…

Categorias:Ars Physica

Matéria escura, teorias de cordas topológicas e interações eletrofracas.

sexta-feira, 18 dez 2009; \51\UTC\UTC\k 51 6 comentários

E eis, em termos quase leigos, a notícia por qual todo mundo estava ávido essa semana: Latest results of CDMS-II, December 17, 2009. Eu não entendo muito bem que informação tão valiosa pode-se tirar com a quantidade de colisão elásticas com núcleos, mas tudo bem: há dois eventos que clama-se ser matéria escura.

Eu sei que muito já foi anunciado por aqui, mas anunciando mais uma vez. O LHC foi ligado e está indo muito bem obrigado. A colaboração do ALICE, apressada, até publicou um artigo no arXiv. Claro que nenhuma física nova, mas para dizer que está tudo correndo bem. Ainda há muito trabalho a ser feito antes de qualquer resultado, mas as perspectivas são empolgantes. Esses próximos dez anos serão extremamente excitantes para física de altas energias, sem dúvida. Contudo, ainda serão necessário mais uns quatro ou cinco anos de trabalho até se ter, por exemplo, uma descoberta do Higgs.

Nas duas notícias acima temos essa frase “alguém descobriu alguma coisa”. O que isso significa? Físicos de altas energias (esses que ficam construindo modelos e procurando partículas, matéria escura e afins) tem uma definição razoavelmente precisa do que isso significa. Bem, mesmo com o risco de falar besteiras, vou tentar explicar:

Eu vou ser um pouco abusado e dizer que tudo começa com uma lagrangiana para uma teoria de campos. Isso pode não ser completamente verdade hoje em dia, mas vamos em frente. Desse modelo dado por uma lagrangiana, você constrói funções de correlação. Nem sempre sabemos calcular essas funções, mas vamos fingir que sabemos. A partir delas podemos construir matrizes de espalhamento e a seções de choque para um certo processo. A seção de choque é a probabilidade de um certo evento acontecer. Por exemplo, vamos dizer que que o nosso processo seja a interação de dois prótons gerando dois fótons e mais qualquer outra coisa (as vezes chamado processo inclusivo, por conter esse qualquer outra coisa). Ok, mas como vamos ver esses dois fótons? Aí que entram os detectores de partículas, como os experimentos do LHC ou o CDMSii falados nesse post. O problema é que esses detectores são suficiente complexos para não ser possível construir analiticamente uma função da seção de choque que resullte no sinal no detector. O que se faz então é criar modelos numéricos de como acontece essa interação dos eventos com o detector, que no fim é o que se mede.

Por exemplo, essa interação entre prótons que gera dois fótons é ligeramente diferente se o Higgs existir ou não. Vamos chamar tudo que produz esse evento, mas que não provém do decaimento de um Higgs de background b, e vamos chamar a constribuição do Higgs de s, o sinal. A idéia de fazer uma boa medida é escolher quantidades para se medir em que o sinal seja puro e eficiente, ou seja, voce quer pegar o máximo de eventos produzidos por Higgs mas ao mesmo tempo pegando o mínimo de background. Existem diversas formas de se maximizar a capacidade de um experimento fazendo boas decisões do que se deve olhar, e a física de altas energias tem se beneficiado bastante de todo o conhecimento de Machine Learning que foi desenvolvido num contexto completamente diferente.

Bem, vamos voltar ao assunto. Então, a hipótese nula, ie, a hipótese de que o Higgs não existe é dada por s=0. A pergunta é: qual é a probabilidade de observar dados de compatibilidade igual ou menor com a hipótese nula do que com os dados que foram observados. Para dar um exemplo mais concreto, se estamos considerando contagens num detector, como um calorímetro por exemplo, a distribuicao de b+s vai ser uma Poisson. Vamos também supor que foram vistos 100 eventos que geraram dois fótons e que a nossa seleção de eventos é boa e esperamos um background de 10 eventos. A probabilidade que eu falei acima será:

Poisson (n\geq 100,\lambda =10)

Físicos dizem que isso corresponde a uma descoberta, por exemplo, do Higgs, se essa probabilidade for menor do que a área de uma gaussiana fora do intervalor de 5\sigma. Essa área é de aproximadamente 5.7\cdot 10^{-7}. Nesse caso em especifico onde contagem é sempre algo positivo, isso é 2.8\cdot 10^{-7}. Voce vê que isso é uma estimativa bem conservadora (NB: Eu não disse que a distribuição de probabilidade é gaussiana! Para eventos raros, onde a contagem é pequena, ela não vai ser! Só se traduz em números de desvios padrões que dariam a mesma probabilidade cumulativa se a distribuição fosse gaussiana)

Vamos, para ficar ainda mais claro, tomar como exemplo um lançamento de uma moeda que pode dar cara ou coroa. E você perguntaria a um fisico de altas energias se essa moeda é viciada ou não. Entao digamos que você não é uma pessoa muito paciente e jogou a moeda 20 vezes para cima e anotou os resultados. Abaixo eu vou fazer uma tabela da probabilidade descrita no paragrafo anterior, chamado valor p, com a hipotese nula agora correspondendo à metade das medições como cara e metade coroa, para um certo número de resultados idênticos obtidos.

0 1.91\cdot 10^{-6}
1 4.01\cdot 10^{-5}
2 4.02\cdot 10^{-3}
3 0.003
4 0.019
5 0.041
6 0.115
7 0.263
8 0.503
9 0.823

O físico que você contratou, mesmo que o resultado absurdo de 20 caras e nenhuma coroa saísse, ele não se daria por satisfeito em dizer que descobriu que a moeda está viciada. Neste caso ele precisaria jogar a moeda no minimo 24 vezes e ainda assim ele só estaria satisfeito se todos os resultados fossem iguais.

Essa é a idéia do porquê construiram o LHC. O problema nao é exatamente ter energia para se produzir o Higgs, isso o Tevatron no Fermilab também tem. O valor mais provável para massa do Higgs é em torno de 100\, GeV e em nível partônico o que acontece no Tevatron são colisão de glúons que em média tem energia maior que isso. A questão é que a quantidade de eventos produzidos nunca seria suficiente para ter esse nível de certeza. Então o LHC é uma máquina construída para gerar muitos desses eventos (esse parâmetro chama-se luminosidade), de forma que possamos escolher canais mais limpos para se observar e daí termos certeza da descoberta. O Atlas, um dos experimentos do LHC, tem como seu canal de procura principal o decaimento do Higgs para dois fótons, que eu usei como exemplo aqui. Esse decaimento é extremamente raro, mas quando é produzido é fácil de se identificado com alta eficiência e pureza.

Mudando um pouco de assuntos, falando sobre teoria de supercordas, quase todos os exemplos de teoria de cordas topológicas sao de uma certa forma triviais, da mesma forma que a teoria de campos da folha mundo de uma supercorda é trivial. Agora, se voce olhar para a supercorda num background de AdS_5 \times S^5 é facil ver que ela é um sistema interagente, e nesse sentido não trivial. Será que aquela ação topológia que Berkovits e Vafa escreveram para supercorda em AdS_5 \times S^5 no limite do raio de AdS tendendo à zero não seria um novo tipo de corda topológia não trivial? Pela conjectura de AdS/CFT essa supercorda topológica deveria ser {\mathcal N}=4 SYM livre. Teorias não-abelianas livres não são tão triviais quanto as teorias abelianas, mas eu não entendo muito bem dessas não trivialidades. Contudo, eu acho algo interessante a se tentar entender e é um dos meus projetos atuais. O interessante seria se conseguíssemos, usando as técnicas de teoria de supercordas topológicas, entender a relação entre esses dois setores.

Categorias:Ars Physica

13.7: Cosmos e Cultura

sexta-feira, 18 dez 2009; \51\UTC\UTC\k 51 Deixe um comentário

O nosso querido Marcelo Gleiser está iniciando um blog, em inglês, junto com outros colegas de ciência e cultura: 13.7. Além de Marcelo, o blog conta com a jornalista e autora K. C. Cole que foi jornalista científica durante muitos anos do LA Times, o astrofísico Adam Frank da Universidade de Rochester, a bióloga Ursula Goodenough da Universidade de Washington em St Louis e Stuart Kauffman, biólogo do Instituto Santa Fé. Vale a pena ler esse blog pelas matérias bem escritas e de cultura científica geral.

Realejo do dia…

quinta-feira, 10 dez 2009; \50\UTC\UTC\k 50 Deixe um comentário

The Ultimate Gaming Computer

The Ultimate Gaming Computer

A semana nos arXivs…

quinta-feira, 10 dez 2009; \50\UTC\UTC\k 50 Deixe um comentário


Transcendental Meditation

Transcendental Meditation

Atualizações do Ultra Deep Field, Planck e LHC

quarta-feira, 9 dez 2009; \50\UTC\UTC\k 50 Deixe um comentário

Planck

Já faz algum tempo que eu gostaria de passar a notícia (atrasada) que o satélite Planck vai bem, obrigado. No presente momento, o cronograma atualizado da missão espera que em 2012 os resultados das medidas precisas de anisotropia da radiação cósmica de fundo se tornem públicas.

Ultra Deep Field

Logo depois que o Hubble sofreu sua atualização este ano, a câmera do Hubble Ultra Deep Field (HUDF) permitiu detectar as primeiras galáxias com redshift z ~ 8 (o recorde era z ~ 7). E ontem a imagem do HUDF foi atualizada.

Hubble Ultra Deep Field 2009

LHC

O LHC realizou a primeira colisão de prótons a energia de 2.36 TeV.

%d blogueiros gostam disto: