Início > Ars Physica > Eu criei uma nova teoria, e agora?

Eu criei uma nova teoria, e agora?

domingo, 26 dez 2010; \51\UTC\UTC\k 51 Deixe um comentário Go to comments

Estava lendo o blog de uns colegas de profissão US LHC Blog. Gosto muito desse blog e recomendo sua leitura. Em particular, encontrei esse ótimo post I’ve Invented a New Theory, What Do I Do Now?. Já tem algum tempo que eu estava imaginando escrever algo do tipo aqui no AP, mas talvez por minha incompetência nunca tenha escrito. As sugestões no blog são interessantes, mas nem sempre realistas por causa de diversos motivos técnicos. Explicar as dificuldades em detalhes seria algo fora do escopo desse blog, mas eu gostaria de falar algumas palavras para introduzir o fascinante projeto Recast do Kyle S. Cranmer, NYU. Conheci esse projeto pessoalmente quando o autor veio apresentá-lo em Stony Brook, alguns meses atrás.

O experimento mais básico de altas energias é um experimento de contagem. Esse é o típico experimento de descobrimento: calcula-se o número de eventos esperados usando a hipótese que o novo fenômeno não existe, vai lá e mede a quantidade de eventos buscando por excessos sobre a expectativa. Essa receita parece muito simples e independente da descoberta que está se tentando fazer. Você poderia até pensar que físico experimental é um ser meio simple-minded. Pode-se imaginar que tudo que ele teria que fazer é escolher sua região cinemática favorita e contar quantos eventos tem determinada topologia.

Na prática, isso é impossível de se fazer. Primeiro, você quer aumentar ao máximo a significância estatística do seu resultado escolhendo critérios de seleção não a esmo mas em função do sinal esperado. Hoje em dia, essa seleção é baseada em redes neurais ou boosted decision trees que, apesar de tornar o processo muito eficiente, também o torna menos transparente. Além disso, para determinar os pesos nos nós da rede ou da árvore é necessário simular o sinal tão bem quanto o background, apesar de que, no caso usual, há uma quantidade grande de processos de background contra apenas um sinal.

Feita a seleção, é necessário ainda determinar a aceitação desse tipo de eventos, isto é, de todos os eventos do tipo que estamos interessados, quantos somos capazes de detectar; e a eficiência, isto é, de todos os eventos que somos capazes de detectar, quantos efetivamente detectamos. Para determinar esses números, é também necessário um detalhado estudo da interação das partículas com o material do detector, em geral baseado em primeiros princípios físicos.

Na prática, para desgosto das pessoas que trabalham construindo modelos, ninguém faz realmente experimentos para procurar por qualquer coisa. Apenas se procura aquilo que alguém já te disse o que procurar e, principalmente, onde procurar. Como começar uma procura do zero é muito complicado, todos os modelos novos são fadados a serem meras curiosidades em artigos esquecidos no arXiv.

Deve estar claro para todo mundo que essa situação é mais do que insatisfatória, já que muitos modelos são semelhantes o suficiente para uma análise ser eficiente para ambos. E é isso que o sistema Recast se propõe: o sistema é um conjunto de APIs para que o usuário submeta novos modelos para serem testados usando uma análise já feita. No back-end do sistema, há todo o software de simulação e análise do detector bem como o código de análise estatística do sinal. O usuário, que desenvolveu sua nova teoria, poderia fazer um scan do seu espaço de parâmetros e verificar que região é mais favorável considerando as análises já realizadas e qual região inclusive já fora excluída. O Recast não se propõe a ser um sistema automático para novas análises, já que isso exigiria todo o re-cálculo de background, critérios de seleção, aceitação e eficiências, o que é e provavelmente sempre será feito caso a caso. A idéia é estender o poder preditivo de uma análise já feita.

Claro que o projeto apresenta desafios computacionais já que é necessário manter o software de simulação e análise de experimentos antigos funcionando e atualizados. Além disso, é necessário sempre ter disponível recursos computacionais para processar os pedidos de cálculo de novos modelos. A sugestão feita no artigo é que o front-end do sistema acesse o sistema GRID de computação já implementado para física de altas energias.

Esse é um projeto que deve receber todo suporte, pois permite que o trabalho investido em experimentos muito demorados e caros tenha muito mais frutos e proporcione aos teóricos a chance de testarem seus modelos com mais precisão do que usando projetos como o Pretty Good Simulation ou outros simuladores rápidos que nunca são tão bons quanto os usados pelas colaborações e não servem para predições cientificamente válidas. Além disso, se corretamente implementado, pode facilitar o processo de aceitação das novas análises por parte da colaboração, o que sempre é difícil para físicos que não fazem parte dos experimentos.

Categorias:Ars Physica
  1. Nenhum comentário ainda.
  1. No trackbacks yet.

Deixe uma resposta

Preencha os seus dados abaixo ou clique em um ícone para log in:

Logotipo do WordPress.com

Você está comentando utilizando sua conta WordPress.com. Sair / Alterar )

Imagem do Twitter

Você está comentando utilizando sua conta Twitter. Sair / Alterar )

Foto do Facebook

Você está comentando utilizando sua conta Facebook. Sair / Alterar )

Foto do Google+

Você está comentando utilizando sua conta Google+. Sair / Alterar )

Conectando a %s

%d blogueiros gostam disto: