Imprimir PDF Republicar

Física

Os mosqueteiros do mundo atômico

As palavras de ordem da crescente e-Science são as mesmas dos heróis do livro de Alexandre Dumas: um por todos, todos por um

Produção simulada do bóson de Higgs no detector CMS: esforço mundial para elucidar o quebra-cabeça de partículas atômicas

Os físicos que estudam a formação e a organização das partículas atômicas saíram na frente dos especialistas de outras áreas e adotaram uma forma nova de fazer ciência: trabalhar em problemas grandes e comuns por meio de computadores poderosos espalhados em muitas cidades do mundo e conectados entre si de modo que funcionem como se fossem um só, em uma escala mais ampla, integrada e autônoma que a realizada até agora para estudos de genomas e proteínas. O pioneirismo pode não ter sido proposital. “Não foi porque queremos, mas porque precisamos”, diz Sergio Ferraz Novaes, professor do Instituto de Física da Universidade Estadual Paulista (Unesp). “Não podemos demorar 50 anos para analisar os dados produzidos em apenas 1 ano de trabalho.”

Novaes coordena o braço paulista de uma rede internacional de computadores que filtram e organizam os resultados das colisões atômicas geradas em aceleradores de partículas em uma escala tão grande que nenhum computador sozinho daria conta da tarefa. Por meio do São Paulo Regional Analysis Center (Sprace), construído com R$ 710 mil da FAPESP e dotado de uma capacidade de processamento equivalente a quase cem computadores de última geração, físicos de São Paulo participam desde 2004 da análise das propriedades dos milhões de partículas que nascem ou morrem quando se chocam em altíssima velocidade nos túneis do Fermilab, nos Estados Unidos. Agora dois grupos de físicos – um de São Paulo e outro do Rio de Janeiro, sob a coordenação de Alberto Santoro – afinam as máquinas e tomam fôlego para entrar em uma aventura ainda maior: garimpar as informações que a partir do próximo ano devem chegar, em um volume ainda maior, do Large Hadron Collider (LHC), o maior acelerador de partículas do mundo, que absorve o trabalho de 10 mil físicos e engenheiros de cerca de 50 países (ver Pesquisa Fapesp nº147, de maio de 2008).

Além de gerar uma produção científica intensa, que em um ano ou outro pode chegar a dezenas de artigos publicados em revistas especializadas, sem contar as noites sem dormir à frente do computador, a experiência de trabalhar com colegas de todo o mundo em máquinas que funcionam dia e noite inspirou a implantação de uma estrutura ainda maior, da própria Unesp, com 368 computadores capazes de realizar o impressionante volume de 33,3 trilhões de cálculos por segundo. As máquinas dessa rede de R$ 4,4 milhões, financiados pelo governo federal, devem ser instaladas a partir de julho, tão logo comecem a chegar, e ocupar um andar inteiro da nova sede da Unesp, no bairro da Barra Funda, na capital paulista, que abrigará também a equipe de operações e um centro de treinamento. Aos poucos devem tomar forma as possíveis conexões com os computadores de dezenas de universidades nos Estados Unidos, na Europa, na China ou na Austrália que já adotaram estratégias semelhantes de trabalho. Assim, a rigor nada impedirá que uma equipe do campus da Unesp em Ilha Solteira pergunte aos colegas de Harvard se eles têm espaço extra no computador para ajudar a resolver um problema que sobrecarregou os computadores daqui. “Se quisermos acompanhar o que o mundo está fazendo”, diz Novaes, “não dá mais para ser bairrista nem pensar pequeno”.

Assim é a e-Science: não importa mais onde você está nem que computadores estão depurando e examinando os dados de seu valioso experimento. Criado em 1999 para descrever um projeto que começaria a tomar forma no ano seguinte na Inglaterra, o termo e-Science designa as atividades científicas que dependem de uma elevada capacidade de armazenamento e de processamento de informações como a física de partículas, embora outras áreas também possam se beneficiar. No livro Da internet ao grid A globalização do processamento, Novaes e Eduardo Gregores apostam nessa expansão: “Podemos esperar que, da mesma forma como ocorreu com a internet, aplicações do grid irão muito além do que podemos supor nesse momento”. A rede de computadores da Unesp, por sinal, deve explorar outros universos – da formação de tumores à supercondutividade em cerâmicas. Nos Estados Unidos, os grids (grades) de computadores embasam projetos ambiciosos, que não tratam apenas de problemas urgentes como a busca de novos tratamentos contra o câncer. A meta de um deles, o National Virtual Observatory, é simplesmente pôr no computador toda informação já coletada sobre os milhões de estrelas e galáxias que formam o firmamento. A e-Science poderia ir além e ajudar a resolver problemas mundiais, de acordo com o editorial de 15 de março da revista Nature, que propõe que os governos trabalhem juntos para construir os supercomputadores que possam fazer previsões do tempo mais apuradas e descubram assim como agir para evitar as prováveis catástrofes causadas pelas mudanças climáticas.

Talvez mais do que os especialistas de outras áreas, os físicos de partículas hoje dependem de computadores poderosos em rede tanto quanto os ta­xis­tas não passam mais sem o GPS, sigla de Global Positioning System. De outro modo, não haveria como analisar tanta informação que têm à mão – nem como localizar rapidamente endereços em uma cidade estranha. Nos próximos 5 anos os quatro detectores do LHC devem gerar um volume de informações equivalente a 1,4 bilhão de CD’s que, se empilhados “sem a caixinha”, diz Novaes, formariam uma torre 4,7 mil vezes mais alta que o Pão de Açúcar, o famoso cartão-postal do Rio. “O grande volume de informações é um problema em si que impõe a necessidade de novos conceitos de trabalho”, diz Novaes. Por sorte, nos últimos anos a velocidade de transmissão de dados cresceu em ritmo maior que a velocidade de processamento, levando a uma nova forma de organização de computadores, o grid, em que máquinas distantes funcionam como se fossem uma só. Além do software e do hardware, apareceu então o middleware, os recursos que distribuem as tarefas localizando as máquinas livres.

SPRACE A forma e-Science: computadores em São Paulo desvendando colisões atômicasSPRACE

Também entre as máquinas há uma hierarquia. As informações sobre as partículas a serem desfeitas ou formadas nas colisões devem sair dos detectores que cercam o túnel circular de 27 quilômetros de extensão do LHC, a 100 metros abaixo do solo, e chegar primeiramente aos computadores do Centro Europeu de Pesquisas Nucleares (Cern) em Genebra, na Suíça. Os dados do Compact Muon Solenoid (CMS), o detector do LHC de que essas equipes do Rio e de São Paulo participam, seguirão então para centrais de computadores chamadas Tiers-1, espalhadas em 8 países, e depois para outros 23 grupos de computadores ao redor do mundo – do Brasil ao Paquistão – que formam as Tiers-2. “Não estamos mal”, observou Novaes, ao comparar o desempenho do grid brasileiro com o das máquinas dos colegas da China, Itália, Inglaterra e Estados Unidos. Todo o grupo participa de simulações de transmissão de dados, com progressos visíveis: a capacidade de operação das máquinas passou de 20% em 2006 para 50% em 2007 e tenta-se hoje atingir 100% do que será exigido quando o LHC entrar em operação. As dificuldades também são maiores. Novaes conheceu os problemas novos que podem interromper a transmissão de dados ao ler rapidamente os 350 e-mails que chegaram na véspera do feriado de final de maio em mais um teste de transmissão de dados ainda simulados que partiram do LHC. “Todos se comunicam com todos”, diz ele. “A colaboração agora é essencial porque, se um falhar, todos falham.”

Os físicos construíram esse ambiente mundial de pesquisa e as cavernas monumentais do LHC para encontrar experimentalmente uma partícula atômica que até agora só existe na teoria: o bóson de Higgs (bósons são partículas que transmitem forças ou mantêm as outras partículas unidas, e Higgs é o sobrenome do físico escocês que previu essa partícula em 1964). Se de fato identificado, o bóson de Higgs poderia explicar por que as partículas elementares da matéria apresentam massas tão diferentes entre si (a massa de um nêutron, que forma o núcleo atômico, é 1.800 vezes maior que a de um elétron, que orbita ao redor do núcleo).

Tanta gente e tanto trabalho se explica porque o bóson de Higgs pode ser a peça que faltava para completar o quebra-cabeça das partículas atômicas. No início do século passado só havia uma partícula, o elétron. Logo surgiram evidências do núcleo atômico, formado por partículas bem maiores, e lá por 1950 os físicos já haviam identificado dezenas delas. “Era o caos”, conta Novaes. “Ainda não havia nenhuma organização entre as partículas.” Aos poucos os físicos desvendaram as forças que mantêm as partículas e os átomos unidos, mas ainda não era o bastante. Quando os aceleradores de partículas começaram a funcionar e exibiram dimensões ainda mais profundas da matéria, os físicos verificaram que todo o zoológico de partículas dos anos 1950 poderia ser organizado por meio de apenas três partículas, os quarks up, down e strange. Nos anos seguintes mais três quarks – charm, bottom e top – foram descobertos. Esses seis quarks, combinados em pares quark-antiquark, ou em trios, compõem todas as partículas sujeitas a uma das forças fundamentais da natureza, a interação forte, que mantém o núcleo atômico coeso. Apareceram partículas de nomes estranhos e pouco conhecidas para a maioria das pessoas, como káon, eta, chi, lambda, sigma ou J-psi, mas não eram mais centenas, apenas rearrumações dos mesmos elementos básicos. Mais do que partículas isoladas, agora existem categorias: prótons e nêutrons, que formam o núcleo atômico, são chamados de hádrons (hadrós em grego significa maciço, forte). O próprio núcleo perdeu o hipotético bucolismo e se revelou um ambiente tempestuoso, com nuvens de partículas que surgem e desaparecem a todo momento cercando prótons e nêutrons.

O LHC pode eventualmente lançar luz também sobre dimensões extras, além das quatro conhecidas (três espaciais, comprimento, largura e altura, e uma temporal); ninguém provou ainda que elas realmente não existam e uma parte dos físicos precisa delas para manter suas teorias em pé. Mesmo assim, Novaes acha pouco. “Espero que do LHC surjam coisas diferentes, que nos levem a outros desafios”, diz ele. “Pode ser que o novo seja totalmente novo, sem nenhuma vinculação com as propostas teóricas atuais.” Como os resultados são imprevisíveis, podem surgir até mesmo outras coisas importantes além de novas explicações sobre o Universo. Em 1990 o físico suíço Tim-Bernes Lee criou uma linguagem de computador para facilitar a vida de quem trabalhava no Cern, sem imaginar que sua invenção, o hipertexto, seria essencial para a expansão da internet.

Faz tempo que os físicos perseguem o bóson de Higgs. O próprio Novaes, em 1979, ainda no mestrado, estudou um dos mecanismos de produção dessa partícula por meio de colisões entre prótons. “O que era um problema naquela época continua na agenda, mostrando a dificuldade da física de partículas em avançar nas últimas 3 décadas.” Espera-se que e-Science ajude a resolver. “A e-Science é aberta e veloz e representa outro modo de fazer ciência”, diz Novaes. “Temos que pensar de outra forma e ser ousados.”

Republicar