Um dos grandiosos, complexos e custosos experimentos científicos da atualidade, junto com a exploração espacial e os projetos genoma, é o estudo das menores partículas que constituem toda e qualquer matéria. Por mais paradoxal que pareça, os quarks e os léptons, por exemplo, formadores dos prótons, dos nêutrons e dos átomos e tudo o que mais existe no Universo, exigem instrumentos imensos chamados de aceleradores, além de avançados sistemas de computação com alta capacidade de transmissão e de armazenamento de dados. Só mesmo uma cooperação internacional, presente, por exemplo, na construção da estação espacial ou na transcrição dos genes, pode também concretizar a obtenção de novos conhecimentos da interação e da formação dessas partículas. É um conjunto de operações que também conta com dois grupos de pesquisadores brasileiros, da Universidade Estadual Paulista (Unesp) e da Universidade Estadual do Rio de Janeiro (Uerj).
Eles estão finalizando um complexo computacional que vai reunir o equivalente a 380 computadores trabalhando em conjunto e a mais rápida conexão via internet do país. Tudo isso para estar interligados com os dois maiores e mais importantes aceleradores de partículas subatômicas do mundo, o Fermilab, sigla de Fermi National Accelerator Laboratory, situado próximo à cidade de Chicago, nos Estados Unidos, e o Cern, Centro Europeu de Pesquisas Nucleares, com sede em Genebra, na Suíça. Eles devem gerar 100 milhões de gigabytes (GB) de dados nos próximos dez anos. Esse número equivale à capacidade total de 2,5 milhões de discos rígidos com memória de 40 GB, os mais usados nos computadores atuais.
Última geração
Na capital paulista já está montado o Centro Regional de Análises de São Paulo, Sprace na sigla em inglês. Ele possui 114 unidades centrais de processamento (CPUs), ou processadores, e está finalizando, com financiamento da FAPESP, a instalação de mais 64, num total que deverá ter o equivalente a 178 processadores de última geração funcionando em paralelo. Esses equipamentos estão instalados no Instituto de Física da Universidade de São Paulo, na capital paulista, num acordo com a Unesp, que possui o professor Sérgio Ferraz Novaes, do Instituto de Física Teórica (IFT), como coordenador do projeto. Novaes, que trabalhou no Fermilab por dois anos, entre 2000 e 2002, lidera uma equipe de quatro pesquisadores: Eduardo de Moraes Gregores, Sérgio Morais Lietti e Pedro Galli Mercadante do IFT, vinculados ao projeto Jovem Pesquisador financiado pela FAPESP, e Rogério Luiz Iope, estudante de pós-graduação da Escola Politécnica da USP. No Sprace, a equipe possui, para armazenar os dados, discos de memória com capacidade de 12 terabytes (TB), o equivalente a 12 mil GB e a mais de 18 milhões de CDs.
No Rio de Janeiro, sob a coordenação do professor Alberto Santoro, da UERJ, junto com 20 pesquisadores do Centro Brasileiro de Pesquisas Físicas (CBPF), da Universidade Federal do Rio de Janeiro (UFRJ), em colaboração também com a Universidade Federal da Bahia (UFBA) e a Universidade Federal do Rio Grande do Sul (UFRGS) e o Centro Federal de Educação Tecnológica Celso Suckow da Fonseca (Cefet/RJ), foram instaladas, num projeto da Financiadora de Estudos e Projetos (Finep) do Ministério da Ciência e Tecnologia (MCT), 200 CPUs com 7 TB de disco. Santoro, que é um veterano nesse tipo de pesquisa, trabalha com os dois grandes laboratórios de aceleradores há mais de 20 anos. Ele estava na equipe que descobriu, em 1995, no Fermilab, a partícula quark top, o último dos seis quarks previstos pela teoria que descreve as partículas elementares e suas interações.
O Sprace e o grupo do Rio de Janeiro formam o High Energy Physics (HEP) Grid Brasil, com atuação tanto nos experimentos do Cern como do Fermilab. As duas instituições adotaram recentemente uma das grandes inovações da área de informática surgidas nos anos 1990, que é o sistema Grid, um formato computacional que começa a se tornar uma ferramenta cada vez mais presente no processamento de dados científicos. No conceito grid, vários computadores estão em conexão num mesmo local, formando agrupamentos, também chamados de clusters, que podem estar ligados a outros grupos de computadores localizados tanto em um prédio ao lado como do outro lado do planeta.
Nos Estados Unidos, a Fundação Nacional de Ciência (NSF na sigla em inglês) investirá US$ 150 milhões nos próximos anos para completar a ligação em forma de grid de todas as comunidades científicas e de engenharia do país. Chamado de TeraGrid, o sistema oferece uma série de recursos de hardware e de software que começa a ser usado na decodificação de genomas e de proteínas, no diagnóstico de doenças e na previsão do tempo e de terremotos. Na Europa, o governo alemão anunciou em setembro um investimento de 17 milhões de euros para a formação de infra-estrutura nacional baseada na estrutura grid. A DGrid Network vai levar a todo o país a possibilidade de resolução de complexos experimentos científicos a distância. Estão incluídos aí física de altas energias, que estuda as partículas produzidas nos aceleradores, a observação da Terra, astronomia, pesquisas em medicina e aplicações em engenharia. O sistema grid deve assim superar o conceito de cupercomputador, equipamento caro e com pouca flexibilidade para aumentar ou diminuir a capacidade de processamento. No grid é só acoplar ou retirar um ou mais computadores.
“No sistema grid tudo funciona de forma automática e transparente, com as tarefas sendo direcionadas para os diferentes clusters que estejam com capacidade de processamento livre em um determinado momento”, explica Novaes. Todos trabalham com softwares abertos de forma que cada grupo possa também contribuir para o aperfeiçoamento do sistema. O grid da física de altas energias irá utilizar no Cern, quando um novo acelerador for inaugurado em 2007, uma arquitetura hierárquica que irá funcionar a partir de uma central, chamada de Tier 0, localizada na sede do laboratório, de onde os dados serão distribuídos por redes de alta velocidade para vários centros nacionais de nível 1 (Tier 1). A partir de cada Tier 1 os dados são distribuídos para centros nível 2 (Tier 2) a eles associados e destes para os de nível 3. O HEPGrid Brasil está na categoria Tier 2. “A evolução do nosso trabalho, junto com mais investimento, permitirá, dentro de alguns anos, transformar nosso grupo em uma Tier 1”, acredita Santoro.
Velocidade essencial
A conexão com os laboratórios de aceleradores de partículas exige uma excelente comunicação entre os vários grupos espalhados pelo mundo. Para isso a transmissão é toda feita por meio de fibras ópticas. Tanto os laboratórios da USP como os da Uerj recebem e enviam os dados via fibra óptica até os Estados Unidos, por meio de cabos submarinos. Estão previstas para os próximos anos, com a inauguração do novo acelerador do Cern, o Grande Colisor de Hádron, LHC na sigla em inglês, transmissões de pelo menos 2,5 gigabits por segundo (Gbps). “Comparando-se com uma transmissão oferecida pelo sistema comercial de banda larga, com 256 kilobits por segundo (Kbps), poderíamos dizer que os pesquisadores estarão transmitindo numa velocidade 10 mil vezes maior ou que a mesma quantidade de dados levaria um segundo para ser transmitida para o Cern enquanto pela banda larga comum levaria três horas”, calcula Luis Fernandez Lopez, coordenador do Programa Tecnologia da Informação no Desenvolvimento da Internet Avançada (Tidia) da FAPESP.
Hoje toda a comunicação que sai do laboratório do Sprace segue via laser por meio de fibras ópticas encapsuladas em cabos submarinos até Miami. Atualmente o Sprace já opera em 622 megabits por segundo (Mbps), embora já esteja equipado para se conectar a 2,5 Gbps. “Em breve, com a entrada em operação do LHC, essa velocidade de transmissão será essencial para a continuidade das pesquisas nessa área”, diz Novaes.
As exigências futuras fizeram a FAPESP, que mantém a Rede Acadêmica de São Paulo (Ansp) e o Tidia, firmar um acordo com a NSF para financiamento do projeto Western Hemisphere Research and Educational Network (WHREN) – uma rede para ligar pesquisadores de todo o continente americano -, que deve ser inaugurado em dezembro deste ano com um cabo de fibra óptica para fazer a ligação São Paulo-Miami-Nova York com velocidades de 2,5 Gbps. Essa conexão vai suprir tanto a necessidade dos pesquisadores da área de física de altas energias como a de outros laboratórios. Na Whren, a FAPESP entra com US$ 1 milhão e a NSF com mais US$ 1 milhão. O link com Nova York vai proporcionar velocidades de 10 Gbps dentro dos Estados Unidos e uma conexão com a Europa em velocidade de 40 Gbps. No Rio de Janeiro, o grupo de Santoro já dispõe de 1 Gbps de velocidade de transmissão com São Paulo, em rede experimental mantida pela Rede Nacional de Ensino e Pesquisa (RNP) do MCT e também com financiamento da Fundação Carlos Chagas Filho de Amparo à Pesquisa do Estado do Rio de Janeiro (Faperj).
A RNP estuda ainda uma conexão externa em 10 Gbps num acordo com a Rede Clara, sigla de Cooperação Latino-Americana de Redes Avançadas. Até o final do ano, uma interligação, na mesma velocidade, entre São Paulo e Rio de Janeiro, vai beneficiar todas as instituições de pesquisa.
Toda a estrutura que permite a busca do conhecimento e do entendimento das partes mais íntimas da matéria começa a funcionar quando duas partículas, como dois prótons, por exemplo, são levadas a colidir dentro dos aceleradores. É como se dois objetos quaisquer fossem acelerados a altas velocidades dentro de um anel metálico e se encontrassem e se aniquilassem no meio de um detector recheado de sensores que funcionam de forma semelhante a câmeras fotográficas. A destruição provoca como resultado a criação de um monte de estilhaços, ou, no caso, de partículas. O que os pesquisadores fazem é, comparativamente, analisar o tipo, a curvatura da trajetória dessas partículas produzidas e a energia que elas depositam nos detectores.
No mundo das partículas existem comportamentos “estranhos” para o nosso macro mundo, como o fato de que algumas possam conter partículas ainda menores que se transformam em outro tipo de partícula até então impensável. Um dos problemas para os pesquisadores é que existem partículas raras e por isso os experimentos necessitam de bilhões de colisões para estudá-las. “Dentro dos aceleradores circulares os prótons usados nos experimentos são impulsionados por radiofrequência e por eletroímãs supercondutores, instalados ao longo do círculo”, explica Novaes. “As partículas viajam nas cristas das ondas eletromagnéticas como surfistas”, diz Santoro.
O trabalho dos pesquisadores é identificar tanto as raras como as mais comuns partículas nas informações captadas pelos sensores depois das colisões. “Recebemos do Fermilab e do Cern um conjunto de dados para identificar as partículas, fazer as análises das interações e apresentar as conclusões”, explica Novaes. Hoje ainda existem partículas previstas na teoria e ainda não detectadas, como o bóson de Higgs, partícula que pode ser responsável pela massa de todas as demais. Outra possibilidade é a verificação experimental de modelos alternativos tais como os modelos supersimétricos, com novas partículas que levam o nome de gluínos, squarks e sléptons, ou aqueles que preveem a existência de dimensões extras.
Todo esse esforço resulta em pesquisa sobre a formação e interação das partículas, mas também colabora no entendimento da formação do Universo, das estrelas e numa série de conhecimentos que são transportados para tecnologias usadas no dia-a-dia. Uma delas foi a criação da World Wide Web, a conhecida www. Justamente para tornar mais amigável a interação entre os diversos pesquisadores que trabalham com partículas em vários países foi que o pesquisador do Cern, Tim Berners-Lee, criou o sistema web, em que bastava clicar num link, por exemplo, para ter acesso às informações. Os cientistas já trocavam dados por computador, mas isso era muito complexo, como lembra Santoro, que foi um dos primeiros brasileiros a usar o sistema www.
Imagens em pósitron
Na área médica, o estudo da física de altas energias levou ao aprimoramento do tratamento de tumores por meio de feixes de partículas e à tomografia por emissão de pósitrons (PET), cujo princípio fundamental é a emissão pósitron (ou anti-elétron, que são partículas com a mesma massa do elétron, porém com carga positiva) e oferecer imagens de alta definição do interior do corpo humano. O avanço tecnológico de circuitos integrados para aquisição e processamento de dados e o uso da fibra óptica, que mais tarde se tornou generalizado nas telecomunicações, também tiveram grande contribuição no estudo das partículas.
Obter ganhos no conhecimento científico e, de quebra, incentivar inovações tecnológicas fazem dos aceleradores um experimento caro. Somente no funcionamento do Fermilab é gasto US$ 1 milhão por dia, que é suprido pelo Departamento de Energia norte-americano e administrado por uma associação de universidades. Enquanto o LHC europeu não começa a funcionar, o Tevatron do Fermilab é o maior acelerador de partículas em operação. O anel de colisão possui 6,3 quilômetros (km) de circunferência e 1 km de raio. O grupo brasileiro trabalha com dados de um dos dois detectores, o Dzero. Com uma estrutura de cinco andares de altura e 20 metros de comprimento, ele pesa mais de 5 toneladas e tem mais de 800 mil canais de leitura eletrônicos. A colaboração científica reúne 18 países, além dos Estados Unidos e Brasil, como Canadá, Inglaterra, Argentina, Coréia do Sul, China, França, Rússia, Holanda e Alemanha. São 83 instituições, sendo 36 dos Estados Unidos, congregando 664 físicos, cerca da metade deles norte-americanos.
Era do exabyte
Com a entrada em funcionamento do LHC, em 2007, o número de pesquisadores envolvidos nessa área em todo o mundo deverá crescer. Em apenas um dos quatro detectores do LHC, o Compact Muon Solenoid (CMS), onde será produzido um montante de dados por segundo equivalente ao de 10 mil enciclopédias britânicas, já estão trabalhando mais de 2 mil pessoas, oriundas de 165 instituições dos 36 países participantes. Todos os pesquisadores do Cern vão operar com o equivalente a 50 mil computadores interligados no processamento das informações que ele vai gerar. No período de cinco a oito anos, o laboratório vai inaugurar a era do exabyte (EB), com a produção de 1 EB em dados digitais, ou 1 quintilhão de bytes. Se fosse possível armazenar essa cifra fabulosa em CDs, que possuem capacidade para 700 megabytes (MB), teríamos cerca de 1,4 bilhão de disquinhos. Outra comparação é que esse 1 EB equivaleria a 20% de todo tipo de informação transformada para a via digital gerada no ano de 2002 no mundo, entre internet, revistas, jornais, livros e filmes.
O CMS será o detector que os pesquisadores brasileiros ligados ao HEPGrid Brasil irão trabalhar. Mas outros três detectores, o Atlas, o Alice e o LHCb, também vão ter a colaboração de pesquisadores brasileiros do CBPF, da UFRJ e da USP. Como instrumento de trabalho, nos seus 27 km de circunferência, o LHC do Cern vai proporcionar colisões com sete vezes mais energia que o Tevatron do Fermilab. O norte-americano funciona com 2 trilhões de electronvolts (TeV) e o LHC vai operar com 14 TeV. Como ensina um texto no site do Cern: “1 TeV é comparável à energia que um mosquito usa para voar. O que faz o LHC tão extraordinário é que essa energia pode ser comprimida num espaço milhões de vezes menor que um mosquito.”
Os projetos
1. Física experimental de anéis de colisão: SP-Race e HEP Grid-Brasil (nº 03/04519-9); Modalidade Projeto Temático; Coordenador Sérgio Ferraz Novaes – Unesp; Investimento R$ 709.342,00 (FAPESP)
2. Física experimental de altas energias: os experimentos Dzero do Fermilab e CMS do Cern (nº 04/06708-6); Modalidade Programa de Apoio a Jovens Pesquisadores em Centros Emergentes; Coordenador
Eduardo de Moraes Gregores – Unesp; Investimento R$ 73.963,15 (FAPESP)