Imprimir Republicar

Física

Los mosqueteros del mundo atómico

El lema de la pujante e-Science es el mismo que el de los héroes del libro de Alejandro Dumas: uno para todos, y todos para uno

CERNLos físicos que estudian la conformación y organización de las partículas atómicas salieron a la delantera de los especialistas de otras áreas y adoptaron una nueva forma de hacer ciencia: trabajar en problemas grandes y comunes con la ayuda de poderosas computadoras conectadas en red y esparcidas en muchas ciudades del mundo, de modo tal que funcionen como si fuesen una sola, en una escala más amplia, integrada y autónoma que la realizada hasta ahora para los estudios de genomas y proteínas. Esta forma pionera puede no haber sido premeditada. “No es porque queremos, sino porque lo necesitamos”, dice Sergio Ferraz Novaes, docente del Instituto de Física de la Universidad Estadual Paulista (Unesp). “No podemos tardar cincuenta años para analizar los datos producidos en sólo un año de trabajo”.

Novaes coordina el brazo paulista de una red internacional de computadoras que filtran y organizan los resultados de las colisiones atómicas generadas en aceleradores de partículas en una escala tan grande que ninguna computadora por sí misma podría realizar la tarea. Por medio del São Paulo Regional Analysis Center (Sprace), construido con el aporte de setecientos diez mil reales de la FAPESP y dotado con una capacidad de procesamiento equivalente a casi cien computadoras de última generación, físicos de São Paulo participan desde el año 2004 del análisis de las propiedades de los millones de partículas que nacen o mueren cuando colisionan a altísima velocidad en los túneles del Fermilab, en Estados Unidos. Actualmente, dos grupos de físicos –uno de São Paulo y otro de Río de Janeiro, bajo la coordinación de Alberto Santoro– ajustan las máquinas y aúnan fuerzas para encarar una aventura aún mayor, procesar las informaciones que llegarán a partir del próximo año, en un volumen aún mayor, desde el Large Hadron Collider (LHC), el mayor acelerador de partículas del mundo, que requiere el trabajo de 10 mil físicos e ingenieros de alrededor de 50 países (lea Pesquisa FAPESP, edición nº 147, de mayo de 2008).

Además de generar una intensa producción científica, que de un año a otro puede alcanzar las decenas de artículos publicados en las revistas especializadas, sin contar las noches sin dormir frente a la computadora, la experiencia de trabajar con colegas de todo el mundo en máquinas que funcionan día y noche inspiró la implementación de una estructura aún mayor, por parte de la propia Unesp, con 368 computadoras capaces de realizar el impresionante volumen de 33,3 billones de cálculos por segundo. Las máquinas de esa red de cuatro millones cuatrocientos mil reales financiados por el gobierno federal, deberán instalarse a partir de julio, ni bien empiecen a llegar, y ocupando una planta completa de la nueva sede de la Unesp, en el barrio de Barra Funda, en la capital paulista, que albergará también al equipo de operaciones y un centro de capacitación. En poco tiempo deben tomar forma las posibles conexiones con las computadoras de decenas de universidades en Estados Unidos, Europa, China, o Australia, que ya adoptaron estrategias similares de trabajo. De esta manera, en rigor, nada impedirá que un equipo del campus de la Unesp con sede Ilha Solteira pregunte a los colegas de Harvard si ellos cuentan con espacio libre en la computadora para ayudar a resolver un problema que sobrecargó a las computadoras de aquí. “Si queremos adaptarnos a lo que el mundo está haciendo”, dice Novaes, “no será posible seguir siendo localista o pensar en pequeño”.

Así es la e-Science: ya no importa dónde te encuentres ni cuáles computadoras están depurando o examinando los datos de tu valioso experimento. Creado en el año 1999 para describir un proyecto que comenzaría a tomar forma durante el año siguiente en Inglaterra, el término e-Science designa las actividades científicas que dependen de una elevada capacidad de almacenamiento y procesamiento de informaciones, como la física de partículas, aunque otras áreas también pueden verse beneficiadas. En el libro De internet a la grid – La globalización del procesamiento, Novaes y Eduardo Gregores apuestan a esa expansión: “Podemos esperar que, del mismo modo en que ocurrió con internet, las aplicaciones de la grid irán mucho más allá de lo que hoy podríamos suponer”. La red de computadoras de la Unesp, por cierto, explorará otros universos –desde la formación de tumores a la superconductividad en materiales cerámicos. En Estados Unidos, las grids (redes) de ordenadores se basan en proyectos ambiciosos, que no tratan solamente de problemas urgentes como, por ejemplo, nuevos tratamientos contra el cáncer. La meta de una de ellas, el National Virtual Observatory, es sencillamente, reunir en una computadora toda la información recabada sobre los millones de estrellas y galaxias que conforman el universo. La e-Science podría ir más allá y ayudar a resolver problemas mundiales, de acuerdo con la edición del 15 de marzo de la revista Nature, que propone que los gobiernos trabajen en conjunto para construir las supercomputadoras que puedan realizar previsiones meteorológicas más detalladas y descubran así cómo actuar para evitar las probables catástrofes provocadas por los cambios climáticos.

Tal vez en mayor medida que los especialistas de otras disciplinas, los físicos de partículas dependen hoy de los poderosos ordenadores en red, como los taxistas no pueden trabajar más sin el GPS (sigla por Global Positioning System). De otro modo, no habría forma de analizar tanta información de que disponen –ni como localizar rápidamente direcciones en una ciudad extraña. Durante los próximos cinco años, los cuatro detectores del LHC deben generar un volumen de información equivalente a mil cuatrocientos millones de CD’s, los cuales, si fueran “apilados sin caja”, dice Novaes, formarían una torre cuatro mil setecientas veces más alta que el Pan de Azúcar, la famosa postal de Río de Janeiro. “El gran volumen de informaciones es un problema en sí mismo, que impone la necesidad de nuevos conceptos de trabajo”, dice Novaes. Por suerte, en los últimos años, la velocidad de transmisión de datos creció a un ritmo mayor que la velocidad de procesamiento, derivando en una nueva forma de organización de las computadoras, la grid, en la que las máquinas distantes funcionan como si fuesen una sola. Además del software y del hardware, apareció entonces el middleware, que son los recursos que distribuyen las tareas localizando las máquinas libres.

SPRACETambién existe una jerarquía entre las máquinas. Las informaciones acerca de las partículas que serán destruidas u originadas a partir de las colisiones deben emitirse desde los detectores que rodean el túnel circular de 27 kilómetros de extensión del LHC, a cien metros bajo tierra, y llegar en primer lugar a las computadoras del Centro Europeo de Investigaciones Nucleares (Cern), con sede en Ginebra, Suiza. Los datos del Compact Muon Solenoid (CMS), el detector del LHC del que esos equipos de Río de Janeiro y São Paulo participan, seguirán entonces por centrales de computadoras denominadas Tiers-1 distribuidas en ocho países, y luego, rumbo a otros 23 grupos de computadoras alrededor del mundo –desde Brasil a Pakistán– que conforman las Tiers-2. “No estamos mal”, observa Novaes al comparar el desempeño del grid brasileño con el de las máquinas de colegas de China, Italia, Inglaterra y Estados Unidos. Todo el grupo participa de simulaciones de transmisiones de datos, con visibles progresos: la capacidad operativa de las máquinas trepó del 20% en el año 2006 al 50% en el 2007 y ahora se intenta alcanzar el 100% de lo que será requerido cuando el LHC comience a operar. Las dificultades también son mayores. Novaes conoce los nuevos problemas que pueden interrumpir la transmisión de datos al leer rápidamente los 350 e-mails que llegaron en la víspera del feriado de fines de mayo durante una prueba de transmisión de datos aún simulados que partieron del LHC. “Todos se comunican con todos”, dice él. “La cooperación ahora es fundamental, porque si alguien falla, todos fallan”.

Los físicos construyeron ese ambiente mundial de investigación y las cavernas monumentales del LHC, para encontrar experimentalmente una partícula atómica que hasta ahora existe sólo en teoría: el bosón de Higgs (los bosones son las partículas que transmiten fuerzas o que mantienen unidas al resto de las partículas, y Higgs es el apellido del físico escocés que teorizó esa partícula en el año 1964). Si de hecho fuera identificado, el bosón de Higgs podría explicar por qué las partículas elementales de la materia presentan masas tan diferentes entre sí (la masa de un neutrón, que conforma el núcleo atómico, es 1.800 veces mayor que la de un electrón, que orbita alrededor del núcleo).

Tantas personas y tanto trabajo se hallan justificados porque el bosón de Higgs puede ser la pieza que falta para completar el mapa de las partículas atómicas. A comienzos del siglo pasado sólo existía una partícula, el electrón. Luego surgieron evidencias del núcleo atómico, formado por partículas bastante mayores, y allá por el año 1950 los físicos ya habían identificado decenas de ellas. “Era el caos”, cuenta Novaes. “Aún no existía ninguna organización entre las partículas”. Al poco tiempo los científicos descubrieron las fuerzas que mantienen la unión de los átomos y de las partículas, pero aún no era suficiente. Cuando comenzaron a funcionar los aceleradores de partículas y a exhibir dimensiones aún más profundas de la materia, los físicos verificaron que todo el zoológico de partículas descubierto en los años 1950 podría organizarse por medio de apenas tres partículas, los quarks up, down y strange. En los años siguientes, fueron descubiertos tres quarks más: charm, bottom y top. Esos seis quarks, combinados en pares quark-antiquark, o en tríos, componen todas las partículas sujetas a una de las fuerzas fundamentales de la naturaleza, la interacción fuerte, que mantiene la cohesión del núcleo. Aparecieron partículas con nombres extraños y poco conocidas para la mayoría de las personas, como el kaón, eta, chi, lambda, sigma o J-psi, pero no eran más que centenas, solo grupitos de los mismos elementos básicos. Más que partículas aisladas, ahora existen categorías: protones y neutrones, que conforman el núcleo atómico, son denominados hadrones (hadros en griego significa macizo, fuerte). El núcleo propiamente dicho perdió el bucolismo hipotético y se reveló como un ambiente tempestuoso, formado por nubes de partículas que surgen y desaparecen en todo momento alrededor de los protones y neutrones.

El LHC, eventualmente, puede también arrojar luz acerca de otras dimensiones extras, además de las cuatro conocidas (tres espaciales, largo, ancho y alto, y una temporal); nadie probó aún que ellas no existan realmente y una parte de los físicos precisa de ellas para mantener sus teorías en pié. Asimismo, Novaes no lo considera suficiente. “Espero que del LHC surjan cosas diferentes, que nos enfrenten con otros desafíos”, dice él. “Puede ser que lo nuevo sea totalmente nuevo, sin ninguna vinculación con las propuestas teóricas actuales”. Como los resultados son imprevisibles, incluso pueden surgir otras cosas importantes, además de nuevas explicaciones sobre el universo. En el año 1990, el físico suizo Tim-Bernes Lee creó un lenguaje de computadoras destinado a facilitar el trabajo de quienes trabajaban en el Cern, sin imaginar que su invención, el hipertexto, sería esencial para la expansión de Internet.

Hace tiempo que los físicos persiguen al bosón de Higgs. El propio Novaes, en 1979, cursando una maestría, estudió uno de los mecanismos de producción de esa partícula por medio de colisiones entre protones. “Lo que representaba un problema en aquella época aún continúa en la agenda, lo que demuestra la dificultad de la física de las partículas para avanzar en las últimas tres décadas”. Se espera que la e-Science ayude a resolverlo. “La e-Science es abierta y veloz, y representa otro modo de hacer ciencia”, dice Novaes. “Debemos pensar de otra forma, con audacia.”

Republicar