Imprimir

Física

Con una gran energía

Qué herramientas tienen los científicos brasileños para participar en un gigantesco estudio sobre partículas subatómicas

Uno de los más grandiosos, complejos y costosos experimentos científicos de la actualidad, junto con la exploración espacial y los proyectos genoma, es el estudio de las menores partículas que constituyen toda y cualquier materia. Por más paradójico que esto parezca, para saber acerca de los quarks y los leptones, por ejemplo, que forman los protones, los neutrones y los átomos, y todo lo que existe en el Universo, se requiere de instalaciones inmensas llamadas aceleradores, sumados a avanzados sistemas de computación, de gran capacidad de transmisión y almacenamiento de datos. Y solamente mediante una cooperación internacional, a ejemplo de lo que se está haciendo con la construcción de la estación espacial o la transcripción de los genes, se puede también plasmar la obtención de nuevos conocimientos sobre la interacción y la formación de estas partículas. Esto hace referencia a un conjunto de operaciones que cuenta con dos grupos de investigadores brasileños de la Universidad Estadual Paulista (Unesp) y de la Universidad Estadual de Río de Janeiro (Uerj). Estos científicos están ultimando un complejo computacional que reunirá el equivalente a 380 computadoras, que trabajarán conjuntamente, y la más rápida conexión vía internet de todo Brasil. Todo esto, para interconectarse con los dos mayores y más importantes aceleradores de partículas subatómicas del mundo: el Fermilab, sigla de Fermi National Accelerator Laboratory, instalado cerca de la ciudad de Chicago, Estados Unidos, y Centro Europeo de Investigaciones Nucleares – Cern, con sede en Ginebra, Suiza. Generarán 100 millones de gigabytes (GB) de datos durante los próximos diez años. Esta cifra equivale a la capacidad total de 2,5 millones de discos rígidos con memoria de 40 GB, los más usados en las computadoras actuales.

Última generación
En la capital paulista se encuentra ya funcionando el Centro Regional de Análisis de São Paulo (Sprace, sigla en inglés). El mismo posee 114 unidades centrales de procesamiento (CPUs), o procesadores, y allí se está finalizando, con financiamiento de la FAPESP, la instalación de otras 64, de un total que será el equivalente a 178 procesadores de última generación, funcionando en paralelo. Estos artefactos se encuentran instalados en el Instituto de Física de la Universidad de São Paulo, en la capital paulista, en el marco de un acuerdo con la Unesp, y cuenta con el profesor Sérgio Ferraz Novaes, del Instituto de Física Teórica (IFT), como coordinador del proyecto. Novaes, quien trabajó en el Fermilab durante dos años, entre 2000 y 2002, encabeza un equipo de cuatro investigadores: Eduardo de Moraes Gregores, Sérgio Morais Lietti y Pedro Galli Mercadante, del IFT, vinculados al proyecto Joven Investigador financiado por la FAPESP, y Rogério Luiz Iope, estudiante de posgrado de la Escuela Politécnica de la USP. En el Sprace, este equipo usa discos de memoria con capacidad de 12 terabytes (TB) para almacenar los datos, el equivalente a 12 mil GB, o más de 18 millones de CD’s.

En tanto, en Río de Janeiro, con la coordinación del profesor Alberto Santoro, de la UERJ, junto a 20 investigadores del Centro Brasileño de Investigaciones Físicas (CBPF, sigla en portugués) de la Universidad Federal de Río de Janeiro (UFRJ), en colaboración también con la Universidad Federal de Bahía (UFBA) y la Universidad Federal de Río Grande do Sul (UFRGS) y el Centro Federal de Educación Tecnológica Celso Suckow da Fonseca (Cefet/RJ), se instalaron 200 CPUs de 7 TB de disco, en el marco de un proyecto solventado por la Financiadora de Estudios y Proyectos (Finep) del Ministerio de la Ciencia y Tecnología (MCT). Santoro, que es un veterano en este tipo de investigaciones, trabaja con los dos grandes laboratorios de aceleradores desde hace más de 20 años. El científico formaba parte del equipo que descubrió en 1995, en el Fermilab, la partícula quark top, el último de los seis quarks previstos en la teoría que describe las partículas elementales y sus interacciones.

El Sprace y el grupo de Río de Janeiro forman el High Energy Physics (HEP) Grid Brasil, con actuación tanto en los experimentos del Cern como en los del Fermilab. Ambas instituciones implementaron recientemente una de las grandes innovaciones del área de informática surgidas en los años 1990, que es el sistema Grid, un formato computacional que comienza a erigirse en una herramienta cada vez más presente en el procesamiento de datos científicos. Con el concepto de grid, varias computadoras están conectadas en un mismo sitio formando agrupamientos, también llamados clusters, que pueden estar conectadas a otros grupos de computadoras ubicadas tanto en un local contiguo como del otro lado del planeta.

En Estados Unidos, la Fundación Nacional de Ciencia (NSF, por su sigla en inglés) invertirá 150 millones de dólares durante los próximos años para completar la conexión en forma de grid de todas las comunidades científicas y de ingeniería del país. Este sistema, llamado de TeraGrid, suministra una serie de recursos de hardware y software que están usándose en la decodificación de genomas y proteínas, en el diagnóstico de enfermedades y en la previsión del tiempo y de los terremotos. En Europa, el gobierno alemán anunció en septiembre una inversión de 17 millones de euros para la formación de infraestructura nacional basada en la estructura grid. La DGrid Network llevará a todo el país la posibilidad de resolución de complejos experimentos científicos a distancia. Se incluyen entre éstos la física de altas energías, que estudia las partículas producidas en los aceleradores, la observación de la Tierra, la astronomía, las investigaciones en el área de medicina y las aplicaciones en ingeniería. El sistema grid superará así al concepto de supercomputadora, un aparato caro y de poca flexibilidad para aumentar o disminuir la capacidad de procesamiento. En el gris, la cosa es solamente acoplar o retirar una o más computadoras.

“En el sistema grid todo funciona de manera automática y transparente. Las tareas se direccionan hacia los diferentes clusters que tengan capacidad de procesamiento libre en un determinado momento”, explica Novaes. Todos trabajan con software abiertos, de manera tal que cada grupo pueda también contribuir al perfeccionamiento del sistema. El grid de la física de altas energías va a utilizar en el Cern, cuando se inaugure un nuevo acelerador, en 2007, una arquitectura jerárquica que funcionará a partir de una central, llamada de Tier 0, ubicada en la sede del laboratorio, desde donde se distribuirán los datos por redes de alta velocidad a varios centros nacionales de nivel 1 (Tier 1). Desde cada Tier 1, los datos se distribuyen a su vez a centros de nivel 2 (Tier 2) asociados a ellos, y de estos hacia los de nivel 3. El HEPGrid Brasil se ubica en la categoría Tier 2. “La evolución de nuestro trabajo, sumada a una mayor inversión, permitirá, dentro de algunos años, transformar nuestro grupo en una Tier 1”, cree Santoro.

Velocidad esencial
La conexión con los laboratorios de aceleradores de partículas requiere una excelente comunicación entre los diversos grupos dispersos por el mundo. Para ello, la transmisión se hace completamente a través de fibra óptica. Tanto los laboratorios de la USP como los de la Uerj reciben y envían los datos vía fibra óptica a Estados Unidos, por medio de cables submarinos. Para los próximos años, con la inauguración del nuevo acelerador del Cern, el Gran Colisionador de Hadrones (LHC, sigla en inglés), están previstas transmisiones de al menos 2,5 gigabits por segundo (Gbps). “Comparada con una transmisión ejecutada mediante el sistema comercial de banda ancha, con 256 kilobits por segundo (Kbps), podríamos decir que los investigadores estarán transmitiendo a una velocidad 10 mil veces mayor, o que la misma cantidad de datos demoraría un segundo para ser transmitida al Cern, mientras que, por banda ancha común, tardaría tres horas”, calcula Luis Fernandez Lopez, coordinador del Programa Tecnología de la Información en el Desarrollo de la Internet Avanzada (Tidia) de la FAPESP.

En la actualidad, toda la comunicación que sale del laboratorio del Sprace va vía láser a través de fibras ópticas encapsuladas en cables submarinos hasta Miami. El Sprace opera en 622 megabits por segundo (Mbps), si bien está equipado para conectarse a 2,5 Gbps. “En poco tiempo más, con la entrada en actividad del LHC, esta velocidad de transmisión será esencial para la continuidad de las investigaciones en el área”, dice Novaes.

Las exigencias futuras llevaron a la FAPESP, que solventa la Red Académica de São Paulo (Ansp) y el Tidia, a firmar un acuerdo con la NSF para financiar el proyecto Western Hemisphere Research and Educational Network (WHREN) – una red destinada a vincular a científicos de todo el continente americano –, que se inaugurará en diciembre de este año, con un cable de fibra óptica que hará la conexión São Paulo–Miami–Nueva York con velocidades de 2,5 Gbps. Esta conexión suplirá tanto la necesidad de los científicos del área de física de altas energías como la de otros laboratorios. En la Whren, la FAPESP aporta un millón de dólares, y la NSF, otro millón. El enlace con Nueva York suministrará velocidades de 10 Gbps dentro de Estados Unidos, y una conexión con Europa a una velocidad de 40 Gbps. En Río de Janeiro, el grupo de Santoro dispone de 1 Gbps de velocidad de transmisión con São Paulo, en una red experimental solventada por la Red Nacional de Enseñanza e Investigación (RNP) del MCT, pero que cuenta también con financiamiento de la Fundación Carlos Chagas Filho de Apoyo a la Investigación del Estado de Río de Janeiro (Faperj). La RNP estudia también concretar una conexión externa en 10 Gbps, en el marco de un acuerdo con la Red Clara, sigla de Cooperación Latinoamericana de Redes Avanzadas. Al final de este año, una interconexión, con la misma velocidad, entre São Paulo y Río de Janeiro, beneficiará a todas las instituciones de investigación.

Toda la estructura que permite la búsqueda del conocimiento y la comprensión de las  partes más íntimas de la materia empieza a funcionar cuando dos partículas, dos protones, por ejemplo, entran en colisión dentro de los aceleradores. Es como si dos objetos cualesquiera se acelerasen a altas velocidades dentro de un anillo metálico, y se encontrasen y se aniquilasen en el medio de un detector que funciona a base sensores, que hacen las veces de cámaras fotográficas. La destrucción provoca como resultado la creación de un montón de astillas o, en este caso, de partículas. Lo que los investigadores hacen es, comparativamente, analizar el tipo, la curvatura de la trayectoria de las partículas producidas y la energía que éstas depositan en los detectores.

En el mundo de las partículas existen comportamientos “extraños” para nuestro mundo macro, como el hecho de que algunas puedan contener partículas menores aún, que se transforman en otro tipo de partículas hasta ahora impensables. Uno de los problemas para los investigadores radica precisamente en que existen partículas raras, y por eso los experimentos requieren miles de millones de colisiones para su estudio. “Dentro de los aceleradores circulares, los protones usados en los experimentos son impulsados por radiofrecuencia y por electroimanes superconductores, instalados a lo largo del círculo”, explica Novaes. “Las partículas viajan en las crestas de las ondas electromagnéticas, cuan surfistas en las olas”, dice Santoro.

El trabajo de los investigadores consiste en identificar tanto las partículas raras como las más comunes en las informaciones captadas por los sensores luego de las colisiones. “Recibimos del Fermilab y del Cern un conjunto de datos que sirven para identificar a las partículas, hacer los análisis de las interacciones y fijar las conclusiones”, explica Novaes. Hoy en día existen partículas previstas en teoría que todavía no se han detectado, como el bosón de Higgs, una partícula que puede ser responsable de la masa de todas las demás. Otra posibilidad es la verificación experimental de modelos alternativos, tales como los modelos supersimétricos, con nuevas partículas que llevan los nombres de gluinos, squarks y sleptones, o aquéllos que prevén la existencia de dimensiones extras.

Todo este esfuerzo redunda en la investigación sobre la formación e interacción de las  partículas, pero también ayuda a la comprensión de la formación del Universo y de las  estrellas, y en una serie de conocimientos que se trasladan a las tecnologías empleadas en el día a día. Una de ellas fue la creación de la World Wide Web, la conocida www. Precisamente, para hacer más amigable la interacción entre los diversos investigadores que trabajan con las partículas en varios países fue que Tim Berners-Lee, investigador del Cern, creó el sistema web, donde bastaba hacer clic en un enlace, por ejemplo, para tener acceso a las informaciones. Los científicos intercambiaban datos por computadora, pero eso era muy complejo, tal como recuerda Santoro, que fue uno de los primeros brasileños que usó el sistema www.

Las imágenes en positrón
En el área médica, el estudio de la física de altas energías llevó al perfeccionamiento del tratamiento de tumores mediante de haces de partículas, y a la tomografía por emisión de positrones (PET), cuyo principio fundamental es la emisión positrón (o antielectrón, que son partículas con la misma masa del electrón, pero con carga positiva) y a ofrecer imágenes de alta definición del interior del cuerpo humano. El avance tecnológico de circuitos integrados para la adquisición y el procesamiento de datos y el uso de la fibra óptica, que luego de generalizó en las telecomunicaciones, también constituyeron un aporte de gran valía en el estudio de las partículas.

Obtener réditos en el conocimiento científico y, por añadidura, incentivar innovaciones tecnológicas. Tales estas acciones hacen de los aceleradores un experimento caro. Solamente en el funcionamiento del Fermilab se gasta un millón de dólares por día, que aporta el Departamento de Energía estadounidense, bajo administración de una asociación de universidades. Mientras que el LHC europeo no empieza a funcionar, el Tevatrón del Fermilab es el más grande acelerador de partículas en operación actualmente. El anillo de colisión posee 6,3 kilómetros (km) de circunferencia y 1 km de radio. El grupo brasileño trabaja con datos de uno de los dos detectores, el Dzero. Con una estructura de cinco pisos de altura y 20 metros de largo, pesa más de 5 toneladas y tiene más de 800 mil canales de lectura electrónicos. La colaboración científica reúne a 18 países, al margen de Estados Unidos y Brasil: Canadá, Inglaterra, Argentina, Corea del Sur, China, Francia, Rusia, Holanda y Alemania. Son 83 instituciones, de las cuales 36 son de Estados Unidos, que congregan a 664 físicos, y alrededor de la mitad de éstos, estadounidenses.

La era del exabyte
Con la entrada en funcionamiento del LHC, en 2007, la cantidad de investigadores que trabajan en el área en todo el mundo ha de crecer. En tan sólo uno de los cuatro detectores del LHC, el Compact Muon Solenoid (CMS), donde se producirá una cantidad de datos por segundo equivalente a la de 10 mil enciclopedias británicas, están trabajando más de dos mil personas, provenientes de 165 instituciones de los 36 países participantes. Todos los investigadores del Cern van a operar con el equivalente a 50 mil computadoras interconectadas, en el procesamiento de las informaciones que se generarán. En el período de entre cinco y ocho años, el laboratorio inaugurará la era del exabyte (EB), con la producción de 1 EB en datos digitales, o un cuatrillón de bytes. Si fuera posible almacenar esa fabulosa cifra en CD’s, que poseen capacidad para 700 megabytes (MB), tendríamos que tener alrededor de 1.400 millones de discos. Otra comparación es que ese un EB equivaldría al 20% de todo tipo de información transformada a la vía digital generada en el año de 2002 en el mundo, entre internet, revistas, periódicos, libros y películas.

El CMS será el detector donde los investigadores brasileños ligados al HEPGrid Brasil van a trabajar. Y otros tres detectores, el Atlas, el Alice y el LHCb, también contarán con la colaboración de investigadores brasileños del CBPF, de la UFRJ y de la USP. Como instrumento de trabajo, en sus 27 km de circunferencia, el LHC del Cern generará colisiones de siete veces más energía que el Tevatrón del Fermilab. El norteamericano funciona con dos billones de electronvoltios (TeV) y el LHC operará con 14 TeV. Como enseña un texto que se lee en el sitio del Cern: “Un TeV es comparable a la energía que un mosquito usa para volar. Lo que hace al LHC tan extraordinario es que esta energía puede comprimirse en un espacio millones de veces menor que un mosquito”.

Los proyectos
1. Física experimental de anillos de colisión: SP-Race y HEP Grid-Brasil
Modalidad
Proyecto Temático
Coordinador
Sérgio Ferraz Novaes – Unesp
Inversión
R$ 709.342,00 (FAPESP)

2. Física experimental de altas energías: los experimentos Dzero del Fermilab y CMS del Cern
Modalidad
Programa de Apoyo a Jóvenes Investigadores en Centros Emergentes
Coordinador
Eduardo de Moraes Gregores – Unesp
Inversión
R$ 73.963,15 (FAPESP)

Republish