Imprimir Republish

E-SCIENCE

De la arqueología a la robótica

Un programa que apunta a producir nuevos conocimientos a partir de gigantescos volúmenes de datos selecciona sus primeros proyectos

Sitio arqueológico de Çatalhöyük (arriba) y cambios en el uso de la tierra en la Amazonia: el desafío de trabajar con cantidades masivas de información

Çatalhöyük Research Project Sitio arqueológico de Çatalhöyük…Çatalhöyük Research Project

En el marco del primer llamado a presentación de propuestas del Programa FAPESP de Investigación en e-Science, fueron seleccionados cuatro proyectos vinculados a áreas tan diversas como las de robótica, arqueología digital, observación de la Tierra y agrometeorología. La iniciativa, lanzada en 2013, apunta a estimular nuevos abordajes, audaces y no convencionales, para la investigación de punta, siempre involucrando el trabajo multidisciplinario de científicos de la computación e investigadores de otras áreas. Una de las propuestas que se contemplan apunta a dotar a Brasil de un sistema de información sobre el uso de la tierra. El proyecto temático e-Sensing: Análisis de grandes volúmenes de datos de observación de la Tierra para informar sobre cambios en el uso y cobertura de la tierra, conducido por Gilberto Câmara Neto, del Instituto Nacional de Investigaciones Espaciales (Inpe), articulará a equipos del Inpe que trabajan con monitoreo remoto, agricultura, monitoreo de selvas, bancos de datos y geoinformática.

Los satélites de observación de la Tierra constituyen la única fuente de datos que provee un conjunto continuo y consistente de información sobre nuestro planeta. Los datos de esos satélites se encuentran disponibles, sin costo, en repositorios de agencias espaciales y centros de investigación, tales como el Inpe y la NASA. Si bien los satélites producen grandes cantidades de datos, sólo una pequeña porción se utiliza efectivamente para investigaciones y aplicaciones operativas. La gran mayoría de los métodos de observación de la Tierra utilizados por los científicos es incapaz de operar con grandes conjuntos de datos. Para afrontar este desafío, el proyecto e-Sensing desarrollará un nuevo tipo de plataforma de conocimiento para ocuparse de la observación de la Tierra.

“Es un proyecto interdisciplinario, que combina capacidad en computación y en varias otras áreas”, dice Câmara, coordinador del equipo de investigación y desarrollo en geoinformática y modelado ambiental del Inpe. “Pretendemos desarrollar métodos que permitan analizar cantidades masivas de datos para la detección de desmontes, de alteraciones en el uso de la tierra, de expansión de la agricultura”, afirma. Câmara nota que Brasil carece de información acerca del uso de la tierra. “Contamos con buenos sistemas de monitoreo de las talas en la Amazonia y de mapeo del área cultivada con caña de azúcar en el centro-sur del país. Pero Brasil carece actualmente de capacidad para producir información actualizada sobre el uso de la tierra en nuestro territorio. Nos falta información sobre biomas importantes tales como el cerrado, la caatinga y la pampa. Mucho de ello sólo sale a la luz mediante el Censo Agropecuario, que se realiza cada diez años”, sostiene.

Las metodologías podrían tener aplicaciones para la administración de otros datos científicos. “El desafío de organizar y extraer información de una masa de datos gigantesca y generada a una velocidad impresionante es algo común a varios campos del conocimiento, entre los que podemos citar a la astronomía, la genética y la bioinformática”, dice Câmara. En el caso de las imágenes satelitales, el cambio es extraordinario. “Hace 10 años, el Inpe vendía una imagen satelital a 2 mil reales. Hoy provee miles de imágenes en forma gratuita. El desafío radica en llevar al científico hasta los archivos, en lugar de acercarle los archivos al científico. Y la creación de un ambiente virtual donde sea posible organizar y analizar esa información”.

... y cambios en el uso de la tierra en la Amazonia: el desafío de trabajar con cantidades masivas de información

Wilson Dias/ Agência Brasil… y cambios en el uso de la tierra en la Amazonia: el desafío de trabajar con cantidades masivas de informaciónWilson Dias/ Agência Brasil

El término eScience resume el desafío de investigación conjunta en computación y otras áreas del conocimiento, para la organización, clasificación, visualización y facilitación del acceso al gigantesco volumen de datos constantemente generados en todos los campos de investigación, con el fin de obtener nuevos conocimientos y realizar análisis abarcadores y originales. Por eso, muchas veces se lo considera como un sinónimo del concepto data intensive science, es decir, la ciencia desarrollada a partir del análisis de grandes volúmenes de datos. El programa lanzado por la FAPESP apunta a integrar grupos involucrados en investigaciones de computación con científicos de otros grupos, que van de las ciencias agrarias a las ciencias sociales. Los aspectos informáticos se distribuyen en un amplio espectro, desde interfaces y algoritmos hasta modelado computacional e infraestructura de datos. “Quedamos satisfechos con el resultado de la primera llamada, en función de la calidad y lo abarcador de los proyectos, tanto los que fueron remitidos como los que se aceptaron”, afirma Claudia Bauzer Medeiros, docente del Instituto de Computación de la Universidad de Campinas (Unicamp), coordinadora adjunta de programas especiales de la FAPESP y coordinadora del programa eScience.

Hubo veinticinco propuestas inscritas, un número significativo para un programa de lanzamiento reciente. El proceso de selección fue complejo. Cada proyecto fue evaluado por al menos dos expertos, uno para analizar el carácter innovador de la propuesta en el campo de la ciencia de la computación y el segundo para realizar el mismo análisis, pero en relación a la contribución en la otra área del conocimiento involucrada. Los proyectos fueron aprobados sólo con una doble recomendación. “Con frecuencia, ocurrió que algún proyecto era recomendado por uno de los asesores pero no por el otro”, dice Claudia Medeiros. En algunos casos, en proyectos que involucraban varias áreas del conocimiento, se necesitó consultar hasta cuatro asesores para asegurar una evaluación equilibrada. “Movilizamos asesores de Europa, de América del Norte, de Asia y hasta de Australia”. Una novedad presente en el pliego fue la exigencia de presentación de un Data Management Plan, que describe cómo cada proyecto pretende administrar, proteger, preservar y tornar públicos los datos generados. “El objetivo radica en posibilitarles la reutilización de los datos a otros científicos, además de garantizar que los resultados de un trabajo científico basado en aquellos datos sean reproducidos de modo transparente por otros interesados”, dice Claudia Medeiros.

Cámaras para dirigir vehículos autónomos...

Oran Viriyincy/ Wikimedia Cámaras para dirigir vehículos autónomos…Oran Viriyincy/ Wikimedia

Realidad virtual
Otra propuesta que se contempla apunta a combinar arqueología y computación y está liderada por Marcelo Knörich Zuffo, docente e investigador del Centro Interdisciplinario en Tecnologías Interactivas de la Escuela Politécnica de la USP. El proyecto, intitulado CiberArqueología – Realidad virtual e eScience al encuentro de la arqueología involucra colaboradores brasileños e internacionales de las áreas de ingeniería, computación y arqueología, y propone la aplicación de técnicas digitales para la exploración de excavaciones arqueológicas, utilizando la computación en nube para almacenar grandes volúmenes de datos. La meta principal consiste en escanear sitios arqueológicos, transformándolos en imágenes tridimensionales por medio de cámaras de alta resolución, escáner 3D e incluso un vehículo aéreo no tripulado (vant), de los comúnmente conocidos como drones. “La excavación de un sitio arqueológico es esencialmente un análisis destructivo. Cuando excavamos, el lugar se destruye. El escaneo progresivo de la excavación genera un gran volumen de datos, que alcanza el orden de los terabytes por sitio. Nuestro objetivo consiste en la creación de herramientas interactivas de realidad virtual que permitan el estudio de los sitios en ambientes enterrados, analizando aspectos que no siempre resultan perceptibles en el estudio presencial”, dice Zuffo. La iniciativa prevé una colaboración con dos investigadores de la Universidad Duke, Maurizio Forte y Regia Kopper, responsables del escaneo del sitio Çatalhöyük, en Turquía. También involucra a investigadores de la Escuela Politécnica y del Museo de Arqueología y Etnología de la USP, como Maria Isabel D’Agostino Fleming y Astolfo Araújo. “Se plantean desafíos importantes. No es tarea sencilla la realización del procesamiento tridimensional utilizando la computación en la nube”, dice Zuffo.

Validación
En tanto, en el proyecto Sistema de referencia de altitud, orientación y posición basado en el filtro de Kalman dual de estadística robusta implementado en FPGA, se aspira a crear sensores de bajo costo que ayuden a monitorear el posicionamiento de vehículos en movimiento. El proyecto prevé la especificación de nuevos algoritmos, con base en una técnica matemática creada en 1960 por el húngaro Rudolf Kalman. La validación de los sensores se realizará en un camión que se moviliza en forma autónoma, sin chofer. Se espera que la investigación genere una patente. “Disponemos de técnicas denominadas filtros robustos para mejorar el desempeño de esos sensores. Logramos abaratar los costos de esas unidades mediante algoritmos creados para esa finalidad”, dice Marco Henrique Terra, docente de la Escuela de Ingeniería de São Carlos de la USP, líder del proyecto. La creación de los sensores implica un desafío en la administración de datos porque el monitoreo de un camión en movimiento exige administrar una gran cantidad de informaciones. “Hay que captar la posición del vehículo, tener en cuenta la distancia que el mismo debe mantener con los obstáculos fijos o móviles a su alrededor, definir hacia dónde va y procesar todo eso para tomar una decisión apropiada. La cantidad de datos involucrados para reproducir una situación real, en la cual el vehículo sale de un lugar y se dirige a otro, es de gran complejidad”, explica Terra. Cinco profesores de la USP y uno de la Universidad Federal de São Carlos están abocados a esa iniciativa. Parte de ellos participó en un proyecto que creó un prototipo de vehículo robótico autónomo (lea en Pesquisa FAPESP, edición nº 213). Los sensores para camiones son más complejos.

...y sistema agrometeorológico de Embrapa: algoritmos y métodos computacionales innovadores

Neide Makiko Furukawa/ Embrapa…y sistema agrometeorológico de Embrapa: algoritmos y métodos computacionales innovadoresNeide Makiko Furukawa/ Embrapa

Finalmente, el proyecto AgroComputing.net – Infraestructura digital y nuevos métodos computacionales para perfeccionar el monitoreo y la previsión agrícola busca generar una plataforma informática de trabajo para agrometeorólogos, provista de datos climáticos y de monitoreo remoto de diferentes orígenes (satélites, sensores y estaciones), organizados y fáciles de consultar. “La propuesta se basa en la construcción de una infraestructura digital que reúna series temporales climáticas de estaciones de superficie, de modelos de escenarios de cambios climáticos y de sensores remotos, aliada a métodos computacionales basados en exploración de datos, a fin de perfeccionar el monitoreo agrícola y la previsión de cosechas”, dice Luciana Alvim Santos Romani, investigadora de Embrapa Informática Agropecuaria, con sede en Campinas, quien lidera el proyecto. Los datos climáticos forman parte del sistema Agritempo, una colaboración entre Embrapa y el Centro de Investigaciones Meteorológicas y Climáticas Aplicadas a la Agricultura de la Unicamp.

“Ese nuevo proyecto también permitirá que podamos utilizar métodos estadísticos y computacionales para generar una base de datos completa, perfeccionando los datos ya disponibles en el Agritempo y generando nuevas bases agrometeorológicas. Con ese enorme conjunto de datos disponibles por medio de la computación en la nube, los agrometeorólogos dispondrán de condiciones para perfeccionar sus análisis. El proyecto ayudará en los análisis de modelos de escenarios agrícolas considerando los cambios climáticos”, afirma. La nueva plataforma estará abastecida con datos de modelos climáticos, regionales y globales, aportados por el Centro de Pronóstico del Tiempo y Estudios Climáticos del Inpe, y series temporales de imágenes provistas por satélites, tales como los estadounidenses Noaa y Goes. “Apuntamos el desarrollo de algoritmos de baja complejidad, que puedan operar con grandes volúmenes de datos y sean veloces. De nada sirve contar con un método eficiente pero de lenta ejecución. Para los científicos de la computación, la ventaja radica en que se abocarán a problemas complejos. Para los agrometeorólogos, el beneficio consiste en trabajar con grandes volúmenes de datos en forma más efectiva y automática”, sostiene Santos Romani.

Republicar