Un software localiza la contaminación en un mapa y predice sus movimientos

0air_pollution.jpgLas estaciones de medida de la contaminación atmosférica aportan información exacta sobre los niveles de polución en puntos muy concretos. Sin embargo, los datos sobre las zonas colindantes quedan expuestos a predicciones imprecisas. Para llenar este vacío en el mapa, un equipo de investigación europeo ha desarrollado un nuevo software, basado en herramientas estadísticas, que conecta los datos obtenidos en todo el planeta gracias a la web.

Imagine que Europa se ve afectada por un accidente nuclear de gran envergadura. En los primeros instantes tras el desastre, los sistemas de monitorización de los países de todo el continente mostrarían mayores niveles de radiactividad, pero aún sería demasiado pronto para saber a ciencia cierta qué los ha provocado o qué tienen en común unos resultados con otros. Incluso, dentro de una misma ciudad, 30 Km. de distancia serían suficientes para confundir a las autoridades sobre la magnitud de la catástrofe. Si quisieran evacuar el núcleo urbano… ¿hacia dónde deberían dirigir a la población?

Una nueva investigación tiene en su mano la llave para responder a preguntas como ésta y a otras muchas cuestiones relacionadas con diferentes tipos de contaminación del agua y el aire. Según un comunicado publicado en la web CORDIS, un consorcio europeo ha creado un software que combina herramientas estadísticas e informáticas para transformar las mediciones de polución en puntos concretos en predicciones sobre al totalidad del mapa. El sistema, además, permite publicar los datos en la web, de modo que todo el mundo pueda seguir la evolución de la contaminación en tiempo real. Con este trabajo, los científicos esperan convertir la información medioambiental en datos más útiles, fiables y democráticos.

El proyecto INTAMAP

El Sexto Programa Marco de la UE para la investigación ha sido el encargado de financiar el proyecto INTAMAP, liderado por el profesor de la Universidad de Münster (Alemania) Edzer Pebesma, quien explica el problema que dio pie a este estudio: “Todo tipo de cuestiones ambientales, desde los vertidos nucleares y químicos a la contaminación de aguas subterráneas o el humo del tráfico, involucran decisiones basadas en las mediciones de un número relativamente pequeño de puntos. Las estaciones de monitorización de calidad del aire, por ejemplo, se han convertido en algo común en Europa, pero el alto coste de su puesta en marcha y mantenimiento siempre limitan su número”.

Entonces, ¿cómo encontrar el valor de una variable ambiental en un punto del mapa donde no existe un instrumento de monitorización? La clave la tiene un proceso estadístico llamado interpolación. A partir de un número fijo de las mediciones realizadas en lugares determinados, se crea un mapa que muestra lo que está sucediendo entre los puntos de medición e informa sobre las cuotas de precisión que pueden esperarse de ellos.

El nuevo sistema permite, además, elegir el grado de exactitud que se desea conseguir en función del tiempo del que se disponga para obtener los resultados. Es decir, de acuerdo a un límite temporal el software determina si puede utilizar las técnicas de interpolación más precisas o debe conformarse con modelos menos sofisticados que los que realizan los cálculos a mayor velocidad.

El equipo de investigación invirtió tres años en desarrollar nuevos métodos estadísticos y un software que permitiera la interpolación de los datos ambientales. Sin embargo, la posibilidad de poder convertir la tecnología en algo abierto y fácil de usar fue para ellos tan importante que se llevó una parte considerable de los recursos del proyecto. Por ello hoy el trabajo se sustenta en un software de código abierto vinculado con el mundo exterior a través de servicios web. Así por ejemplo, el sistema acepta datos brutos publicados en Internet utilizando estándares abiertos desarrollados por el Consorcio Geoespacial Abierto (OGC). Una vez que los datos han sido procesados, las aplicaciones web -que se ajustan también a los estándares de OGC- pueden crear mapas de forma automática, mostrarlos en la red y actualizarlos cuando sea necesario.

La clasificación de la exactitud de los mapas constituyó otro gran problema. Aunque utilizaron parámetros estadísticos para evaluar la fiabilidad de sus predicciones, los investigadores no encontraron la forma de transmitir esta información en el contexto de los servicios web. Así que decidieron crear un nuevo dialecto del lenguaje XML, al que bautizaron como “UncertML”, que parece destinado a convertirse en un estándar para el intercambio de información sobre la incertidumbre.

0 0 votos
Article Rating
Subscribe
Notify of
0 Comments
Opiniones Inline
Ver todos los comentarios
0
Me encantaría saber tu opinión, por favor, deja un comentariox
()
x