Buscador de noticias

Por título o palabra clave

Compartir noticia:

Cs. Físicas y Matemáticas

Expertos del CMM discuten las oportunidades del Big Data en un influyente seminario

La actividad es una de las instancias más influyentes de discusión sobre innovación.

La actividad es una de las instancias más influyentes de discusión sobre innovación.

Junto a representantes de la industria y otras instituciones científicas, expusieron sobre el desarrollo de la computación de alto rendimiento y las investigaciones que desarrollan para abordar el procesamiento de grandes volúmenes de datos.

Un grupo de investigadores y científicos del Centro de Modelamiento Matemático (CMM) de la Facultad de Ciencias Físicas y Matemáticas (FCFM) de la Universidad de Chile tuvo una destacada participación en el seminario Big Data: El valor de la información. Entre los cinco principales conferencistas del encuentro, estuvo Eduardo Vera, director del Laboratorio Nacional de Computación de Alto Rendimiento (NLHPC) de la FCFM. En paralelo, el investigador Felipe Tobar exhibió un poster en la presentación de trabajos y la investigación del Laboratorio de Astroinformática fue una de las cinco destacadas para ser expuestas en el salón principal.

La actividad, organizada por la Fundación Copec UC, es una de las instancias más influyentes de discusión sobre innovación entre representantes de las empresas y la ciencia en Chile.

El Prof. Vera compartió escenario junto a Rob Thomas, vicepresidente de Desarrollo de Productos, Big Data y Análisis de Datos de IBM; Bryan Eisemberg, consultor de Google y HP; Peter Hofstee, investigador de IBM, y Claude Puech, director ejecutivo de Inria Chile.

El miembro del CMM y académico de la FCFM expuso sobre la experiencia del NLHPC al servicio de investigaciones científicas. Dio detalles sobre la capacidad de supercómputo que ofrece Leftraru, el computador más poderoso de Chile, y entró en detalles sobre algunas investigaciones que se han desarrollado tanto en la ciencia, como en aplicaciones industriales que se podrían realizar en minería.

También profundizó en los desafíos que implica la combinación de Big Data, computación de alto rendimiento para procesar los datos y analizarlos y redes de información de alta velocidad.

“Necesitamos data scientists que no necesariamente sepan computación, pero que sepan trabajar los datos”, explicó Eduardo Vera, quien afirmó que faltan 140 mil de estos expertos solo en Estados Unidos. “Otro desafío es la educación, la penetración de estas herramientas no solo en los centros de investigación, sino también en la sociedad”

El director del NLHPC también puso énfasis en la necesidad de contar con una red fotónica nacional.

Posters y otras charlas

En paralelo, hubo una presentación de 20 posters con innovaciones científicas. De ellos, dos pertenecían a miembros del CMM.

Felipe Tobar presentó un modelo matemático para procesos que varían en el tiempo. Dicho modelo usa conceptos de aprendizaje de máquinas para autoajustarse sobre la base de los datos observados y tiene un costo computacional muy inferior a enfoques clásicos. El método propuesto permite estimar, predecir y comprimir eficientemente datos proveniente de aplicaciones financieras, climáticas, biomédicas y de audio; esta metodología abre nuevas posibilidades para el procesamiento grandes volúmenes de datos en distintas áreas.

Los resultados presentados han sido obtenidos en el marco del proyecto Conicyt ‘Machine Learning meets Signal Processing’, del cual Tobar es investigador principal. Extensiones teóricas y nuevos resultados prácticos, en colaboración con el grupo de aprendizaje de máquinas de University of Cambridge, serán presentados el próximo 8 de diciembre en la conferencia Neural Information Processing Systems en Montreal.

El Laboratorio de Astroinformática también preparó un póster sobre la investigación que descubrió 61 supernovas en tiempo real durante seis noches en febrero. Ahí, mostraron el proceso que fue desde el diseño de un software para analizar las imágenes donde se detectaron estas estrellas, pasando por la toma de imágenes en el Observatorio Cerro Tololo, la transmisión de datos a través de la red fotónica de Reuna y el procesamiento de esta información en el supercomputador del NLHPC. Hoy, llevan 135 supernovas descubiertas en nuevas revisiones de las fotos y el mejoramiento del software. Su investigación estuvo entre las cinco seleccionadas por la Fundación Copec UC de un total de 20 para ser expuestas al final del seminario. La charla estuvo a cargo de Juan Carlos Maureira, científico CMM. 

Comunicaciones Centro de Modelamiento Matemático (CMM)

Martes 1 de diciembre de 2015

Compartir:
http://uchile.cl/i117716
Copiar

Enviar

Nombre Destinatario:
E-mail Destinatario:
Su nombre:
Su e-mail:
Comentarios: