La Universidad de La Laguna organiza la jornada técnica 'Desmitificando Big Data'

miércoles 04 de junio de 2014 - 13:40 CEST

La jornada, de carácter marcadamente técnico, tendrá lugar el próximo 16 de junio en la Escuela Técnica Superior de Ingeniería Informática de la ULL y contará con la participación de varios profesionales que actualmente están trabajando en tecnologías vinculadas al tratamiento masivo de datos, big data y data science.

La Universidad de La Laguna, a través del Grupo Taro y con la colaboración de la Unidad de Emprendimiento Emprende.ull de la Fundación General, organiza la jornada técnica ‘Desmitificando Big Data’. El evento, de carácter marcadamente técnico, se celebrará el próximo 16 de junio en la Escuela Técnica Superior de Ingeniería Informática de la ULL con el objetivo de de poner en valor las personas y los trabajos de los conferenciantes así como exponer el amplio abanico de tecnologías vinculadas al tratamiento masivo de datos.

El evento reunirá a diferentes profesionales que actualmente están trabajando en tecnologías vinculadas al tratamiento masivo de datos, big data y data science, entre los cuales se encuentran Alberto Perdomo, co-fundador de GrapheneDB; Nacho Coloma, Google Developer Expert; o Alberto González Yanes, Jefe de Servicio de Estadísticas Económicas del Instituto Canario de Estadística (ISTAC).

Las personas interesadas en asistir a la jornada podrán realizar la inscripción de manera totalmente gratuita a través del siguiente enlace.

PROGRAMA

15.30 – Inauguración de la Jornada

Jose Luis Roda @joluroga

Presentación de la Jornada por el profesor titular de la Universidad de La Laguna, Director del grupo de investigación TARO Jose Luis Roda.

16.00 – Big Data y perfiles profesionales

Marcos Colebrook @MColebrook

Big Data está siendo uno de los tópicos que más interés (y recelo) está suscitando a nivel tecnológico en los últimos años. Por ello, se tratará de dar una definición al concepto de Big Data y su relación con otras disciplinas. Además, se mostrarán algunos nuevos perfiles profesionales que se han creado para cubrir las necesidades de estas incipientes tecnologías

16.20 – Google Cloud Platform y Big Data

Nacho Coloma @icoloma

Esta charla introducirá los productos de Google Cloud Platform para la gestión de Big Data. Se contrastarán las funcionalidades que hace a Google Cloud Storage una mejor alternativa que utilizar un almacenamiento en servidores ad hoc, así como algo de trivia respecto a las posibilidades de BigQuery para hacer data mining en la nube, contestando preguntas como ‘cuántos proyectos con Angular existen en producción en la actualidad’ o ‘cuáles son los proyectos de Ruby más activos en Github’.

16.50 – Graphs in Data Science

Alberto Perdomo @albertoperdomo

En esta charla veremos cómo se puede aplicar la teoría de grafos al estudio de datos de datos. Cuando hablamos de BigData nos referimos a grandes conjuntos de datos complejos. Los grafos nos pueden ayudar a entender cómo esos datos están interconectados entre sí y así entenderlos mejor.

17.20 – Pausa café

17.40 – Programming with big data in R: computación paralela con datos distribuidos.

Carlos Pérez

La librería pbdR ofrece algunas clases y métodos en el lenguaje de programación de R que pueden ser utilizados por estadísticos y analistas en minería de datos. La librería permite utilizar un sistema de memoria distribuida donde los datos son analizados por varios nodos de computación. Dicho análisis se realiza en modo de proceso de lotes, mientras que las comunicaciones entre los nodos se lleva a cabo utilizando la Interfaz de Paso de Mensajes (MPI) usada de forma amplia en sistemas de computación de alto rendimiento.

18.00 – Big Data, nuevos retos para la estadística pública

Alberto González @agonzalezyanes

En esta ponencia se revisarán las reflexiones del Memorando de Scheveningen ?Big Data and Official Statistics? realizando un acercamientos a los retos, problemas y oportunidades a los que se enfrentan las oficinas de estadística pública como consecuencia de los procesos de datificación masiva y las tecnologías de tratamiento de grandes volúmenes de datos

18.20 – Geosophic: Un caso de captura y análisis de datos en una startup

Tana Cerdeña @chozero

Geosophic ofrece servicios a aplicaciones móviles, que incluyen la captura y análisis de una gran cantidad de datos. En esta charla contaré un poco acerca de ese proceso, las herramientas y técnicas que utilizamos y futuras acciones que tomaremos

18.40 – MapReduce, el algoritmo de BigData

Ale Tejera @AleTejota

Cuando tenemos la intención de procesar Big Data, surge la necesidad de plantear un mecanismo que nos permita manipular esa enorme cantidad de información. Durante mucho tiempo empresas como Google, Facebook, Yahoo, IBM, Intel, Hortonworks, Apache, etc… llevan desarrollando las técnicas más innovadoras para hacer menos costoso el procesamiento de Big Data, y así evitar grandes inversiones en un desarrollo paralelo en un clúster HPC. Veremos como funciona MapReduce, el algoritmo diseñado inicialmente por Google para calcular su PageRank, y utilizado por todas estas grandes empresas que se nutren de Big Data.

18.55 – Genome (Big) Data: Retos en la nueva era de la secuenciación masiva

Adrián Báez

Las ciencias biomédicas dependen de grandes conjuntos de datos. El uso de máquinas capaces de generar cantidades ingentes de datos con bajo coste ha introducido la ciencia en la era del ‘Big Data’, haciendo indispensables infraestructuras computacionales para mantener, transferir y analizar toda esta información a gran escala.

19.10 – Big data para la visualización de clientes potenciales

Miguel Pérez, Guillermo Rodríguez, Tinguaro Cubas

Preprocesamiento de datos en Big data y posterior aplicación de técnicas de Clustering para la visualización de los clientes potenciales. Experiencias a la hora de presentar y elaborar la idea para un concurso de Big Data Internacional.

19.25 – Mesa redonda

20.00 – Clausura

PONENTES

Marcos Colebrook, licenciado en Informática por Universidad de las Palmas de Gran Canaria y Doctor con Mención de Doctorado Europeo por la Universidad de La Laguna dentro del Programa en Estadística, Investigación Operativa y Computación. Actualmente, es profesor titular de la Universidad de La Laguna. En relación a la ETS de Ingeniería Informática, ha impartido diferentes asignaturas en prácticamente todas las titulaciones de la escuela, y ha dirigido más de una decena de Proyectos Fin de Carrera/Trabajos Fin de Grado. Autor de varias publicaciones científicas (artículos y capítulos de libros), así como de ponencias a congresos nacionales e internacionales. Ha participado en más de una docena de proyectos de I D i, y tiene reconocidos dos tramos de investigación (sexenios). Sus intereses en las líneas de investigación son: la Optimización y la Algoritmia, la Analítica de Datos (Analytics – Data Science – Big Data), y la Genómica.

Nacho Coloma is a Google Developer Expert for the Cloud Platform. The GDE program recognizes exemplary work. Google Developers Experts speak in local and global events, have a strong online presence and an excellent technical background in their field. These independent developers bring their real-world experience and knowledge working with Google technologies to developer communities worldwide.

Nacho founded Extrema Sistemas in 2002, an IT training and consulting firm in Madrid. As CTO, Nacho has designed the architecture of:

* The control system that handles all naval traffic in the coast of Poland.

* The Resource Management System in use by all airports in Spain.

* Several Air Traffic Control systems.

* Multiple e-banking systems for Spanish and Swiss banks, including BBVA.

* The biggest logistics marketplace in the south of Europe ( 9,000 customers)

* Many others: Railway Management, Tourism, etc.

Some of these solutions were presented later at tech conferences such as Codemotion, JavaExpo or Devoxx.

Alberto Perdomo es co-fundador de GrapheneDB (alojamiento de Neo4j en la nube), servicio líder en alojamiento para la base de datos de grafos Neo4j. Es un consultor y emprendedor con una dilatada experiencia en desarrollo y gestión de proyectos. Desde el 2007 co-dirige Aentos, una pequeña consultora que desarrolla aplicaciones web y móviles en Canarias para clientes de España, Europa y Estados Unidos. Al frente de Aentos, ha acumulado años de experiencia en la utilización de bases de datos NoSQL como MongoDB, Redis o Neo4j en diversos proyectos de cliente y propios.

Carlos Pérez González es profesor asociado doctor del Departamento de Matemática Fundamental y Estadística. En su trabajo como investigador de la Universidad de La Laguna ha llevado a cabo diferentes estudios en el ámbito del control estadístico de la calidad. También ha desarrollado trabajos en el campo de la estadística pública y en estadística aplicada a la biología en colaboración con otros investigadores. Tiene diversas publicaciones en revistas internacionales y ha participado en múltiples congresos nacionales e internacionales. Compagina su actividad docente a tiempo parcial en la Universidad de La Laguna con las tareas de gestión, análisis y explotación estadística de la información en bases de datos dentro del Gabinete de Planificación de dicha institución. Ha colaborado como asesor estadístico en diferentes proyectos con instituciones públicas como el Servicio Canario de Empleo y, actualmente, participa de forma activa con el Instituto Canario de Estadística en varios proyectos importantes relacionados con datos masivos.

Alberto González Yanes es licenciado en Matemáticas por la Universidad de La Laguna. Técnico Estadístico Superior del Gobierno de Canarias, y en la actualidad es el Jefe de Servicio de Estadísticas Económicas del Instituto Canario de Estadística (ISTAC).

Como Jefe de Servicio de Estadísticas Económicas coordina la actividad del mismo: estadísticas económicas, estadísticas ambientales, estadísticas laborales y estadísticas de ciencia y tecnología; y como tal ha contribuido en el desarrollo de proyectos de I D asociados a las estimaciones en pequeñas áreas de Canarias. Y a su vez es Director de la Unidad Mixta de Metodología e Investigación en Estadística Pública entre el ISTAC y la ULL creada según lo contemplado en el artículo 34.1b de la Ley 14/2011.

Jefe del proyecto ?Política de difusión de estadísticas? y del proyecto ?Sistema de Metadatos Estadísticos? del Plan Estratégico 2010-2015 del ISTAC, desde los que se abordan múltiples acciones sobre apertura de datos estadísticos. Coordinador del proyecto europeo METAMAC, ejecutado por las Oficinas de Estadística de la Macaronesia Europea, de desarrollo de un sistema integrado de metadatos estadísticos e implantación del estándar SDMX (Statistical Data and Metadata Exchange).

Tana Cerdeña, ?Desarrollador de Producto e Ingeniero Informático’. Trato de enfocarme en entregar usando buenas prácticas para mantener la calidad del producto y de los procesos.He desarrollado una buena capacidad de análisis y visión de negocio que me han permitido conectar bien entre los requisitos de negocio y las tareas técnicas. En Geosophic ejerzo las funciones de director técnico, haciendo todo lo posible para dar servicio a cientos de clientes con cientos de miles de usuarios

Alejandro Tejera, alumno de Ingeniería Informática en la ETSII de la Universidad de La Laguna, actualmente trabajando para Arte-Consultores y en mi PFC Técnicas de Big Data con MapReduce

Adrián Báez tiene 23 años y es estudiante de Ingeniería Informática en la Universidad de La Laguna. Actualmente está desarrollando un servicio web de ensamblado genómico para el Instituto Universitario de Enfermedades Tropicales y Salud Pública de Canarias. Interesado en la aplicación de computación paralela al problema de ensamblado de grandes genomas.

 

Guillermo Rodríguez Pardo, Tinguaro Cubas Saiz y Miguel Pérez Bello. Estudiantes del último curso del Grado en Ingeniería Informática, en proceso de creación de una empresa de Software. Tenemos experiencia en la creación de portales webs y aplicaciones móviles, entre otras. Guillermo ha complementado su formación con el mundo de los videojuegos aprendiendo el uso de tecnologías gráficas como OpenGL, Unity3D, etc.

Miguel se ha especializado en el tratamiento de datos y en la aplicación de técnicas metaheurísticas para la obtención de conclusiones y para el agrupamiento o Clustering.

Tinguaro ha enfocado su formación en el diseño de lenguajes de propósito específico con el objetivo de ofertar servicios web, entre otras. También posee experiencia en el uso de Unity3D.