El big data o conjunto de nuevas tecnologías que permiten realizar distintos tipos de análisis sobre grandes colecciones de datos centró las segundas jornadas de las conferencias celebradas por la Escuela Superior de Informática de la Universidad de Castilla-La Mancha (UCLM) en el Campus de Ciudad Real durante el curso académico.
La jornada contó con la participación de cuatro ponentes de reconocida reputación en el sector profesional y académico, quienes presentaron distintos aspectos relacionados con el dig data y profundizaron en las tecnologías, metodologías y algoritmos que todo profesional debe ofrecer.
La sesión fue abierta por Arturo Peralta, director técnico de DocPath, quien repasó conceptos introductorios data y explicó cómo se han aplicado los principios de la inteligencia de datos a proyectos de I+D de catalogación de documentos que su empresa realiza con el grupo de investigación SMILE de la Escuela Superior de Informática. Tras su intervención, Nieves Brisaboa, catedrática de la Universidad de La Coruña, explicó los fundamentos de compresión mediante creación de índices para realizar búsquedas más rápidas en grandes volúmenes de datos.
La segunda parte de la sesión se completó con Javier Ramírez, socio fundador de teowaki.es y de datawaki.es y Google Developer Expert, que contó cómo montó su empresa con aplicaciones Open Source y el servicio BigTable de Google para procesar los datos de sus clientes. Finalmente, Ismael Navas, de la Universidad de Málaga, explicó los fundamentos de los algoritmos que habían desarrollado para el análisis de sentimientos en redes sociales.
Tras las presentaciones, se estableció una mesa redonda en la que los participantes debatieron sobre la privacidad de los datos usados por las empresas, discutieron sobre el futuro de estas tecnologías y comentaron las aptitudes y actitudes que los alumnos de la Escuela Superior de Informática deberían adquirir para ser profesionales de macrodatos.
Big data es una denominación con la que se alude a un conjunto de datos tal que por su volumen, variedad y por la velocidad a la que necesita ser procesado supera las capacidades de los sistemas informáticos habituales. Quienes se dedican a ello son llamados científicos de datos o data scientists y constituyen una nueva profesión cada vez más demandada, pero pobremente cubierta por la falta de profesionales. De hecho, según la consultora McKinsey, se estima que para el año 2018 haya una brecha del 50% entre la demanda y la oferta de este tipo de profesionales.