En la Búsqueda de Soluciones MapReduce Modulares para el Trabajo con BigData: Hadoop Orientado a Aspectos

Resumen En la búsqueda de soluciones MapReduce modulares, la principal meta de este trabajo es aplicar Hadoop y AspectJ para la definición de funciones Aspect-Combine. MapReduce es un enfoque de computación para trabajar con grandes volúmenes de datos (BigData) en un entorno distribuido, con altos n...

Full description

Saved in:
Bibliographic Details
Main Authors: Vidal-Silva,Cristian L., Bustamante,Miguel A., Lapo,María del C., Núñez,María de los Á.
Language:Spanish / Castilian
Published: Centro de Información Tecnológica 2018
Subjects:
Online Access:http://www.scielo.cl/scielo.php?script=sci_arttext&pid=S0718-07642018000200133
Tags: Add Tag
No Tags, Be the first to tag this record!
Description
Summary:Resumen En la búsqueda de soluciones MapReduce modulares, la principal meta de este trabajo es aplicar Hadoop y AspectJ para la definición de funciones Aspect-Combine. MapReduce es un enfoque de computación para trabajar con grandes volúmenes de datos (BigData) en un entorno distribuido, con altos niveles de abstracción y con el uso ordenado de funciones Map y Reduce, la primera de ellas para el mapeo o identificación de datos relevantes y la segunda para resumir datos y resultados finales. Hadoop es una aplicación libre de MapReduce que permite la definición de funciones Combine para la agrupación local de datos en la fase de Mapeo y así minimizar el tráfico de información entre Mapper y Reducer. Sin embargo, la ejecución de Combine no es garantizada en Hadoop, asunto que motivó este trabajo. Como resultado, se alcanza un mayor grado de modularización desde un punto de vista teórico, y desde el punto de vista práctico también existen mejoras en rendimiento.