En la Búsqueda de Soluciones MapReduce Modulares para el Trabajo con BigData: Hadoop Orientado a Aspectos
Resumen En la búsqueda de soluciones MapReduce modulares, la principal meta de este trabajo es aplicar Hadoop y AspectJ para la definición de funciones Aspect-Combine. MapReduce es un enfoque de computación para trabajar con grandes volúmenes de datos (BigData) en un entorno distribuido, con altos n...
Guardado en:
Autores principales: | , , , |
---|---|
Lenguaje: | Spanish / Castilian |
Publicado: |
Centro de Información Tecnológica
2018
|
Materias: | |
Acceso en línea: | http://www.scielo.cl/scielo.php?script=sci_arttext&pid=S0718-07642018000200133 |
Etiquetas: |
Agregar Etiqueta
Sin Etiquetas, Sea el primero en etiquetar este registro!
|
Sumario: | Resumen En la búsqueda de soluciones MapReduce modulares, la principal meta de este trabajo es aplicar Hadoop y AspectJ para la definición de funciones Aspect-Combine. MapReduce es un enfoque de computación para trabajar con grandes volúmenes de datos (BigData) en un entorno distribuido, con altos niveles de abstracción y con el uso ordenado de funciones Map y Reduce, la primera de ellas para el mapeo o identificación de datos relevantes y la segunda para resumir datos y resultados finales. Hadoop es una aplicación libre de MapReduce que permite la definición de funciones Combine para la agrupación local de datos en la fase de Mapeo y así minimizar el tráfico de información entre Mapper y Reducer. Sin embargo, la ejecución de Combine no es garantizada en Hadoop, asunto que motivó este trabajo. Como resultado, se alcanza un mayor grado de modularización desde un punto de vista teórico, y desde el punto de vista práctico también existen mejoras en rendimiento. |
---|