
Diseño de una arquitectura para el procesamiento distribuido de grandes volúmenes de datos
Author(s) -
Julio César Huanca Marín,
Luz Delia Quina Quina,
Claudio Bravo,
Guido Bravo Mendoza
Publication year - 2021
Publication title -
ñawparisun
Language(s) - Spanish
Resource type - Journals
eISSN - 2706-6789
pISSN - 2663-5917
DOI - 10.47190/nric.v3i3.9
Subject(s) - humanities , art
Actualmente, Big Data se ha convertido en un concepto que está presente en muchas actividades, y su importancia es debido a que es utilizado en diversos aspectos que conduzcan a mejorar decisiones en el campo empresarial y gubernamental. Es posible analizar los grandes volúmenes de datos, tanto estructurados como no estructurados, que a cada día aumentan en los diferentes negocios y campos del conocimiento. Para obtener resultados satisfactorios es importante diseñar una arquitectura físicamente en base a Hardware Commodity (homogénea, heterogénea), escalable horizontalmente y con tolerancia a fallas. De esta manera, actualmente, con la evolución de las herramientas, es conveniente utilizar un híbrido donde la parte lógica trabaja con el Framework Apache Hadoop 2.0, que realiza el procesamiento de datos en paralelo (utilizando YARN), con almacenamiento HDFS (Sistema de Archivos Distribuidos sobre Hadoop) y agregando Spark para el tratamiento en memoria con respuestas en tiempo real y la utilización de recursos gráficos mediante Apache Ambari.