z-logo
open-access-imgOpen Access
Estudio comparativo de los algoritmos backpropagation (bp) y multiple linear regression (mlr) a través del análisis estadístico de datos aplicado a redes neuronales artificiales
Author(s) -
Iván Mesias Hidalgo-Cajo,
Saul Yasaca-Pucuna,
Byron Geovanny Hidalgo Cajo,
Diego Patricio Hidalgo-Cajo,
Nelly Baltazara Latorre-Benalcázar
Publication year - 2020
Publication title -
boletín redipe
Language(s) - Spanish
Resource type - Journals
ISSN - 2256-1536
DOI - 10.36260/rbr.v9i3.939
Subject(s) - humanities , linear regression , backpropagation , mathematics , artificial neural network , artificial intelligence , computer science , statistics , philosophy
El objetivo de la investigación es comparar el algoritmo Backpropagation desarrollado por el usuario bajo software libre Java y el algoritmo Multiple Linear Regression, dicha comparación demanda del análisis estadístico decriptivo basado en redes neuronales artificiales. Se utilizó específicamente dos modelos de algoritmos de predicción aplicados a 451 patrones o registros a procesar que están repartidos en las primeras 401 filas para entrenamiento de la red neuronal y los otros 50 registros para validación y prueba, conformado por  4 variables de entrada (Height above sea level, Fall, Net fall, Flux) y 1 variable a predecir (Power turbine), para las diferentes pruebas los parámetros de entrenamiento y selección con los mejores resultados son: Architecture of the neural network, Type of scaling of data, Initial range of weight and thresholds, Learning rate and Momentum, Batched / online, Number of training epochs. Entre los resultados de comparación de los algoritmos analizados se determinó que el error en mayor iteracciones es menor que son respuestas de los 50 patrones de prueba. En el algoritmo Multiple Linear Regression  la variable real es el valor de la variable a predecir, esta variable es la suministrada a predecir por el usuario y es el valor que se predijo de la red neuronal, la variable prediction es la diferencia que se hace de la resta de los anteriores errores y se lo realiza para calcular el error y el total error es el valor mínimo a obtener que representa el error calculado de todos los datos, es decir el porcentaje de error de la red neuronal de back-propagation. Entre más bajo es este porcentaje mejor será la red, porque menor será su porcentaje de error.

The content you want is available to Zendy users.

Already have an account? Click here to sign in.
Having issues? You can contact us here