Revista Boletín Redipe (Mar 2020)

Estudio comparativo de los algoritmos backpropagation (bp) y multiple linear regression (mlr) a través del análisis estadístico de datos aplicado a redes neuronales artificiales

  • Iván Mesias Hidalgo-Cajo,
  • Saul Yasaca-Pucuna,
  • Byron Geovanny Hidalgo-Cajo,
  • Diego Patricio Hidalgo-Cajo,
  • Nelly Baltazara Latorre-Benalcázar

DOI
https://doi.org/10.36260/rbr.v9i3.939
Journal volume & issue
Vol. 9, no. 3

Abstract

Read online

El objetivo de la investigación es comparar el algoritmo Backpropagation desarrollado por el usuario bajo software libre Java y el algoritmo Multiple Linear Regression, dicha comparación demanda del análisis estadístico decriptivo basado en redes neuronales artificiales. Se utilizó específicamente dos modelos de algoritmos de predicción aplicados a 451 patrones o registros a procesar que están repartidos en las primeras 401 filas para entrenamiento de la red neuronal y los otros 50 registros para validación y prueba, conformado por 4 variables de entrada (Height above sea level, Fall, Net fall, Flux) y 1 variable a predecir (Power turbine), para las diferentes pruebas los parámetros de entrenamiento y selección con los mejores resultados son: Architecture of the neural network, Type of scaling of data, Initial range of weight and thresholds, Learning rate and Momentum, Batched / online, Number of training epochs. Entre los resultados de comparación de los algoritmos analizados se determinó que el error en mayor iteracciones es menor que son respuestas de los 50 patrones de prueba. En el algoritmo Multiple Linear Regression la variable real es el valor de la variable a predecir, esta variable es la suministrada a predecir por el usuario y es el valor que se predijo de la red neuronal, la variable prediction es la diferencia que se hace de la resta de los anteriores errores y se lo realiza para calcular el error y el total error es el valor mínimo a obtener que representa el error calculado de todos los datos, es decir el porcentaje de error de la red neuronal de back-propagation. Entre más bajo es este porcentaje mejor será la red, porque menor será su porcentaje de error.

Keywords