El problema de optimización en una red neuronal artificial: métodos de optimización basados en el gradiente

Descripción del Articulo

El objetivo de la presente investigación es describir y explicar los métodos de optimización basados en el gradiente para minimizar el error global cometido durante el proceso completo de aprendizaje de la red neuronal artificial Perceptrón multicapa. Los métodos de optimización que se describen y e...

Descripción completa

Detalles Bibliográficos
Autor: Timaná Yarlequé, Fiorella
Formato: tesis de grado
Fecha de Publicación:2022
Institución:Universidad Nacional de Piura
Repositorio:UNP-Institucional
Lenguaje:español
OAI Identifier:oai:repositorio.unp.edu.pe:20.500.12676/3411
Enlace del recurso:https://repositorio.unp.edu.pe/handle/20.500.12676/3411
Nivel de acceso:acceso abierto
Materia:función de error
gradiente descendente
gradiente conjugado
perceptron multicapa
http://purl.org/pe-repo/ocde/ford#1.01.02
Descripción
Sumario:El objetivo de la presente investigación es describir y explicar los métodos de optimización basados en el gradiente para minimizar el error global cometido durante el proceso completo de aprendizaje de la red neuronal artificial Perceptrón multicapa. Los métodos de optimización que se describen y explican son el método del gradiente descendente y el método del gradiente conjugado. El vector gradiente es la base en el proceso de aprendizaje o entrenamiento de la RNA Perceptrón multicapa. En esta fase de aprendizaje o entrenamiento de la RNA se establecen los pesos de la red que mejor ajusten al modelo. Este ajuste de pesos se lleva a cabo a través de una regla de aprendizaje, construida con el objetivo de minimizar una determinada función de error o coste (la suma de los cuadrados de los errores de salida de la red). Se aplica el operador gradiente descendente sobre dicha función, asegurando así que un cambio en los valores de los pesos provoque un descenso por la superficie de esta función hasta alcanzar el mínimo local más próximo. Los pesos se modifican siguiendo la dirección negativa del gradiente de la función de error. El descenso por la superficie de la función de error busca encontrar un valor mínimo de error (local o global), lo que puede hacer que el proceso de aprendizaje se detenga en un mínimo y así lograr la convergencia de la red. Se utilizó un enfoque cualitativo de tipo descriptivo explicativo. Los resultados obtenidos señalan que métodos de optimación basados en el gradiente son la base en el proceso de entrenamiento o aprendizaje de la red neuronal Perceptron multicapa y que su uso permite minimizar el error global cometido durante el proceso completo de aprendizaje de dicha red neuronal artificial.
Nota importante:
La información contenida en este registro es de entera responsabilidad de la institución que gestiona el repositorio institucional donde esta contenido este documento o set de datos. El CONCYTEC no se hace responsable por los contenidos (publicaciones y/o datos) accesibles a través del Repositorio Nacional Digital de Ciencia, Tecnología e Innovación de Acceso Abierto (ALICIA).