El problema de optimización en una red neuronal artificial: métodos de optimización basados en el gradiente
Descripción del Articulo
El objetivo de la presente investigación es describir y explicar los métodos de optimización basados en el gradiente para minimizar el error global cometido durante el proceso completo de aprendizaje de la red neuronal artificial Perceptrón multicapa. Los métodos de optimización que se describen y e...
Autor: | |
---|---|
Formato: | tesis de grado |
Fecha de Publicación: | 2022 |
Institución: | Universidad Nacional de Piura |
Repositorio: | UNP-Institucional |
Lenguaje: | español |
OAI Identifier: | oai:repositorio.unp.edu.pe:20.500.12676/3411 |
Enlace del recurso: | https://repositorio.unp.edu.pe/handle/20.500.12676/3411 |
Nivel de acceso: | acceso abierto |
Materia: | función de error gradiente descendente gradiente conjugado perceptron multicapa http://purl.org/pe-repo/ocde/ford#1.01.02 |
Sumario: | El objetivo de la presente investigación es describir y explicar los métodos de optimización basados en el gradiente para minimizar el error global cometido durante el proceso completo de aprendizaje de la red neuronal artificial Perceptrón multicapa. Los métodos de optimización que se describen y explican son el método del gradiente descendente y el método del gradiente conjugado. El vector gradiente es la base en el proceso de aprendizaje o entrenamiento de la RNA Perceptrón multicapa. En esta fase de aprendizaje o entrenamiento de la RNA se establecen los pesos de la red que mejor ajusten al modelo. Este ajuste de pesos se lleva a cabo a través de una regla de aprendizaje, construida con el objetivo de minimizar una determinada función de error o coste (la suma de los cuadrados de los errores de salida de la red). Se aplica el operador gradiente descendente sobre dicha función, asegurando así que un cambio en los valores de los pesos provoque un descenso por la superficie de esta función hasta alcanzar el mínimo local más próximo. Los pesos se modifican siguiendo la dirección negativa del gradiente de la función de error. El descenso por la superficie de la función de error busca encontrar un valor mínimo de error (local o global), lo que puede hacer que el proceso de aprendizaje se detenga en un mínimo y así lograr la convergencia de la red. Se utilizó un enfoque cualitativo de tipo descriptivo explicativo. Los resultados obtenidos señalan que métodos de optimación basados en el gradiente son la base en el proceso de entrenamiento o aprendizaje de la red neuronal Perceptron multicapa y que su uso permite minimizar el error global cometido durante el proceso completo de aprendizaje de dicha red neuronal artificial. |
---|
Nota importante:
La información contenida en este registro es de entera responsabilidad de la institución que gestiona el repositorio institucional donde esta contenido este documento o set de datos. El CONCYTEC no se hace responsable por los contenidos (publicaciones y/o datos) accesibles a través del Repositorio Nacional Digital de Ciencia, Tecnología e Innovación de Acceso Abierto (ALICIA).
La información contenida en este registro es de entera responsabilidad de la institución que gestiona el repositorio institucional donde esta contenido este documento o set de datos. El CONCYTEC no se hace responsable por los contenidos (publicaciones y/o datos) accesibles a través del Repositorio Nacional Digital de Ciencia, Tecnología e Innovación de Acceso Abierto (ALICIA).