El problema de optimización en una red neuronal artificial: métodos de optimización basados en el gradiente

Descripción del Articulo

El objetivo de la presente investigación es describir y explicar los métodos de optimización basados en el gradiente para minimizar el error global cometido durante el proceso completo de aprendizaje de la red neuronal artificial Perceptrón multicapa. Los métodos de optimización que se describen y e...

Descripción completa

Detalles Bibliográficos
Autor: Timaná Yarlequé, Fiorella
Formato: tesis de grado
Fecha de Publicación:2022
Institución:Universidad Nacional de Piura
Repositorio:UNP-Institucional
Lenguaje:español
OAI Identifier:oai:repositorio.unp.edu.pe:20.500.12676/3411
Enlace del recurso:https://repositorio.unp.edu.pe/handle/20.500.12676/3411
Nivel de acceso:acceso abierto
Materia:función de error
gradiente descendente
gradiente conjugado
perceptron multicapa
http://purl.org/pe-repo/ocde/ford#1.01.02
id RUMP_df9dbf672befa8cd3695f8906d07e018
oai_identifier_str oai:repositorio.unp.edu.pe:20.500.12676/3411
network_acronym_str RUMP
network_name_str UNP-Institucional
repository_id_str 4814
dc.title.es_PE.fl_str_mv El problema de optimización en una red neuronal artificial: métodos de optimización basados en el gradiente
title El problema de optimización en una red neuronal artificial: métodos de optimización basados en el gradiente
spellingShingle El problema de optimización en una red neuronal artificial: métodos de optimización basados en el gradiente
Timaná Yarlequé, Fiorella
función de error
gradiente descendente
gradiente conjugado
perceptron multicapa
http://purl.org/pe-repo/ocde/ford#1.01.02
title_short El problema de optimización en una red neuronal artificial: métodos de optimización basados en el gradiente
title_full El problema de optimización en una red neuronal artificial: métodos de optimización basados en el gradiente
title_fullStr El problema de optimización en una red neuronal artificial: métodos de optimización basados en el gradiente
title_full_unstemmed El problema de optimización en una red neuronal artificial: métodos de optimización basados en el gradiente
title_sort El problema de optimización en una red neuronal artificial: métodos de optimización basados en el gradiente
author Timaná Yarlequé, Fiorella
author_facet Timaná Yarlequé, Fiorella
author_role author
dc.contributor.advisor.fl_str_mv Crespo Guerrero, Gloria Solvey
dc.contributor.author.fl_str_mv Timaná Yarlequé, Fiorella
dc.subject.es_PE.fl_str_mv función de error
gradiente descendente
gradiente conjugado
perceptron multicapa
topic función de error
gradiente descendente
gradiente conjugado
perceptron multicapa
http://purl.org/pe-repo/ocde/ford#1.01.02
dc.subject.ocde.es_PE.fl_str_mv http://purl.org/pe-repo/ocde/ford#1.01.02
description El objetivo de la presente investigación es describir y explicar los métodos de optimización basados en el gradiente para minimizar el error global cometido durante el proceso completo de aprendizaje de la red neuronal artificial Perceptrón multicapa. Los métodos de optimización que se describen y explican son el método del gradiente descendente y el método del gradiente conjugado. El vector gradiente es la base en el proceso de aprendizaje o entrenamiento de la RNA Perceptrón multicapa. En esta fase de aprendizaje o entrenamiento de la RNA se establecen los pesos de la red que mejor ajusten al modelo. Este ajuste de pesos se lleva a cabo a través de una regla de aprendizaje, construida con el objetivo de minimizar una determinada función de error o coste (la suma de los cuadrados de los errores de salida de la red). Se aplica el operador gradiente descendente sobre dicha función, asegurando así que un cambio en los valores de los pesos provoque un descenso por la superficie de esta función hasta alcanzar el mínimo local más próximo. Los pesos se modifican siguiendo la dirección negativa del gradiente de la función de error. El descenso por la superficie de la función de error busca encontrar un valor mínimo de error (local o global), lo que puede hacer que el proceso de aprendizaje se detenga en un mínimo y así lograr la convergencia de la red. Se utilizó un enfoque cualitativo de tipo descriptivo explicativo. Los resultados obtenidos señalan que métodos de optimación basados en el gradiente son la base en el proceso de entrenamiento o aprendizaje de la red neuronal Perceptron multicapa y que su uso permite minimizar el error global cometido durante el proceso completo de aprendizaje de dicha red neuronal artificial.
publishDate 2022
dc.date.accessioned.none.fl_str_mv 2022-06-04T15:43:53Z
dc.date.available.none.fl_str_mv 2022-06-04T15:43:53Z
dc.date.issued.fl_str_mv 2022
dc.type.es_PE.fl_str_mv info:eu-repo/semantics/bachelorThesis
dc.type.version.es_PE.fl_str_mv info:eu-repo/semantics/publishedVersion
format bachelorThesis
status_str publishedVersion
dc.identifier.uri.none.fl_str_mv https://repositorio.unp.edu.pe/handle/20.500.12676/3411
url https://repositorio.unp.edu.pe/handle/20.500.12676/3411
dc.language.iso.es_PE.fl_str_mv spa
language spa
dc.relation.ispartof.fl_str_mv SUNEDU
dc.rights.es_PE.fl_str_mv info:eu-repo/semantics/openAccess
dc.rights.*.fl_str_mv Attribution-NonCommercial-NoDerivatives 4.0 Internacional
dc.rights.uri.*.fl_str_mv http://creativecommons.org/licenses/by-nc-nd/4.0/
eu_rights_str_mv openAccess
rights_invalid_str_mv Attribution-NonCommercial-NoDerivatives 4.0 Internacional
http://creativecommons.org/licenses/by-nc-nd/4.0/
dc.format.es_PE.fl_str_mv application/pdf
dc.publisher.es_PE.fl_str_mv Universidad Nacional de Piura
dc.publisher.country.es_PE.fl_str_mv PE
dc.source.es_PE.fl_str_mv Universidad Nacional de Piura
Repositorio Institucional Digital - UNP
dc.source.none.fl_str_mv reponame:UNP-Institucional
instname:Universidad Nacional de Piura
instacron:UNP
instname_str Universidad Nacional de Piura
instacron_str UNP
institution UNP
reponame_str UNP-Institucional
collection UNP-Institucional
bitstream.url.fl_str_mv https://repositorio.unp.edu.pe/bitstreams/d0804194-53a7-4f05-88b8-a77fc96b29b7/download
https://repositorio.unp.edu.pe/bitstreams/a79b6366-4275-4ec0-8efc-90d458957022/download
https://repositorio.unp.edu.pe/bitstreams/73f2ccc9-8685-4ce6-acfc-62dc450517c7/download
https://repositorio.unp.edu.pe/bitstreams/f75a4bf8-23bc-4add-80d1-69a7854e1184/download
bitstream.checksum.fl_str_mv 47634219a5d81fc8adb6184e3ffa1e2b
4460e5956bc1d1639be9ae6146a50347
8a4605be74aa9ea9d79846c1fba20a33
bddf82e42b7d3f5f3faf0e76dbb9d8ad
bitstream.checksumAlgorithm.fl_str_mv MD5
MD5
MD5
MD5
repository.name.fl_str_mv DSPACE7 UNP
repository.mail.fl_str_mv dspace-help@myu.edu
_version_ 1846425801345466368
spelling Crespo Guerrero, Gloria SolveyTimaná Yarlequé, Fiorella2022-06-04T15:43:53Z2022-06-04T15:43:53Z2022https://repositorio.unp.edu.pe/handle/20.500.12676/3411El objetivo de la presente investigación es describir y explicar los métodos de optimización basados en el gradiente para minimizar el error global cometido durante el proceso completo de aprendizaje de la red neuronal artificial Perceptrón multicapa. Los métodos de optimización que se describen y explican son el método del gradiente descendente y el método del gradiente conjugado. El vector gradiente es la base en el proceso de aprendizaje o entrenamiento de la RNA Perceptrón multicapa. En esta fase de aprendizaje o entrenamiento de la RNA se establecen los pesos de la red que mejor ajusten al modelo. Este ajuste de pesos se lleva a cabo a través de una regla de aprendizaje, construida con el objetivo de minimizar una determinada función de error o coste (la suma de los cuadrados de los errores de salida de la red). Se aplica el operador gradiente descendente sobre dicha función, asegurando así que un cambio en los valores de los pesos provoque un descenso por la superficie de esta función hasta alcanzar el mínimo local más próximo. Los pesos se modifican siguiendo la dirección negativa del gradiente de la función de error. El descenso por la superficie de la función de error busca encontrar un valor mínimo de error (local o global), lo que puede hacer que el proceso de aprendizaje se detenga en un mínimo y así lograr la convergencia de la red. Se utilizó un enfoque cualitativo de tipo descriptivo explicativo. Los resultados obtenidos señalan que métodos de optimación basados en el gradiente son la base en el proceso de entrenamiento o aprendizaje de la red neuronal Perceptron multicapa y que su uso permite minimizar el error global cometido durante el proceso completo de aprendizaje de dicha red neuronal artificial.application/pdfspaUniversidad Nacional de PiuraPEinfo:eu-repo/semantics/openAccessAttribution-NonCommercial-NoDerivatives 4.0 Internacionalhttp://creativecommons.org/licenses/by-nc-nd/4.0/Universidad Nacional de PiuraRepositorio Institucional Digital - UNPreponame:UNP-Institucionalinstname:Universidad Nacional de Piurainstacron:UNPfunción de errorgradiente descendentegradiente conjugadoperceptron multicapahttp://purl.org/pe-repo/ocde/ford#1.01.02El problema de optimización en una red neuronal artificial: métodos de optimización basados en el gradienteinfo:eu-repo/semantics/bachelorThesisinfo:eu-repo/semantics/publishedVersionSUNEDULicenciado en MatemáticaUniversidad Nacional de Piura. Facultad de CienciasMatemáticaLópez Castillo, Julio EnriqueSilva Mechato, José del CarmenAredo Alvarado, María Angelita541026http://purl.org/pe-repo/renati/nivel#tituloProfesional03369513https://orcid.org/0000-0002-5161-5297http://purl.org/pe-repo/renati/type#trabajoDeSuficienciaProfesional46175961ORIGINALMATE-TIM-YAR-2022.pdfMATE-TIM-YAR-2022.pdfapplication/pdf2265927https://repositorio.unp.edu.pe/bitstreams/d0804194-53a7-4f05-88b8-a77fc96b29b7/download47634219a5d81fc8adb6184e3ffa1e2bMD51CC-LICENSElicense_rdflicense_rdfapplication/rdf+xml; charset=utf-8805https://repositorio.unp.edu.pe/bitstreams/a79b6366-4275-4ec0-8efc-90d458957022/download4460e5956bc1d1639be9ae6146a50347MD52LICENSElicense.txtlicense.txttext/plain; charset=utf-81748https://repositorio.unp.edu.pe/bitstreams/73f2ccc9-8685-4ce6-acfc-62dc450517c7/download8a4605be74aa9ea9d79846c1fba20a33MD53THUMBNAILMATE-TIM-YAR-2022.pngMATE-TIM-YAR-2022.pngimage/png10317https://repositorio.unp.edu.pe/bitstreams/f75a4bf8-23bc-4add-80d1-69a7854e1184/downloadbddf82e42b7d3f5f3faf0e76dbb9d8adMD5420.500.12676/3411oai:repositorio.unp.edu.pe:20.500.12676/34112022-06-04 11:00:51.388http://creativecommons.org/licenses/by-nc-nd/4.0/info:eu-repo/semantics/openAccessopen.accesshttps://repositorio.unp.edu.peDSPACE7 UNPdspace-help@myu.eduTk9URTogUExBQ0UgWU9VUiBPV04gTElDRU5TRSBIRVJFClRoaXMgc2FtcGxlIGxpY2Vuc2UgaXMgcHJvdmlkZWQgZm9yIGluZm9ybWF0aW9uYWwgcHVycG9zZXMgb25seS4KCk5PTi1FWENMVVNJVkUgRElTVFJJQlVUSU9OIExJQ0VOU0UKCkJ5IHNpZ25pbmcgYW5kIHN1Ym1pdHRpbmcgdGhpcyBsaWNlbnNlLCB5b3UgKHRoZSBhdXRob3Iocykgb3IgY29weXJpZ2h0Cm93bmVyKSBncmFudHMgdG8gRFNwYWNlIFVuaXZlcnNpdHkgKERTVSkgdGhlIG5vbi1leGNsdXNpdmUgcmlnaHQgdG8gcmVwcm9kdWNlLAp0cmFuc2xhdGUgKGFzIGRlZmluZWQgYmVsb3cpLCBhbmQvb3IgZGlzdHJpYnV0ZSB5b3VyIHN1Ym1pc3Npb24gKGluY2x1ZGluZwp0aGUgYWJzdHJhY3QpIHdvcmxkd2lkZSBpbiBwcmludCBhbmQgZWxlY3Ryb25pYyBmb3JtYXQgYW5kIGluIGFueSBtZWRpdW0sCmluY2x1ZGluZyBidXQgbm90IGxpbWl0ZWQgdG8gYXVkaW8gb3IgdmlkZW8uCgpZb3UgYWdyZWUgdGhhdCBEU1UgbWF5LCB3aXRob3V0IGNoYW5naW5nIHRoZSBjb250ZW50LCB0cmFuc2xhdGUgdGhlCnN1Ym1pc3Npb24gdG8gYW55IG1lZGl1bSBvciBmb3JtYXQgZm9yIHRoZSBwdXJwb3NlIG9mIHByZXNlcnZhdGlvbi4KCllvdSBhbHNvIGFncmVlIHRoYXQgRFNVIG1heSBrZWVwIG1vcmUgdGhhbiBvbmUgY29weSBvZiB0aGlzIHN1Ym1pc3Npb24gZm9yCnB1cnBvc2VzIG9mIHNlY3VyaXR5LCBiYWNrLXVwIGFuZCBwcmVzZXJ2YXRpb24uCgpZb3UgcmVwcmVzZW50IHRoYXQgdGhlIHN1Ym1pc3Npb24gaXMgeW91ciBvcmlnaW5hbCB3b3JrLCBhbmQgdGhhdCB5b3UgaGF2ZQp0aGUgcmlnaHQgdG8gZ3JhbnQgdGhlIHJpZ2h0cyBjb250YWluZWQgaW4gdGhpcyBsaWNlbnNlLiBZb3UgYWxzbyByZXByZXNlbnQKdGhhdCB5b3VyIHN1Ym1pc3Npb24gZG9lcyBub3QsIHRvIHRoZSBiZXN0IG9mIHlvdXIga25vd2xlZGdlLCBpbmZyaW5nZSB1cG9uCmFueW9uZSdzIGNvcHlyaWdodC4KCklmIHRoZSBzdWJtaXNzaW9uIGNvbnRhaW5zIG1hdGVyaWFsIGZvciB3aGljaCB5b3UgZG8gbm90IGhvbGQgY29weXJpZ2h0LAp5b3UgcmVwcmVzZW50IHRoYXQgeW91IGhhdmUgb2J0YWluZWQgdGhlIHVucmVzdHJpY3RlZCBwZXJtaXNzaW9uIG9mIHRoZQpjb3B5cmlnaHQgb3duZXIgdG8gZ3JhbnQgRFNVIHRoZSByaWdodHMgcmVxdWlyZWQgYnkgdGhpcyBsaWNlbnNlLCBhbmQgdGhhdApzdWNoIHRoaXJkLXBhcnR5IG93bmVkIG1hdGVyaWFsIGlzIGNsZWFybHkgaWRlbnRpZmllZCBhbmQgYWNrbm93bGVkZ2VkCndpdGhpbiB0aGUgdGV4dCBvciBjb250ZW50IG9mIHRoZSBzdWJtaXNzaW9uLgoKSUYgVEhFIFNVQk1JU1NJT04gSVMgQkFTRUQgVVBPTiBXT1JLIFRIQVQgSEFTIEJFRU4gU1BPTlNPUkVEIE9SIFNVUFBPUlRFRApCWSBBTiBBR0VOQ1kgT1IgT1JHQU5JWkFUSU9OIE9USEVSIFRIQU4gRFNVLCBZT1UgUkVQUkVTRU5UIFRIQVQgWU9VIEhBVkUKRlVMRklMTEVEIEFOWSBSSUdIVCBPRiBSRVZJRVcgT1IgT1RIRVIgT0JMSUdBVElPTlMgUkVRVUlSRUQgQlkgU1VDSApDT05UUkFDVCBPUiBBR1JFRU1FTlQuCgpEU1Ugd2lsbCBjbGVhcmx5IGlkZW50aWZ5IHlvdXIgbmFtZShzKSBhcyB0aGUgYXV0aG9yKHMpIG9yIG93bmVyKHMpIG9mIHRoZQpzdWJtaXNzaW9uLCBhbmQgd2lsbCBub3QgbWFrZSBhbnkgYWx0ZXJhdGlvbiwgb3RoZXIgdGhhbiBhcyBhbGxvd2VkIGJ5IHRoaXMKbGljZW5zZSwgdG8geW91ciBzdWJtaXNzaW9uLgo=
score 12.805893
Nota importante:
La información contenida en este registro es de entera responsabilidad de la institución que gestiona el repositorio institucional donde esta contenido este documento o set de datos. El CONCYTEC no se hace responsable por los contenidos (publicaciones y/o datos) accesibles a través del Repositorio Nacional Digital de Ciencia, Tecnología e Innovación de Acceso Abierto (ALICIA).