El problema de optimización en una red neuronal artificial: métodos de optimización basados en el gradiente
Descripción del Articulo
El objetivo de la presente investigación es describir y explicar los métodos de optimización basados en el gradiente para minimizar el error global cometido durante el proceso completo de aprendizaje de la red neuronal artificial Perceptrón multicapa. Los métodos de optimización que se describen y e...
| Autor: | |
|---|---|
| Formato: | tesis de grado |
| Fecha de Publicación: | 2022 |
| Institución: | Universidad Nacional de Piura |
| Repositorio: | UNP-Institucional |
| Lenguaje: | español |
| OAI Identifier: | oai:repositorio.unp.edu.pe:20.500.12676/3411 |
| Enlace del recurso: | https://repositorio.unp.edu.pe/handle/20.500.12676/3411 |
| Nivel de acceso: | acceso abierto |
| Materia: | función de error gradiente descendente gradiente conjugado perceptron multicapa http://purl.org/pe-repo/ocde/ford#1.01.02 |
| id |
RUMP_df9dbf672befa8cd3695f8906d07e018 |
|---|---|
| oai_identifier_str |
oai:repositorio.unp.edu.pe:20.500.12676/3411 |
| network_acronym_str |
RUMP |
| network_name_str |
UNP-Institucional |
| repository_id_str |
4814 |
| dc.title.es_PE.fl_str_mv |
El problema de optimización en una red neuronal artificial: métodos de optimización basados en el gradiente |
| title |
El problema de optimización en una red neuronal artificial: métodos de optimización basados en el gradiente |
| spellingShingle |
El problema de optimización en una red neuronal artificial: métodos de optimización basados en el gradiente Timaná Yarlequé, Fiorella función de error gradiente descendente gradiente conjugado perceptron multicapa http://purl.org/pe-repo/ocde/ford#1.01.02 |
| title_short |
El problema de optimización en una red neuronal artificial: métodos de optimización basados en el gradiente |
| title_full |
El problema de optimización en una red neuronal artificial: métodos de optimización basados en el gradiente |
| title_fullStr |
El problema de optimización en una red neuronal artificial: métodos de optimización basados en el gradiente |
| title_full_unstemmed |
El problema de optimización en una red neuronal artificial: métodos de optimización basados en el gradiente |
| title_sort |
El problema de optimización en una red neuronal artificial: métodos de optimización basados en el gradiente |
| author |
Timaná Yarlequé, Fiorella |
| author_facet |
Timaná Yarlequé, Fiorella |
| author_role |
author |
| dc.contributor.advisor.fl_str_mv |
Crespo Guerrero, Gloria Solvey |
| dc.contributor.author.fl_str_mv |
Timaná Yarlequé, Fiorella |
| dc.subject.es_PE.fl_str_mv |
función de error gradiente descendente gradiente conjugado perceptron multicapa |
| topic |
función de error gradiente descendente gradiente conjugado perceptron multicapa http://purl.org/pe-repo/ocde/ford#1.01.02 |
| dc.subject.ocde.es_PE.fl_str_mv |
http://purl.org/pe-repo/ocde/ford#1.01.02 |
| description |
El objetivo de la presente investigación es describir y explicar los métodos de optimización basados en el gradiente para minimizar el error global cometido durante el proceso completo de aprendizaje de la red neuronal artificial Perceptrón multicapa. Los métodos de optimización que se describen y explican son el método del gradiente descendente y el método del gradiente conjugado. El vector gradiente es la base en el proceso de aprendizaje o entrenamiento de la RNA Perceptrón multicapa. En esta fase de aprendizaje o entrenamiento de la RNA se establecen los pesos de la red que mejor ajusten al modelo. Este ajuste de pesos se lleva a cabo a través de una regla de aprendizaje, construida con el objetivo de minimizar una determinada función de error o coste (la suma de los cuadrados de los errores de salida de la red). Se aplica el operador gradiente descendente sobre dicha función, asegurando así que un cambio en los valores de los pesos provoque un descenso por la superficie de esta función hasta alcanzar el mínimo local más próximo. Los pesos se modifican siguiendo la dirección negativa del gradiente de la función de error. El descenso por la superficie de la función de error busca encontrar un valor mínimo de error (local o global), lo que puede hacer que el proceso de aprendizaje se detenga en un mínimo y así lograr la convergencia de la red. Se utilizó un enfoque cualitativo de tipo descriptivo explicativo. Los resultados obtenidos señalan que métodos de optimación basados en el gradiente son la base en el proceso de entrenamiento o aprendizaje de la red neuronal Perceptron multicapa y que su uso permite minimizar el error global cometido durante el proceso completo de aprendizaje de dicha red neuronal artificial. |
| publishDate |
2022 |
| dc.date.accessioned.none.fl_str_mv |
2022-06-04T15:43:53Z |
| dc.date.available.none.fl_str_mv |
2022-06-04T15:43:53Z |
| dc.date.issued.fl_str_mv |
2022 |
| dc.type.es_PE.fl_str_mv |
info:eu-repo/semantics/bachelorThesis |
| dc.type.version.es_PE.fl_str_mv |
info:eu-repo/semantics/publishedVersion |
| format |
bachelorThesis |
| status_str |
publishedVersion |
| dc.identifier.uri.none.fl_str_mv |
https://repositorio.unp.edu.pe/handle/20.500.12676/3411 |
| url |
https://repositorio.unp.edu.pe/handle/20.500.12676/3411 |
| dc.language.iso.es_PE.fl_str_mv |
spa |
| language |
spa |
| dc.relation.ispartof.fl_str_mv |
SUNEDU |
| dc.rights.es_PE.fl_str_mv |
info:eu-repo/semantics/openAccess |
| dc.rights.*.fl_str_mv |
Attribution-NonCommercial-NoDerivatives 4.0 Internacional |
| dc.rights.uri.*.fl_str_mv |
http://creativecommons.org/licenses/by-nc-nd/4.0/ |
| eu_rights_str_mv |
openAccess |
| rights_invalid_str_mv |
Attribution-NonCommercial-NoDerivatives 4.0 Internacional http://creativecommons.org/licenses/by-nc-nd/4.0/ |
| dc.format.es_PE.fl_str_mv |
application/pdf |
| dc.publisher.es_PE.fl_str_mv |
Universidad Nacional de Piura |
| dc.publisher.country.es_PE.fl_str_mv |
PE |
| dc.source.es_PE.fl_str_mv |
Universidad Nacional de Piura Repositorio Institucional Digital - UNP |
| dc.source.none.fl_str_mv |
reponame:UNP-Institucional instname:Universidad Nacional de Piura instacron:UNP |
| instname_str |
Universidad Nacional de Piura |
| instacron_str |
UNP |
| institution |
UNP |
| reponame_str |
UNP-Institucional |
| collection |
UNP-Institucional |
| bitstream.url.fl_str_mv |
https://repositorio.unp.edu.pe/bitstreams/d0804194-53a7-4f05-88b8-a77fc96b29b7/download https://repositorio.unp.edu.pe/bitstreams/a79b6366-4275-4ec0-8efc-90d458957022/download https://repositorio.unp.edu.pe/bitstreams/73f2ccc9-8685-4ce6-acfc-62dc450517c7/download https://repositorio.unp.edu.pe/bitstreams/f75a4bf8-23bc-4add-80d1-69a7854e1184/download |
| bitstream.checksum.fl_str_mv |
47634219a5d81fc8adb6184e3ffa1e2b 4460e5956bc1d1639be9ae6146a50347 8a4605be74aa9ea9d79846c1fba20a33 bddf82e42b7d3f5f3faf0e76dbb9d8ad |
| bitstream.checksumAlgorithm.fl_str_mv |
MD5 MD5 MD5 MD5 |
| repository.name.fl_str_mv |
DSPACE7 UNP |
| repository.mail.fl_str_mv |
dspace-help@myu.edu |
| _version_ |
1846425801345466368 |
| spelling |
Crespo Guerrero, Gloria SolveyTimaná Yarlequé, Fiorella2022-06-04T15:43:53Z2022-06-04T15:43:53Z2022https://repositorio.unp.edu.pe/handle/20.500.12676/3411El objetivo de la presente investigación es describir y explicar los métodos de optimización basados en el gradiente para minimizar el error global cometido durante el proceso completo de aprendizaje de la red neuronal artificial Perceptrón multicapa. Los métodos de optimización que se describen y explican son el método del gradiente descendente y el método del gradiente conjugado. El vector gradiente es la base en el proceso de aprendizaje o entrenamiento de la RNA Perceptrón multicapa. En esta fase de aprendizaje o entrenamiento de la RNA se establecen los pesos de la red que mejor ajusten al modelo. Este ajuste de pesos se lleva a cabo a través de una regla de aprendizaje, construida con el objetivo de minimizar una determinada función de error o coste (la suma de los cuadrados de los errores de salida de la red). Se aplica el operador gradiente descendente sobre dicha función, asegurando así que un cambio en los valores de los pesos provoque un descenso por la superficie de esta función hasta alcanzar el mínimo local más próximo. Los pesos se modifican siguiendo la dirección negativa del gradiente de la función de error. El descenso por la superficie de la función de error busca encontrar un valor mínimo de error (local o global), lo que puede hacer que el proceso de aprendizaje se detenga en un mínimo y así lograr la convergencia de la red. Se utilizó un enfoque cualitativo de tipo descriptivo explicativo. Los resultados obtenidos señalan que métodos de optimación basados en el gradiente son la base en el proceso de entrenamiento o aprendizaje de la red neuronal Perceptron multicapa y que su uso permite minimizar el error global cometido durante el proceso completo de aprendizaje de dicha red neuronal artificial.application/pdfspaUniversidad Nacional de PiuraPEinfo:eu-repo/semantics/openAccessAttribution-NonCommercial-NoDerivatives 4.0 Internacionalhttp://creativecommons.org/licenses/by-nc-nd/4.0/Universidad Nacional de PiuraRepositorio Institucional Digital - UNPreponame:UNP-Institucionalinstname:Universidad Nacional de Piurainstacron:UNPfunción de errorgradiente descendentegradiente conjugadoperceptron multicapahttp://purl.org/pe-repo/ocde/ford#1.01.02El problema de optimización en una red neuronal artificial: métodos de optimización basados en el gradienteinfo:eu-repo/semantics/bachelorThesisinfo:eu-repo/semantics/publishedVersionSUNEDULicenciado en MatemáticaUniversidad Nacional de Piura. Facultad de CienciasMatemáticaLópez Castillo, Julio EnriqueSilva Mechato, José del CarmenAredo Alvarado, María Angelita541026http://purl.org/pe-repo/renati/nivel#tituloProfesional03369513https://orcid.org/0000-0002-5161-5297http://purl.org/pe-repo/renati/type#trabajoDeSuficienciaProfesional46175961ORIGINALMATE-TIM-YAR-2022.pdfMATE-TIM-YAR-2022.pdfapplication/pdf2265927https://repositorio.unp.edu.pe/bitstreams/d0804194-53a7-4f05-88b8-a77fc96b29b7/download47634219a5d81fc8adb6184e3ffa1e2bMD51CC-LICENSElicense_rdflicense_rdfapplication/rdf+xml; charset=utf-8805https://repositorio.unp.edu.pe/bitstreams/a79b6366-4275-4ec0-8efc-90d458957022/download4460e5956bc1d1639be9ae6146a50347MD52LICENSElicense.txtlicense.txttext/plain; charset=utf-81748https://repositorio.unp.edu.pe/bitstreams/73f2ccc9-8685-4ce6-acfc-62dc450517c7/download8a4605be74aa9ea9d79846c1fba20a33MD53THUMBNAILMATE-TIM-YAR-2022.pngMATE-TIM-YAR-2022.pngimage/png10317https://repositorio.unp.edu.pe/bitstreams/f75a4bf8-23bc-4add-80d1-69a7854e1184/downloadbddf82e42b7d3f5f3faf0e76dbb9d8adMD5420.500.12676/3411oai:repositorio.unp.edu.pe:20.500.12676/34112022-06-04 11:00:51.388http://creativecommons.org/licenses/by-nc-nd/4.0/info:eu-repo/semantics/openAccessopen.accesshttps://repositorio.unp.edu.peDSPACE7 UNPdspace-help@myu.eduTk9URTogUExBQ0UgWU9VUiBPV04gTElDRU5TRSBIRVJFClRoaXMgc2FtcGxlIGxpY2Vuc2UgaXMgcHJvdmlkZWQgZm9yIGluZm9ybWF0aW9uYWwgcHVycG9zZXMgb25seS4KCk5PTi1FWENMVVNJVkUgRElTVFJJQlVUSU9OIExJQ0VOU0UKCkJ5IHNpZ25pbmcgYW5kIHN1Ym1pdHRpbmcgdGhpcyBsaWNlbnNlLCB5b3UgKHRoZSBhdXRob3Iocykgb3IgY29weXJpZ2h0Cm93bmVyKSBncmFudHMgdG8gRFNwYWNlIFVuaXZlcnNpdHkgKERTVSkgdGhlIG5vbi1leGNsdXNpdmUgcmlnaHQgdG8gcmVwcm9kdWNlLAp0cmFuc2xhdGUgKGFzIGRlZmluZWQgYmVsb3cpLCBhbmQvb3IgZGlzdHJpYnV0ZSB5b3VyIHN1Ym1pc3Npb24gKGluY2x1ZGluZwp0aGUgYWJzdHJhY3QpIHdvcmxkd2lkZSBpbiBwcmludCBhbmQgZWxlY3Ryb25pYyBmb3JtYXQgYW5kIGluIGFueSBtZWRpdW0sCmluY2x1ZGluZyBidXQgbm90IGxpbWl0ZWQgdG8gYXVkaW8gb3IgdmlkZW8uCgpZb3UgYWdyZWUgdGhhdCBEU1UgbWF5LCB3aXRob3V0IGNoYW5naW5nIHRoZSBjb250ZW50LCB0cmFuc2xhdGUgdGhlCnN1Ym1pc3Npb24gdG8gYW55IG1lZGl1bSBvciBmb3JtYXQgZm9yIHRoZSBwdXJwb3NlIG9mIHByZXNlcnZhdGlvbi4KCllvdSBhbHNvIGFncmVlIHRoYXQgRFNVIG1heSBrZWVwIG1vcmUgdGhhbiBvbmUgY29weSBvZiB0aGlzIHN1Ym1pc3Npb24gZm9yCnB1cnBvc2VzIG9mIHNlY3VyaXR5LCBiYWNrLXVwIGFuZCBwcmVzZXJ2YXRpb24uCgpZb3UgcmVwcmVzZW50IHRoYXQgdGhlIHN1Ym1pc3Npb24gaXMgeW91ciBvcmlnaW5hbCB3b3JrLCBhbmQgdGhhdCB5b3UgaGF2ZQp0aGUgcmlnaHQgdG8gZ3JhbnQgdGhlIHJpZ2h0cyBjb250YWluZWQgaW4gdGhpcyBsaWNlbnNlLiBZb3UgYWxzbyByZXByZXNlbnQKdGhhdCB5b3VyIHN1Ym1pc3Npb24gZG9lcyBub3QsIHRvIHRoZSBiZXN0IG9mIHlvdXIga25vd2xlZGdlLCBpbmZyaW5nZSB1cG9uCmFueW9uZSdzIGNvcHlyaWdodC4KCklmIHRoZSBzdWJtaXNzaW9uIGNvbnRhaW5zIG1hdGVyaWFsIGZvciB3aGljaCB5b3UgZG8gbm90IGhvbGQgY29weXJpZ2h0LAp5b3UgcmVwcmVzZW50IHRoYXQgeW91IGhhdmUgb2J0YWluZWQgdGhlIHVucmVzdHJpY3RlZCBwZXJtaXNzaW9uIG9mIHRoZQpjb3B5cmlnaHQgb3duZXIgdG8gZ3JhbnQgRFNVIHRoZSByaWdodHMgcmVxdWlyZWQgYnkgdGhpcyBsaWNlbnNlLCBhbmQgdGhhdApzdWNoIHRoaXJkLXBhcnR5IG93bmVkIG1hdGVyaWFsIGlzIGNsZWFybHkgaWRlbnRpZmllZCBhbmQgYWNrbm93bGVkZ2VkCndpdGhpbiB0aGUgdGV4dCBvciBjb250ZW50IG9mIHRoZSBzdWJtaXNzaW9uLgoKSUYgVEhFIFNVQk1JU1NJT04gSVMgQkFTRUQgVVBPTiBXT1JLIFRIQVQgSEFTIEJFRU4gU1BPTlNPUkVEIE9SIFNVUFBPUlRFRApCWSBBTiBBR0VOQ1kgT1IgT1JHQU5JWkFUSU9OIE9USEVSIFRIQU4gRFNVLCBZT1UgUkVQUkVTRU5UIFRIQVQgWU9VIEhBVkUKRlVMRklMTEVEIEFOWSBSSUdIVCBPRiBSRVZJRVcgT1IgT1RIRVIgT0JMSUdBVElPTlMgUkVRVUlSRUQgQlkgU1VDSApDT05UUkFDVCBPUiBBR1JFRU1FTlQuCgpEU1Ugd2lsbCBjbGVhcmx5IGlkZW50aWZ5IHlvdXIgbmFtZShzKSBhcyB0aGUgYXV0aG9yKHMpIG9yIG93bmVyKHMpIG9mIHRoZQpzdWJtaXNzaW9uLCBhbmQgd2lsbCBub3QgbWFrZSBhbnkgYWx0ZXJhdGlvbiwgb3RoZXIgdGhhbiBhcyBhbGxvd2VkIGJ5IHRoaXMKbGljZW5zZSwgdG8geW91ciBzdWJtaXNzaW9uLgo= |
| score |
12.805893 |
Nota importante:
La información contenida en este registro es de entera responsabilidad de la institución que gestiona el repositorio institucional donde esta contenido este documento o set de datos. El CONCYTEC no se hace responsable por los contenidos (publicaciones y/o datos) accesibles a través del Repositorio Nacional Digital de Ciencia, Tecnología e Innovación de Acceso Abierto (ALICIA).
La información contenida en este registro es de entera responsabilidad de la institución que gestiona el repositorio institucional donde esta contenido este documento o set de datos. El CONCYTEC no se hace responsable por los contenidos (publicaciones y/o datos) accesibles a través del Repositorio Nacional Digital de Ciencia, Tecnología e Innovación de Acceso Abierto (ALICIA).