Un nuevo mecanismo de regularización para algoritmos de aprendizaje con pocas muestras

Descripción del Articulo

El gran éxito de las redes neuronales profundas (DNN) incide sobre su capacidad de aprender características automáticamente aminorando la supervisión humana. No obstante, dicho éxito viene acompañado de la gran cantidad de datos necesarios para entrenar los modelos profundos. Por ejemplo, para que u...

Descripción completa

Detalles Bibliográficos
Autor: Llerena Paricahua, Marcell
Formato: tesis de maestría
Fecha de Publicación:2021
Institución:Universidad Católica San Pablo
Repositorio:UCSP-Institucional
Lenguaje:español
OAI Identifier:oai:repositorio.ucsp.edu.pe:20.500.12590/16734
Enlace del recurso:https://hdl.handle.net/20.500.12590/16734
Nivel de acceso:acceso abierto
Materia:Aprendizaje con pocas muestras
Meta aprendizaje basado en optimización
Redes neuronales profundas
https://purl.org/pe-repo/ocde/ford#1.02.01
id UCSP_037304223caecc1c9d2b96bceb346277
oai_identifier_str oai:repositorio.ucsp.edu.pe:20.500.12590/16734
network_acronym_str UCSP
network_name_str UCSP-Institucional
repository_id_str 3854
dc.title.es_PE.fl_str_mv Un nuevo mecanismo de regularización para algoritmos de aprendizaje con pocas muestras
title Un nuevo mecanismo de regularización para algoritmos de aprendizaje con pocas muestras
spellingShingle Un nuevo mecanismo de regularización para algoritmos de aprendizaje con pocas muestras
Llerena Paricahua, Marcell
Aprendizaje con pocas muestras
Meta aprendizaje basado en optimización
Redes neuronales profundas
https://purl.org/pe-repo/ocde/ford#1.02.01
title_short Un nuevo mecanismo de regularización para algoritmos de aprendizaje con pocas muestras
title_full Un nuevo mecanismo de regularización para algoritmos de aprendizaje con pocas muestras
title_fullStr Un nuevo mecanismo de regularización para algoritmos de aprendizaje con pocas muestras
title_full_unstemmed Un nuevo mecanismo de regularización para algoritmos de aprendizaje con pocas muestras
title_sort Un nuevo mecanismo de regularización para algoritmos de aprendizaje con pocas muestras
author Llerena Paricahua, Marcell
author_facet Llerena Paricahua, Marcell
author_role author
dc.contributor.advisor.fl_str_mv Ochoa Luna, José Eduardo
dc.contributor.author.fl_str_mv Llerena Paricahua, Marcell
dc.subject.es_PE.fl_str_mv Aprendizaje con pocas muestras
Meta aprendizaje basado en optimización
Redes neuronales profundas
topic Aprendizaje con pocas muestras
Meta aprendizaje basado en optimización
Redes neuronales profundas
https://purl.org/pe-repo/ocde/ford#1.02.01
dc.subject.ocde.es_PE.fl_str_mv https://purl.org/pe-repo/ocde/ford#1.02.01
description El gran éxito de las redes neuronales profundas (DNN) incide sobre su capacidad de aprender características automáticamente aminorando la supervisión humana. No obstante, dicho éxito viene acompañado de la gran cantidad de datos necesarios para entrenar los modelos profundos. Por ejemplo, para que un modelo profundo aprenda a distinguir gatos de perros se necesitan cientos de miles de imágenes. Recientemente, una área del aprendizaje automático denominada meta aprendizaje ha recibido especial atención, cuyo principal objetivo es conseguir que los modelos profundos sean capaces de reutilizar experiencia aprendida en diferentes tareas para aplicarla en el aprendizaje de una nueva tarea, lo que en consecuencia debería otorgarle al modelo profundo la habilidad de aprender nuevas tareas a partir de pocas muestras. En respuesta a ello, en la literatura se han planteado algoritmos que son capaces de generalizar diferentes tareas con una sola muestra de entrenamiento. Sin embargo, aún adolecen de una baja tasa de exactitud. Motivo por el cual, en este proyecto de tesis se introduce un mecanismo de regularización con el objetivo que ayude a maximizar la generalización de las tareas. Nuestros experimentos han mostrado que nuestro método de regularización propuesto alcanza resultados competitivos respecto al estado del arte.
publishDate 2021
dc.date.accessioned.none.fl_str_mv 2021-05-04T17:25:40Z
dc.date.available.none.fl_str_mv 2021-05-04T17:25:40Z
dc.date.issued.fl_str_mv 2021
dc.type.none.fl_str_mv info:eu-repo/semantics/masterThesis
dc.type.version.es_PE.fl_str_mv info:eu-repo/semantics/publishedVersion
format masterThesis
status_str publishedVersion
dc.identifier.other.none.fl_str_mv 1073146
dc.identifier.uri.none.fl_str_mv https://hdl.handle.net/20.500.12590/16734
identifier_str_mv 1073146
url https://hdl.handle.net/20.500.12590/16734
dc.language.iso.es_PE.fl_str_mv spa
language spa
dc.relation.ispartof.fl_str_mv SUNEDU
dc.rights.es_PE.fl_str_mv info:eu-repo/semantics/openAccess
dc.rights.uri.es_PE.fl_str_mv https://creativecommons.org/licenses/by/4.0/
eu_rights_str_mv openAccess
rights_invalid_str_mv https://creativecommons.org/licenses/by/4.0/
dc.format.es_PE.fl_str_mv application/pdf
dc.publisher.es_PE.fl_str_mv Universidad Católica San Pablo
dc.publisher.country.es_PE.fl_str_mv PE
dc.source.es_PE.fl_str_mv Universidad Católica San Pablo
Repositorio Institucional - UCSP
dc.source.none.fl_str_mv reponame:UCSP-Institucional
instname:Universidad Católica San Pablo
instacron:UCSP
instname_str Universidad Católica San Pablo
instacron_str UCSP
institution UCSP
reponame_str UCSP-Institucional
collection UCSP-Institucional
bitstream.url.fl_str_mv https://repositorio.ucsp.edu.pe/backend/api/core/bitstreams/c390908a-41b8-4d02-b141-a8b7ca58d8ae/download
https://repositorio.ucsp.edu.pe/backend/api/core/bitstreams/a2552dfd-126e-45f8-85eb-9639900b50ec/download
https://repositorio.ucsp.edu.pe/backend/api/core/bitstreams/6c09c8b0-03c0-435f-b786-3685c5cba41b/download
https://repositorio.ucsp.edu.pe/backend/api/core/bitstreams/615e18ca-d6a3-4093-a8c3-8e57521bb3e9/download
bitstream.checksum.fl_str_mv ea64fffc528789c51e8ad7b6ef8c1246
8a4605be74aa9ea9d79846c1fba20a33
f2b170c86d095a13db6419c4999519f1
173ef6fd18906d53560a9c3fd7611559
bitstream.checksumAlgorithm.fl_str_mv MD5
MD5
MD5
MD5
repository.name.fl_str_mv Repositorio Institucional de la Universidad Católica San Pablo
repository.mail.fl_str_mv dspace@ucsp.edu.pe
_version_ 1851053048157175808
spelling Ochoa Luna, José EduardoLlerena Paricahua, Marcell2021-05-04T17:25:40Z2021-05-04T17:25:40Z20211073146https://hdl.handle.net/20.500.12590/16734El gran éxito de las redes neuronales profundas (DNN) incide sobre su capacidad de aprender características automáticamente aminorando la supervisión humana. No obstante, dicho éxito viene acompañado de la gran cantidad de datos necesarios para entrenar los modelos profundos. Por ejemplo, para que un modelo profundo aprenda a distinguir gatos de perros se necesitan cientos de miles de imágenes. Recientemente, una área del aprendizaje automático denominada meta aprendizaje ha recibido especial atención, cuyo principal objetivo es conseguir que los modelos profundos sean capaces de reutilizar experiencia aprendida en diferentes tareas para aplicarla en el aprendizaje de una nueva tarea, lo que en consecuencia debería otorgarle al modelo profundo la habilidad de aprender nuevas tareas a partir de pocas muestras. En respuesta a ello, en la literatura se han planteado algoritmos que son capaces de generalizar diferentes tareas con una sola muestra de entrenamiento. Sin embargo, aún adolecen de una baja tasa de exactitud. Motivo por el cual, en este proyecto de tesis se introduce un mecanismo de regularización con el objetivo que ayude a maximizar la generalización de las tareas. Nuestros experimentos han mostrado que nuestro método de regularización propuesto alcanza resultados competitivos respecto al estado del arte. Tesisapplication/pdfspaUniversidad Católica San PabloPEinfo:eu-repo/semantics/openAccesshttps://creativecommons.org/licenses/by/4.0/Universidad Católica San PabloRepositorio Institucional - UCSPreponame:UCSP-Institucionalinstname:Universidad Católica San Pabloinstacron:UCSPAprendizaje con pocas muestrasMeta aprendizaje basado en optimizaciónRedes neuronales profundashttps://purl.org/pe-repo/ocde/ford#1.02.01Un nuevo mecanismo de regularización para algoritmos de aprendizaje con pocas muestrasinfo:eu-repo/semantics/masterThesisinfo:eu-repo/semantics/publishedVersionSUNEDUMaestro en Ciencia de la ComputaciónUniversidad Católica San Pablo. Departamento de Ciencia de la ComputaciónMaestríaCiencia de la ComputaciónEscuela Profesional de Ciencia de la Computación47718830https://orcid.org/0000-0002-8979-378529738760https://purl.org/pe-repo/renati/type#tesishttps://purl.org/pe-repo/renati/level#maestro611017Alex Jesús Cuadros VargasAdín Ramírez RiveraEdwin Rafael Villanueva TalaveraRensso Victor Hugo Mora ColqueORIGINALLLERENA_PARICAHUA_MAR_MEC.pdfLLERENA_PARICAHUA_MAR_MEC.pdfapplication/pdf4333836https://repositorio.ucsp.edu.pe/backend/api/core/bitstreams/c390908a-41b8-4d02-b141-a8b7ca58d8ae/downloadea64fffc528789c51e8ad7b6ef8c1246MD51LICENSElicense.txtlicense.txttext/plain; charset=utf-81748https://repositorio.ucsp.edu.pe/backend/api/core/bitstreams/a2552dfd-126e-45f8-85eb-9639900b50ec/download8a4605be74aa9ea9d79846c1fba20a33MD52TEXTLLERENA_PARICAHUA_MAR_MEC.pdf.txtLLERENA_PARICAHUA_MAR_MEC.pdf.txtExtracted texttext/plain170240https://repositorio.ucsp.edu.pe/backend/api/core/bitstreams/6c09c8b0-03c0-435f-b786-3685c5cba41b/downloadf2b170c86d095a13db6419c4999519f1MD53THUMBNAILLLERENA_PARICAHUA_MAR_MEC.pdf.jpgLLERENA_PARICAHUA_MAR_MEC.pdf.jpgGenerated Thumbnailimage/jpeg3750https://repositorio.ucsp.edu.pe/backend/api/core/bitstreams/615e18ca-d6a3-4093-a8c3-8e57521bb3e9/download173ef6fd18906d53560a9c3fd7611559MD5420.500.12590/16734oai:repositorio.ucsp.edu.pe:20.500.12590/167342023-10-31 13:30:04.446https://creativecommons.org/licenses/by/4.0/info:eu-repo/semantics/openAccessopen.accesshttps://repositorio.ucsp.edu.peRepositorio Institucional de la Universidad Católica San Pablodspace@ucsp.edu.peTk9URTogUExBQ0UgWU9VUiBPV04gTElDRU5TRSBIRVJFClRoaXMgc2FtcGxlIGxpY2Vuc2UgaXMgcHJvdmlkZWQgZm9yIGluZm9ybWF0aW9uYWwgcHVycG9zZXMgb25seS4KCk5PTi1FWENMVVNJVkUgRElTVFJJQlVUSU9OIExJQ0VOU0UKCkJ5IHNpZ25pbmcgYW5kIHN1Ym1pdHRpbmcgdGhpcyBsaWNlbnNlLCB5b3UgKHRoZSBhdXRob3Iocykgb3IgY29weXJpZ2h0Cm93bmVyKSBncmFudHMgdG8gRFNwYWNlIFVuaXZlcnNpdHkgKERTVSkgdGhlIG5vbi1leGNsdXNpdmUgcmlnaHQgdG8gcmVwcm9kdWNlLAp0cmFuc2xhdGUgKGFzIGRlZmluZWQgYmVsb3cpLCBhbmQvb3IgZGlzdHJpYnV0ZSB5b3VyIHN1Ym1pc3Npb24gKGluY2x1ZGluZwp0aGUgYWJzdHJhY3QpIHdvcmxkd2lkZSBpbiBwcmludCBhbmQgZWxlY3Ryb25pYyBmb3JtYXQgYW5kIGluIGFueSBtZWRpdW0sCmluY2x1ZGluZyBidXQgbm90IGxpbWl0ZWQgdG8gYXVkaW8gb3IgdmlkZW8uCgpZb3UgYWdyZWUgdGhhdCBEU1UgbWF5LCB3aXRob3V0IGNoYW5naW5nIHRoZSBjb250ZW50LCB0cmFuc2xhdGUgdGhlCnN1Ym1pc3Npb24gdG8gYW55IG1lZGl1bSBvciBmb3JtYXQgZm9yIHRoZSBwdXJwb3NlIG9mIHByZXNlcnZhdGlvbi4KCllvdSBhbHNvIGFncmVlIHRoYXQgRFNVIG1heSBrZWVwIG1vcmUgdGhhbiBvbmUgY29weSBvZiB0aGlzIHN1Ym1pc3Npb24gZm9yCnB1cnBvc2VzIG9mIHNlY3VyaXR5LCBiYWNrLXVwIGFuZCBwcmVzZXJ2YXRpb24uCgpZb3UgcmVwcmVzZW50IHRoYXQgdGhlIHN1Ym1pc3Npb24gaXMgeW91ciBvcmlnaW5hbCB3b3JrLCBhbmQgdGhhdCB5b3UgaGF2ZQp0aGUgcmlnaHQgdG8gZ3JhbnQgdGhlIHJpZ2h0cyBjb250YWluZWQgaW4gdGhpcyBsaWNlbnNlLiBZb3UgYWxzbyByZXByZXNlbnQKdGhhdCB5b3VyIHN1Ym1pc3Npb24gZG9lcyBub3QsIHRvIHRoZSBiZXN0IG9mIHlvdXIga25vd2xlZGdlLCBpbmZyaW5nZSB1cG9uCmFueW9uZSdzIGNvcHlyaWdodC4KCklmIHRoZSBzdWJtaXNzaW9uIGNvbnRhaW5zIG1hdGVyaWFsIGZvciB3aGljaCB5b3UgZG8gbm90IGhvbGQgY29weXJpZ2h0LAp5b3UgcmVwcmVzZW50IHRoYXQgeW91IGhhdmUgb2J0YWluZWQgdGhlIHVucmVzdHJpY3RlZCBwZXJtaXNzaW9uIG9mIHRoZQpjb3B5cmlnaHQgb3duZXIgdG8gZ3JhbnQgRFNVIHRoZSByaWdodHMgcmVxdWlyZWQgYnkgdGhpcyBsaWNlbnNlLCBhbmQgdGhhdApzdWNoIHRoaXJkLXBhcnR5IG93bmVkIG1hdGVyaWFsIGlzIGNsZWFybHkgaWRlbnRpZmllZCBhbmQgYWNrbm93bGVkZ2VkCndpdGhpbiB0aGUgdGV4dCBvciBjb250ZW50IG9mIHRoZSBzdWJtaXNzaW9uLgoKSUYgVEhFIFNVQk1JU1NJT04gSVMgQkFTRUQgVVBPTiBXT1JLIFRIQVQgSEFTIEJFRU4gU1BPTlNPUkVEIE9SIFNVUFBPUlRFRApCWSBBTiBBR0VOQ1kgT1IgT1JHQU5JWkFUSU9OIE9USEVSIFRIQU4gRFNVLCBZT1UgUkVQUkVTRU5UIFRIQVQgWU9VIEhBVkUKRlVMRklMTEVEIEFOWSBSSUdIVCBPRiBSRVZJRVcgT1IgT1RIRVIgT0JMSUdBVElPTlMgUkVRVUlSRUQgQlkgU1VDSApDT05UUkFDVCBPUiBBR1JFRU1FTlQuCgpEU1Ugd2lsbCBjbGVhcmx5IGlkZW50aWZ5IHlvdXIgbmFtZShzKSBhcyB0aGUgYXV0aG9yKHMpIG9yIG93bmVyKHMpIG9mIHRoZQpzdWJtaXNzaW9uLCBhbmQgd2lsbCBub3QgbWFrZSBhbnkgYWx0ZXJhdGlvbiwgb3RoZXIgdGhhbiBhcyBhbGxvd2VkIGJ5IHRoaXMKbGljZW5zZSwgdG8geW91ciBzdWJtaXNzaW9uLgo=
score 13.472619
Nota importante:
La información contenida en este registro es de entera responsabilidad de la institución que gestiona el repositorio institucional donde esta contenido este documento o set de datos. El CONCYTEC no se hace responsable por los contenidos (publicaciones y/o datos) accesibles a través del Repositorio Nacional Digital de Ciencia, Tecnología e Innovación de Acceso Abierto (ALICIA).