Entrenando una red neuronal Mask R-CNN con imágenes sintéticas para la detección y segmentación de objetos en imágenes reales de maquinaria
Descripción del Articulo
En los últimos años, las redes neuronales convolucionales se han utilizado ampliamente para resolver problemas como la clasificación de imágenes, la detección de objetos y la segmentación de objetos. Sin embargo, estas redes neuronales requieren de una gran cantidad de datos correctamente etiquetado...
| Autor: | |
|---|---|
| Formato: | tesis de grado |
| Fecha de Publicación: | 2021 |
| Institución: | Universidad Católica San Pablo |
| Repositorio: | UCSP-Institucional |
| Lenguaje: | español |
| OAI Identifier: | oai:repositorio.ucsp.edu.pe:20.500.12590/16982 |
| Enlace del recurso: | https://hdl.handle.net/20.500.12590/16982 |
| Nivel de acceso: | acceso abierto |
| Materia: | Detección de objetos Segmentación de objetos Gaussian Blur Generación de datos sintéticos Mask R-CNN Red Neuronal Profunda Renderización https://purl.org/pe-repo/ocde/ford#1.02.01 |
| id |
UCSP_8d87049a5437d2fff5e69dffaf869d2c |
|---|---|
| oai_identifier_str |
oai:repositorio.ucsp.edu.pe:20.500.12590/16982 |
| network_acronym_str |
UCSP |
| network_name_str |
UCSP-Institucional |
| repository_id_str |
3854 |
| dc.title.es_PE.fl_str_mv |
Entrenando una red neuronal Mask R-CNN con imágenes sintéticas para la detección y segmentación de objetos en imágenes reales de maquinaria |
| title |
Entrenando una red neuronal Mask R-CNN con imágenes sintéticas para la detección y segmentación de objetos en imágenes reales de maquinaria |
| spellingShingle |
Entrenando una red neuronal Mask R-CNN con imágenes sintéticas para la detección y segmentación de objetos en imágenes reales de maquinaria Cerpa Salas, Alonso Jesus Detección de objetos Segmentación de objetos Gaussian Blur Generación de datos sintéticos Mask R-CNN Red Neuronal Profunda Renderización https://purl.org/pe-repo/ocde/ford#1.02.01 |
| title_short |
Entrenando una red neuronal Mask R-CNN con imágenes sintéticas para la detección y segmentación de objetos en imágenes reales de maquinaria |
| title_full |
Entrenando una red neuronal Mask R-CNN con imágenes sintéticas para la detección y segmentación de objetos en imágenes reales de maquinaria |
| title_fullStr |
Entrenando una red neuronal Mask R-CNN con imágenes sintéticas para la detección y segmentación de objetos en imágenes reales de maquinaria |
| title_full_unstemmed |
Entrenando una red neuronal Mask R-CNN con imágenes sintéticas para la detección y segmentación de objetos en imágenes reales de maquinaria |
| title_sort |
Entrenando una red neuronal Mask R-CNN con imágenes sintéticas para la detección y segmentación de objetos en imágenes reales de maquinaria |
| author |
Cerpa Salas, Alonso Jesus |
| author_facet |
Cerpa Salas, Alonso Jesus |
| author_role |
author |
| dc.contributor.advisor.fl_str_mv |
Meza Lovon, Graciela Lecireth |
| dc.contributor.author.fl_str_mv |
Cerpa Salas, Alonso Jesus |
| dc.subject.es_PE.fl_str_mv |
Detección de objetos Segmentación de objetos Gaussian Blur Generación de datos sintéticos Mask R-CNN Red Neuronal Profunda Renderización |
| topic |
Detección de objetos Segmentación de objetos Gaussian Blur Generación de datos sintéticos Mask R-CNN Red Neuronal Profunda Renderización https://purl.org/pe-repo/ocde/ford#1.02.01 |
| dc.subject.ocde.es_PE.fl_str_mv |
https://purl.org/pe-repo/ocde/ford#1.02.01 |
| description |
En los últimos años, las redes neuronales convolucionales se han utilizado ampliamente para resolver problemas como la clasificación de imágenes, la detección de objetos y la segmentación de objetos. Sin embargo, estas redes neuronales requieren de una gran cantidad de datos correctamente etiquetados para funcionar adecuadamente. Por este motivo, los procesos de etiquetado de datos se llevan a cabo reclutando personas que etiquetarán los datos manualmente. Esto es un problema, ya que consume mucho tiempo y dinero, por lo que algunos investigadores han estudiado el uso de sistemas que generan datos sintéticos y a la vez, los etiquetan. Dada esta problemática, en el presente trabajo se plantea un sistema para generar datos sintéticos mediante un renderizador, que utiliza fondos aleatorios (imágenes) y 3 modelos 3D de piezas de maquinaria. Luego, dichos datos sintéticos son etiquetados por nuestro sistema, para las tareas de detección y segmentación de objetos. Adicionalmente, aplicamos un filtro de Gaussian Blur a nuestras imágenes sintéticas para que den mejores resultados en el entrenamiento posterior. Después, nuestro sistema entrena una red neuronal Mask R-CNN (pre-entrenada con el conjunto de datos COCO) con los datos sintéticos con Gaussian Blur generados y etiquetados anteriormente. Finalmente, nuestro sistema realiza pruebas de la red neuronal con datos reales (fotografías de las 3 piezas de maquinaria en el mundo real), donde se consiguen resultados óptimos. |
| publishDate |
2021 |
| dc.date.accessioned.none.fl_str_mv |
2021-12-22T04:09:02Z |
| dc.date.available.none.fl_str_mv |
2021-12-22T04:09:02Z |
| dc.date.issued.fl_str_mv |
2021 |
| dc.type.none.fl_str_mv |
info:eu-repo/semantics/bachelorThesis |
| dc.type.version.es_PE.fl_str_mv |
info:eu-repo/semantics/publishedVersion |
| format |
bachelorThesis |
| status_str |
publishedVersion |
| dc.identifier.other.none.fl_str_mv |
1073676 |
| dc.identifier.uri.none.fl_str_mv |
https://hdl.handle.net/20.500.12590/16982 |
| identifier_str_mv |
1073676 |
| url |
https://hdl.handle.net/20.500.12590/16982 |
| dc.language.iso.es_PE.fl_str_mv |
spa |
| language |
spa |
| dc.relation.ispartof.fl_str_mv |
SUNEDU |
| dc.rights.es_PE.fl_str_mv |
info:eu-repo/semantics/openAccess |
| dc.rights.uri.es_PE.fl_str_mv |
https://creativecommons.org/licenses/by/4.0/ |
| eu_rights_str_mv |
openAccess |
| rights_invalid_str_mv |
https://creativecommons.org/licenses/by/4.0/ |
| dc.format.es_PE.fl_str_mv |
application/pdf |
| dc.publisher.es_PE.fl_str_mv |
Universidad Católica San Pablo |
| dc.publisher.country.es_PE.fl_str_mv |
PE |
| dc.source.es_PE.fl_str_mv |
Universidad Católica San Pablo Repositorio Institucional - UCSP |
| dc.source.none.fl_str_mv |
reponame:UCSP-Institucional instname:Universidad Católica San Pablo instacron:UCSP |
| instname_str |
Universidad Católica San Pablo |
| instacron_str |
UCSP |
| institution |
UCSP |
| reponame_str |
UCSP-Institucional |
| collection |
UCSP-Institucional |
| bitstream.url.fl_str_mv |
https://repositorio.ucsp.edu.pe/backend/api/core/bitstreams/b6aeff88-4762-4a34-8891-bb4cd2c29cda/download https://repositorio.ucsp.edu.pe/backend/api/core/bitstreams/009df146-530e-4c5b-9c51-f444819f036d/download https://repositorio.ucsp.edu.pe/backend/api/core/bitstreams/362586f0-ac4d-42ac-8bb7-69afe331dbe8/download https://repositorio.ucsp.edu.pe/backend/api/core/bitstreams/ca5c27f0-3446-416f-8ae9-89feaecb8630/download |
| bitstream.checksum.fl_str_mv |
83bc67d56e9353f3dab4ffab77afb926 a4ffd30255051f048aea656812f056e9 8a4605be74aa9ea9d79846c1fba20a33 cc36d8a0462645322c3fc65a7e327151 |
| bitstream.checksumAlgorithm.fl_str_mv |
MD5 MD5 MD5 MD5 |
| repository.name.fl_str_mv |
Repositorio Institucional de la Universidad Católica San Pablo |
| repository.mail.fl_str_mv |
dspace@ucsp.edu.pe |
| _version_ |
1851053044963213312 |
| spelling |
Meza Lovon, Graciela LecirethCerpa Salas, Alonso Jesus2021-12-22T04:09:02Z2021-12-22T04:09:02Z20211073676https://hdl.handle.net/20.500.12590/16982En los últimos años, las redes neuronales convolucionales se han utilizado ampliamente para resolver problemas como la clasificación de imágenes, la detección de objetos y la segmentación de objetos. Sin embargo, estas redes neuronales requieren de una gran cantidad de datos correctamente etiquetados para funcionar adecuadamente. Por este motivo, los procesos de etiquetado de datos se llevan a cabo reclutando personas que etiquetarán los datos manualmente. Esto es un problema, ya que consume mucho tiempo y dinero, por lo que algunos investigadores han estudiado el uso de sistemas que generan datos sintéticos y a la vez, los etiquetan. Dada esta problemática, en el presente trabajo se plantea un sistema para generar datos sintéticos mediante un renderizador, que utiliza fondos aleatorios (imágenes) y 3 modelos 3D de piezas de maquinaria. Luego, dichos datos sintéticos son etiquetados por nuestro sistema, para las tareas de detección y segmentación de objetos. Adicionalmente, aplicamos un filtro de Gaussian Blur a nuestras imágenes sintéticas para que den mejores resultados en el entrenamiento posterior. Después, nuestro sistema entrena una red neuronal Mask R-CNN (pre-entrenada con el conjunto de datos COCO) con los datos sintéticos con Gaussian Blur generados y etiquetados anteriormente. Finalmente, nuestro sistema realiza pruebas de la red neuronal con datos reales (fotografías de las 3 piezas de maquinaria en el mundo real), donde se consiguen resultados óptimos.Tesisapplication/pdfspaUniversidad Católica San PabloPEinfo:eu-repo/semantics/openAccesshttps://creativecommons.org/licenses/by/4.0/Universidad Católica San PabloRepositorio Institucional - UCSPreponame:UCSP-Institucionalinstname:Universidad Católica San Pabloinstacron:UCSPDetección de objetosSegmentación de objetosGaussian BlurGeneración de datos sintéticosMask R-CNNRed Neuronal ProfundaRenderizaciónhttps://purl.org/pe-repo/ocde/ford#1.02.01Entrenando una red neuronal Mask R-CNN con imágenes sintéticas para la detección y segmentación de objetos en imágenes reales de maquinariainfo:eu-repo/semantics/bachelorThesisinfo:eu-repo/semantics/publishedVersionSUNEDULicenciada en Ciencia de la ComputaciónUniversidad Católica San Pablo. Departamento de Ciencia de la ComputaciónTítulo ProfesionalCiencia de la ComputaciónPrograma Profesional de Ciencia de la Computación71140389https://orcid.org/0000-0002-9773-726540222974https://purl.org/pe-repo/renati/type#tesishttps://purl.org/pe-repo/renati/level#tituloProfesional611016Juan Carlos Gutiérrez CáceresYván Jesús Túpac ValdiviaTEXTCERPA_SALAS_ALO_NEU.pdf.txtCERPA_SALAS_ALO_NEU.pdf.txtExtracted texttext/plain123041https://repositorio.ucsp.edu.pe/backend/api/core/bitstreams/b6aeff88-4762-4a34-8891-bb4cd2c29cda/download83bc67d56e9353f3dab4ffab77afb926MD53ORIGINALCERPA_SALAS_ALO_NEU.pdfCERPA_SALAS_ALO_NEU.pdfapplication/pdf1558113https://repositorio.ucsp.edu.pe/backend/api/core/bitstreams/009df146-530e-4c5b-9c51-f444819f036d/downloada4ffd30255051f048aea656812f056e9MD51LICENSElicense.txtlicense.txttext/plain; charset=utf-81748https://repositorio.ucsp.edu.pe/backend/api/core/bitstreams/362586f0-ac4d-42ac-8bb7-69afe331dbe8/download8a4605be74aa9ea9d79846c1fba20a33MD52THUMBNAILCERPA_SALAS_ALO_NEU.pdf.jpgCERPA_SALAS_ALO_NEU.pdf.jpgGenerated Thumbnailimage/jpeg4062https://repositorio.ucsp.edu.pe/backend/api/core/bitstreams/ca5c27f0-3446-416f-8ae9-89feaecb8630/downloadcc36d8a0462645322c3fc65a7e327151MD5420.500.12590/16982oai:repositorio.ucsp.edu.pe:20.500.12590/169822023-07-26 01:15:31.294https://creativecommons.org/licenses/by/4.0/info:eu-repo/semantics/openAccessopen.accesshttps://repositorio.ucsp.edu.peRepositorio Institucional de la Universidad Católica San Pablodspace@ucsp.edu.peTk9URTogUExBQ0UgWU9VUiBPV04gTElDRU5TRSBIRVJFClRoaXMgc2FtcGxlIGxpY2Vuc2UgaXMgcHJvdmlkZWQgZm9yIGluZm9ybWF0aW9uYWwgcHVycG9zZXMgb25seS4KCk5PTi1FWENMVVNJVkUgRElTVFJJQlVUSU9OIExJQ0VOU0UKCkJ5IHNpZ25pbmcgYW5kIHN1Ym1pdHRpbmcgdGhpcyBsaWNlbnNlLCB5b3UgKHRoZSBhdXRob3Iocykgb3IgY29weXJpZ2h0Cm93bmVyKSBncmFudHMgdG8gRFNwYWNlIFVuaXZlcnNpdHkgKERTVSkgdGhlIG5vbi1leGNsdXNpdmUgcmlnaHQgdG8gcmVwcm9kdWNlLAp0cmFuc2xhdGUgKGFzIGRlZmluZWQgYmVsb3cpLCBhbmQvb3IgZGlzdHJpYnV0ZSB5b3VyIHN1Ym1pc3Npb24gKGluY2x1ZGluZwp0aGUgYWJzdHJhY3QpIHdvcmxkd2lkZSBpbiBwcmludCBhbmQgZWxlY3Ryb25pYyBmb3JtYXQgYW5kIGluIGFueSBtZWRpdW0sCmluY2x1ZGluZyBidXQgbm90IGxpbWl0ZWQgdG8gYXVkaW8gb3IgdmlkZW8uCgpZb3UgYWdyZWUgdGhhdCBEU1UgbWF5LCB3aXRob3V0IGNoYW5naW5nIHRoZSBjb250ZW50LCB0cmFuc2xhdGUgdGhlCnN1Ym1pc3Npb24gdG8gYW55IG1lZGl1bSBvciBmb3JtYXQgZm9yIHRoZSBwdXJwb3NlIG9mIHByZXNlcnZhdGlvbi4KCllvdSBhbHNvIGFncmVlIHRoYXQgRFNVIG1heSBrZWVwIG1vcmUgdGhhbiBvbmUgY29weSBvZiB0aGlzIHN1Ym1pc3Npb24gZm9yCnB1cnBvc2VzIG9mIHNlY3VyaXR5LCBiYWNrLXVwIGFuZCBwcmVzZXJ2YXRpb24uCgpZb3UgcmVwcmVzZW50IHRoYXQgdGhlIHN1Ym1pc3Npb24gaXMgeW91ciBvcmlnaW5hbCB3b3JrLCBhbmQgdGhhdCB5b3UgaGF2ZQp0aGUgcmlnaHQgdG8gZ3JhbnQgdGhlIHJpZ2h0cyBjb250YWluZWQgaW4gdGhpcyBsaWNlbnNlLiBZb3UgYWxzbyByZXByZXNlbnQKdGhhdCB5b3VyIHN1Ym1pc3Npb24gZG9lcyBub3QsIHRvIHRoZSBiZXN0IG9mIHlvdXIga25vd2xlZGdlLCBpbmZyaW5nZSB1cG9uCmFueW9uZSdzIGNvcHlyaWdodC4KCklmIHRoZSBzdWJtaXNzaW9uIGNvbnRhaW5zIG1hdGVyaWFsIGZvciB3aGljaCB5b3UgZG8gbm90IGhvbGQgY29weXJpZ2h0LAp5b3UgcmVwcmVzZW50IHRoYXQgeW91IGhhdmUgb2J0YWluZWQgdGhlIHVucmVzdHJpY3RlZCBwZXJtaXNzaW9uIG9mIHRoZQpjb3B5cmlnaHQgb3duZXIgdG8gZ3JhbnQgRFNVIHRoZSByaWdodHMgcmVxdWlyZWQgYnkgdGhpcyBsaWNlbnNlLCBhbmQgdGhhdApzdWNoIHRoaXJkLXBhcnR5IG93bmVkIG1hdGVyaWFsIGlzIGNsZWFybHkgaWRlbnRpZmllZCBhbmQgYWNrbm93bGVkZ2VkCndpdGhpbiB0aGUgdGV4dCBvciBjb250ZW50IG9mIHRoZSBzdWJtaXNzaW9uLgoKSUYgVEhFIFNVQk1JU1NJT04gSVMgQkFTRUQgVVBPTiBXT1JLIFRIQVQgSEFTIEJFRU4gU1BPTlNPUkVEIE9SIFNVUFBPUlRFRApCWSBBTiBBR0VOQ1kgT1IgT1JHQU5JWkFUSU9OIE9USEVSIFRIQU4gRFNVLCBZT1UgUkVQUkVTRU5UIFRIQVQgWU9VIEhBVkUKRlVMRklMTEVEIEFOWSBSSUdIVCBPRiBSRVZJRVcgT1IgT1RIRVIgT0JMSUdBVElPTlMgUkVRVUlSRUQgQlkgU1VDSApDT05UUkFDVCBPUiBBR1JFRU1FTlQuCgpEU1Ugd2lsbCBjbGVhcmx5IGlkZW50aWZ5IHlvdXIgbmFtZShzKSBhcyB0aGUgYXV0aG9yKHMpIG9yIG93bmVyKHMpIG9mIHRoZQpzdWJtaXNzaW9uLCBhbmQgd2lsbCBub3QgbWFrZSBhbnkgYWx0ZXJhdGlvbiwgb3RoZXIgdGhhbiBhcyBhbGxvd2VkIGJ5IHRoaXMKbGljZW5zZSwgdG8geW91ciBzdWJtaXNzaW9uLgo= |
| score |
13.978924 |
Nota importante:
La información contenida en este registro es de entera responsabilidad de la institución que gestiona el repositorio institucional donde esta contenido este documento o set de datos. El CONCYTEC no se hace responsable por los contenidos (publicaciones y/o datos) accesibles a través del Repositorio Nacional Digital de Ciencia, Tecnología e Innovación de Acceso Abierto (ALICIA).
La información contenida en este registro es de entera responsabilidad de la institución que gestiona el repositorio institucional donde esta contenido este documento o set de datos. El CONCYTEC no se hace responsable por los contenidos (publicaciones y/o datos) accesibles a través del Repositorio Nacional Digital de Ciencia, Tecnología e Innovación de Acceso Abierto (ALICIA).