Reidentificación de personas basada en aprendizaje de características de partes del cuerpo mediante redes convolucionales en triplet loss

Descripción del Articulo

Reidentificación de personas consiste en reconocer si imágenes de dos personas obtenidas a través de un sistema de múltiples cámaras que no se superponen correspondan a la misma persona. A pesar de recientes avances en este campo, este problema aún permanece como un reto debido a que las imágenes en...

Descripción completa

Detalles Bibliográficos
Autor: Durand Espinoza, Jonathan Antony
Formato: tesis de maestría
Fecha de Publicación:2018
Institución:Universidad Católica San Pablo
Repositorio:UCSP-Institucional
Lenguaje:español
OAI Identifier:oai:repositorio.ucsp.edu.pe:20.500.12590/15976
Enlace del recurso:https://hdl.handle.net/20.500.12590/15976
Nivel de acceso:acceso abierto
Materia:reidentificación de personas
incremento de datos
Función de perdida de tripletes
https://purl.org/pe-repo/ocde/ford#1.02.01
id UCSP_8955a6a0dcf0f4eefe7703f1d85b0d6d
oai_identifier_str oai:repositorio.ucsp.edu.pe:20.500.12590/15976
network_acronym_str UCSP
network_name_str UCSP-Institucional
repository_id_str 3854
dc.title.es_PE.fl_str_mv Reidentificación de personas basada en aprendizaje de características de partes del cuerpo mediante redes convolucionales en triplet loss
title Reidentificación de personas basada en aprendizaje de características de partes del cuerpo mediante redes convolucionales en triplet loss
spellingShingle Reidentificación de personas basada en aprendizaje de características de partes del cuerpo mediante redes convolucionales en triplet loss
Durand Espinoza, Jonathan Antony
reidentificación de personas
incremento de datos
Función de perdida de tripletes
https://purl.org/pe-repo/ocde/ford#1.02.01
title_short Reidentificación de personas basada en aprendizaje de características de partes del cuerpo mediante redes convolucionales en triplet loss
title_full Reidentificación de personas basada en aprendizaje de características de partes del cuerpo mediante redes convolucionales en triplet loss
title_fullStr Reidentificación de personas basada en aprendizaje de características de partes del cuerpo mediante redes convolucionales en triplet loss
title_full_unstemmed Reidentificación de personas basada en aprendizaje de características de partes del cuerpo mediante redes convolucionales en triplet loss
title_sort Reidentificación de personas basada en aprendizaje de características de partes del cuerpo mediante redes convolucionales en triplet loss
author Durand Espinoza, Jonathan Antony
author_facet Durand Espinoza, Jonathan Antony
author_role author
dc.contributor.advisor.fl_str_mv Camara Chavez, Guillermo
dc.contributor.author.fl_str_mv Durand Espinoza, Jonathan Antony
dc.subject.es_PE.fl_str_mv reidentificación de personas
incremento de datos
Función de perdida de tripletes
topic reidentificación de personas
incremento de datos
Función de perdida de tripletes
https://purl.org/pe-repo/ocde/ford#1.02.01
dc.subject.ocde.es_PE.fl_str_mv https://purl.org/pe-repo/ocde/ford#1.02.01
description Reidentificación de personas consiste en reconocer si imágenes de dos personas obtenidas a través de un sistema de múltiples cámaras que no se superponen correspondan a la misma persona. A pesar de recientes avances en este campo, este problema aún permanece como un reto debido a que las imágenes en cámaras de viodevigilancia suelen ser de baja calidad, presentan cambios en la iluminación, así como variaciones en las poses de las personas. Métodos basados en aprendizaje profundo han alcanzado un notable avance en este tema, estos tienen como objetivo aprender las características que permitan discriminar de qué persona se trata dada una imagen. En esta tesis, proponemos un modelo diseñado desde cero que se apoya en la idea de función de perdida de tripletes (triplet loss) en redes neuronales convolucionales basados en partes del cuerpo en la reidentificación de personas, llamamos a nuestra arquitectura AETCNN. Nuestro modelo es capaz de aprender las características de las partes del cuerpo en imágenes de cámaras de vigilancia e integrar esas informaciones para producir las características finales. La eficacia de nuestro método se muestra al evaluar en diferentes bases de datos publica, siguiendo el mismo protocolo utilizado en el estado del arte comparando métricas como tiempo de entrenamiento de la red y capacidad de predicción. Experimentos muestran que nuestro enfoque alcanza resultados prometedores, obteniendo a una tasa de aciertos en ranking-1 de 81,20% ,65,50% y 34,40% en bases de datos como CUHK01, CUHK03 y PRID2011 respectivamente, contribuyendo así en el estado del arte.
publishDate 2018
dc.date.accessioned.none.fl_str_mv 2019-05-09T14:24:56Z
dc.date.available.none.fl_str_mv 2019-05-09T14:24:56Z
dc.date.issued.fl_str_mv 2018
dc.type.none.fl_str_mv info:eu-repo/semantics/masterThesis
format masterThesis
dc.identifier.other.none.fl_str_mv 1068006
dc.identifier.uri.none.fl_str_mv https://hdl.handle.net/20.500.12590/15976
identifier_str_mv 1068006
url https://hdl.handle.net/20.500.12590/15976
dc.language.iso.es_PE.fl_str_mv spa
language spa
dc.relation.ispartof.fl_str_mv SUNEDU
dc.rights.es_PE.fl_str_mv info:eu-repo/semantics/openAccess
dc.rights.uri.es_PE.fl_str_mv https://creativecommons.org/licenses/by/4.0/
eu_rights_str_mv openAccess
rights_invalid_str_mv https://creativecommons.org/licenses/by/4.0/
dc.format.es_PE.fl_str_mv application/pdf
dc.publisher.es_PE.fl_str_mv Universidad Católica San Pablo
dc.publisher.country.es_PE.fl_str_mv PE
dc.source.es_PE.fl_str_mv Universidad Católica San Pablo
Repositorio Institucional - UCSP
dc.source.none.fl_str_mv reponame:UCSP-Institucional
instname:Universidad Católica San Pablo
instacron:UCSP
instname_str Universidad Católica San Pablo
instacron_str UCSP
institution UCSP
reponame_str UCSP-Institucional
collection UCSP-Institucional
bitstream.url.fl_str_mv https://repositorio.ucsp.edu.pe/backend/api/core/bitstreams/fe254c9e-92aa-43a1-bfdb-a763cc6a8bd0/download
https://repositorio.ucsp.edu.pe/backend/api/core/bitstreams/a0c7d804-c8fe-4494-bd8b-875018d42c3d/download
https://repositorio.ucsp.edu.pe/backend/api/core/bitstreams/d1a0fc44-ee20-476a-b6f8-ba10288be2ca/download
https://repositorio.ucsp.edu.pe/backend/api/core/bitstreams/18534e62-8aa8-4495-bf0a-45d98f71790f/download
bitstream.checksum.fl_str_mv 8a4605be74aa9ea9d79846c1fba20a33
a1c82651af677b6ddb06103fcd9c32b0
c047ad290c115ed27bf4b155710e6ad7
b1e0bd67a53d3f953e562960e4b64c57
bitstream.checksumAlgorithm.fl_str_mv MD5
MD5
MD5
MD5
repository.name.fl_str_mv Repositorio Institucional de la Universidad Católica San Pablo
repository.mail.fl_str_mv dspace@ucsp.edu.pe
_version_ 1851053055873646592
spelling Camara Chavez, GuillermoDurand Espinoza, Jonathan Antony2019-05-09T14:24:56Z2019-05-09T14:24:56Z20181068006https://hdl.handle.net/20.500.12590/15976Reidentificación de personas consiste en reconocer si imágenes de dos personas obtenidas a través de un sistema de múltiples cámaras que no se superponen correspondan a la misma persona. A pesar de recientes avances en este campo, este problema aún permanece como un reto debido a que las imágenes en cámaras de viodevigilancia suelen ser de baja calidad, presentan cambios en la iluminación, así como variaciones en las poses de las personas. Métodos basados en aprendizaje profundo han alcanzado un notable avance en este tema, estos tienen como objetivo aprender las características que permitan discriminar de qué persona se trata dada una imagen. En esta tesis, proponemos un modelo diseñado desde cero que se apoya en la idea de función de perdida de tripletes (triplet loss) en redes neuronales convolucionales basados en partes del cuerpo en la reidentificación de personas, llamamos a nuestra arquitectura AETCNN. Nuestro modelo es capaz de aprender las características de las partes del cuerpo en imágenes de cámaras de vigilancia e integrar esas informaciones para producir las características finales. La eficacia de nuestro método se muestra al evaluar en diferentes bases de datos publica, siguiendo el mismo protocolo utilizado en el estado del arte comparando métricas como tiempo de entrenamiento de la red y capacidad de predicción. Experimentos muestran que nuestro enfoque alcanza resultados prometedores, obteniendo a una tasa de aciertos en ranking-1 de 81,20% ,65,50% y 34,40% en bases de datos como CUHK01, CUHK03 y PRID2011 respectivamente, contribuyendo así en el estado del arte.Trabajo de investigaciónapplication/pdfspaUniversidad Católica San PabloPEinfo:eu-repo/semantics/openAccesshttps://creativecommons.org/licenses/by/4.0/Universidad Católica San PabloRepositorio Institucional - UCSPreponame:UCSP-Institucionalinstname:Universidad Católica San Pabloinstacron:UCSPreidentificación de personasincremento de datosFunción de perdida de tripleteshttps://purl.org/pe-repo/ocde/ford#1.02.01Reidentificación de personas basada en aprendizaje de características de partes del cuerpo mediante redes convolucionales en triplet lossinfo:eu-repo/semantics/masterThesisSUNEDUMaestro en Ciencia de la ComputaciónUniversidad Católica San Pablo. Facultad de Ingeniería y ComputaciónMaestríaCiencia de la ComputaciónEscuela Profesional de Ciencia de la ComputaciónLICENSElicense.txtlicense.txttext/plain; charset=utf-81748https://repositorio.ucsp.edu.pe/backend/api/core/bitstreams/fe254c9e-92aa-43a1-bfdb-a763cc6a8bd0/download8a4605be74aa9ea9d79846c1fba20a33MD52ORIGINALESPINOZA_DURAND_JON_TRI.pdfESPINOZA_DURAND_JON_TRI.pdfapplication/pdf5945752https://repositorio.ucsp.edu.pe/backend/api/core/bitstreams/a0c7d804-c8fe-4494-bd8b-875018d42c3d/downloada1c82651af677b6ddb06103fcd9c32b0MD54TEXTESPINOZA_DURAND_JON_TRI.pdf.txtESPINOZA_DURAND_JON_TRI.pdf.txtExtracted texttext/plain127254https://repositorio.ucsp.edu.pe/backend/api/core/bitstreams/d1a0fc44-ee20-476a-b6f8-ba10288be2ca/downloadc047ad290c115ed27bf4b155710e6ad7MD53THUMBNAILESPINOZA_DURAND_JON_TRI.pdf.jpgESPINOZA_DURAND_JON_TRI.pdf.jpgGenerated Thumbnailimage/jpeg3888https://repositorio.ucsp.edu.pe/backend/api/core/bitstreams/18534e62-8aa8-4495-bf0a-45d98f71790f/downloadb1e0bd67a53d3f953e562960e4b64c57MD5520.500.12590/15976oai:repositorio.ucsp.edu.pe:20.500.12590/159762023-07-26 01:35:42.219https://creativecommons.org/licenses/by/4.0/info:eu-repo/semantics/openAccessopen.accesshttps://repositorio.ucsp.edu.peRepositorio Institucional de la Universidad Católica San Pablodspace@ucsp.edu.peTk9URTogUExBQ0UgWU9VUiBPV04gTElDRU5TRSBIRVJFClRoaXMgc2FtcGxlIGxpY2Vuc2UgaXMgcHJvdmlkZWQgZm9yIGluZm9ybWF0aW9uYWwgcHVycG9zZXMgb25seS4KCk5PTi1FWENMVVNJVkUgRElTVFJJQlVUSU9OIExJQ0VOU0UKCkJ5IHNpZ25pbmcgYW5kIHN1Ym1pdHRpbmcgdGhpcyBsaWNlbnNlLCB5b3UgKHRoZSBhdXRob3Iocykgb3IgY29weXJpZ2h0Cm93bmVyKSBncmFudHMgdG8gRFNwYWNlIFVuaXZlcnNpdHkgKERTVSkgdGhlIG5vbi1leGNsdXNpdmUgcmlnaHQgdG8gcmVwcm9kdWNlLAp0cmFuc2xhdGUgKGFzIGRlZmluZWQgYmVsb3cpLCBhbmQvb3IgZGlzdHJpYnV0ZSB5b3VyIHN1Ym1pc3Npb24gKGluY2x1ZGluZwp0aGUgYWJzdHJhY3QpIHdvcmxkd2lkZSBpbiBwcmludCBhbmQgZWxlY3Ryb25pYyBmb3JtYXQgYW5kIGluIGFueSBtZWRpdW0sCmluY2x1ZGluZyBidXQgbm90IGxpbWl0ZWQgdG8gYXVkaW8gb3IgdmlkZW8uCgpZb3UgYWdyZWUgdGhhdCBEU1UgbWF5LCB3aXRob3V0IGNoYW5naW5nIHRoZSBjb250ZW50LCB0cmFuc2xhdGUgdGhlCnN1Ym1pc3Npb24gdG8gYW55IG1lZGl1bSBvciBmb3JtYXQgZm9yIHRoZSBwdXJwb3NlIG9mIHByZXNlcnZhdGlvbi4KCllvdSBhbHNvIGFncmVlIHRoYXQgRFNVIG1heSBrZWVwIG1vcmUgdGhhbiBvbmUgY29weSBvZiB0aGlzIHN1Ym1pc3Npb24gZm9yCnB1cnBvc2VzIG9mIHNlY3VyaXR5LCBiYWNrLXVwIGFuZCBwcmVzZXJ2YXRpb24uCgpZb3UgcmVwcmVzZW50IHRoYXQgdGhlIHN1Ym1pc3Npb24gaXMgeW91ciBvcmlnaW5hbCB3b3JrLCBhbmQgdGhhdCB5b3UgaGF2ZQp0aGUgcmlnaHQgdG8gZ3JhbnQgdGhlIHJpZ2h0cyBjb250YWluZWQgaW4gdGhpcyBsaWNlbnNlLiBZb3UgYWxzbyByZXByZXNlbnQKdGhhdCB5b3VyIHN1Ym1pc3Npb24gZG9lcyBub3QsIHRvIHRoZSBiZXN0IG9mIHlvdXIga25vd2xlZGdlLCBpbmZyaW5nZSB1cG9uCmFueW9uZSdzIGNvcHlyaWdodC4KCklmIHRoZSBzdWJtaXNzaW9uIGNvbnRhaW5zIG1hdGVyaWFsIGZvciB3aGljaCB5b3UgZG8gbm90IGhvbGQgY29weXJpZ2h0LAp5b3UgcmVwcmVzZW50IHRoYXQgeW91IGhhdmUgb2J0YWluZWQgdGhlIHVucmVzdHJpY3RlZCBwZXJtaXNzaW9uIG9mIHRoZQpjb3B5cmlnaHQgb3duZXIgdG8gZ3JhbnQgRFNVIHRoZSByaWdodHMgcmVxdWlyZWQgYnkgdGhpcyBsaWNlbnNlLCBhbmQgdGhhdApzdWNoIHRoaXJkLXBhcnR5IG93bmVkIG1hdGVyaWFsIGlzIGNsZWFybHkgaWRlbnRpZmllZCBhbmQgYWNrbm93bGVkZ2VkCndpdGhpbiB0aGUgdGV4dCBvciBjb250ZW50IG9mIHRoZSBzdWJtaXNzaW9uLgoKSUYgVEhFIFNVQk1JU1NJT04gSVMgQkFTRUQgVVBPTiBXT1JLIFRIQVQgSEFTIEJFRU4gU1BPTlNPUkVEIE9SIFNVUFBPUlRFRApCWSBBTiBBR0VOQ1kgT1IgT1JHQU5JWkFUSU9OIE9USEVSIFRIQU4gRFNVLCBZT1UgUkVQUkVTRU5UIFRIQVQgWU9VIEhBVkUKRlVMRklMTEVEIEFOWSBSSUdIVCBPRiBSRVZJRVcgT1IgT1RIRVIgT0JMSUdBVElPTlMgUkVRVUlSRUQgQlkgU1VDSApDT05UUkFDVCBPUiBBR1JFRU1FTlQuCgpEU1Ugd2lsbCBjbGVhcmx5IGlkZW50aWZ5IHlvdXIgbmFtZShzKSBhcyB0aGUgYXV0aG9yKHMpIG9yIG93bmVyKHMpIG9mIHRoZQpzdWJtaXNzaW9uLCBhbmQgd2lsbCBub3QgbWFrZSBhbnkgYWx0ZXJhdGlvbiwgb3RoZXIgdGhhbiBhcyBhbGxvd2VkIGJ5IHRoaXMKbGljZW5zZSwgdG8geW91ciBzdWJtaXNzaW9uLgo=
score 13.449169
Nota importante:
La información contenida en este registro es de entera responsabilidad de la institución que gestiona el repositorio institucional donde esta contenido este documento o set de datos. El CONCYTEC no se hace responsable por los contenidos (publicaciones y/o datos) accesibles a través del Repositorio Nacional Digital de Ciencia, Tecnología e Innovación de Acceso Abierto (ALICIA).