Un modelo ligero para la rápida detección y clasificación de objetos en movimiento orientado a sistemas inteligentes de vigilancia
Descripción del Articulo
La detección y clasificación de objetos en movimiento son tareas fundamentales en la vigilancia inteligente. Sin embargo, las soluciones actuales suelen emplear dos procesos aislados para detectar y clasificar objetos en movimiento. Primero, se detectan todos los objetos dentro de la escena y luego...
| Autor: | |
|---|---|
| Formato: | tesis de grado |
| Fecha de Publicación: | 2024 |
| Institución: | Universidad Católica San Pablo |
| Repositorio: | UCSP-Institucional |
| Lenguaje: | español |
| OAI Identifier: | oai:repositorio.ucsp.edu.pe:20.500.12590/18267 |
| Enlace del recurso: | https://hdl.handle.net/20.500.12590/18267 |
| Nivel de acceso: | acceso abierto |
| Materia: | Detección Clasificación Objetos en movimiento Modelo ligero Mixtura Gaussiana https://purl.org/pe-repo/ocde/ford#1.02.01 |
| id |
UCSP_c65862cbb32d8a774dbbb5dabcbea908 |
|---|---|
| oai_identifier_str |
oai:repositorio.ucsp.edu.pe:20.500.12590/18267 |
| network_acronym_str |
UCSP |
| network_name_str |
UCSP-Institucional |
| repository_id_str |
3854 |
| dc.title.none.fl_str_mv |
Un modelo ligero para la rápida detección y clasificación de objetos en movimiento orientado a sistemas inteligentes de vigilancia |
| title |
Un modelo ligero para la rápida detección y clasificación de objetos en movimiento orientado a sistemas inteligentes de vigilancia |
| spellingShingle |
Un modelo ligero para la rápida detección y clasificación de objetos en movimiento orientado a sistemas inteligentes de vigilancia Palma Ugarte, Joaquin Rodrigo Detección Clasificación Objetos en movimiento Modelo ligero Mixtura Gaussiana https://purl.org/pe-repo/ocde/ford#1.02.01 |
| title_short |
Un modelo ligero para la rápida detección y clasificación de objetos en movimiento orientado a sistemas inteligentes de vigilancia |
| title_full |
Un modelo ligero para la rápida detección y clasificación de objetos en movimiento orientado a sistemas inteligentes de vigilancia |
| title_fullStr |
Un modelo ligero para la rápida detección y clasificación de objetos en movimiento orientado a sistemas inteligentes de vigilancia |
| title_full_unstemmed |
Un modelo ligero para la rápida detección y clasificación de objetos en movimiento orientado a sistemas inteligentes de vigilancia |
| title_sort |
Un modelo ligero para la rápida detección y clasificación de objetos en movimiento orientado a sistemas inteligentes de vigilancia |
| author |
Palma Ugarte, Joaquin Rodrigo |
| author_facet |
Palma Ugarte, Joaquin Rodrigo |
| author_role |
author |
| dc.contributor.advisor.fl_str_mv |
Cayllahua Cahuina, Edward Jorge Yuri |
| dc.contributor.author.fl_str_mv |
Palma Ugarte, Joaquin Rodrigo |
| dc.subject.none.fl_str_mv |
Detección Clasificación Objetos en movimiento Modelo ligero Mixtura Gaussiana |
| topic |
Detección Clasificación Objetos en movimiento Modelo ligero Mixtura Gaussiana https://purl.org/pe-repo/ocde/ford#1.02.01 |
| dc.subject.ocde.none.fl_str_mv |
https://purl.org/pe-repo/ocde/ford#1.02.01 |
| description |
La detección y clasificación de objetos en movimiento son tareas fundamentales en la vigilancia inteligente. Sin embargo, las soluciones actuales suelen emplear dos procesos aislados para detectar y clasificar objetos en movimiento. Primero, se detectan todos los objetos dentro de la escena y luego se emplea un algoritmo separado para determinar el subconjunto de objetos que están en movimiento. Además, diversas soluciones emplean redes complejas que requieren muchos recursos computacionales, a diferencia de las soluciones livianas que podrían llevar a un uso generalizado. En esta Tesis proponemos TRG-Net, un modelo unificado que se puede ejecutar en dispositivos computacionalmente limitados para detectar y clasificar únicamente objetos en movimiento. Esta propuesta se basa en la arquitectura Faster R-CNN, MobileNetV3 como extractor de características y un método basado en GMM para una búsqueda rápida y flexible de regiones de interés. TRG-Net reduce el tiempo de inferencia al unificar las tareas de detección de objetos en movimiento y clasificación de imágenes, limitando las propuestas de regiones a un número fijo configurable de posibles objetos en movimiento. Los experimentos con vídeos de vigilancia heterogéneos y el conjunto de datos de Kitti para la detección de objetos 2D muestran que nuestro enfoque mejora el tiempo de inferencia de Faster RCNN de 0.176 a 0.149 s, utilizando menos parámetros de 18.91 M a 18.30 M, mientras mantiene la precisión promedio media mAP de 0.423. Por lo tanto, TRG-Net logra compensaciones más tangibles entre precisión y velocidad, y podría aplicarse para abordar problemas del mundo real. |
| publishDate |
2024 |
| dc.date.accessioned.none.fl_str_mv |
2024-08-02T03:52:04Z |
| dc.date.available.none.fl_str_mv |
2024-08-02T03:52:04Z |
| dc.date.issued.fl_str_mv |
2024 |
| dc.type.none.fl_str_mv |
info:eu-repo/semantics/bachelorThesis |
| dc.type.version.none.fl_str_mv |
info:eu-repo/semantics/publishedVersion |
| format |
bachelorThesis |
| status_str |
publishedVersion |
| dc.identifier.other.none.fl_str_mv |
1081454 |
| dc.identifier.uri.none.fl_str_mv |
https://hdl.handle.net/20.500.12590/18267 |
| identifier_str_mv |
1081454 |
| url |
https://hdl.handle.net/20.500.12590/18267 |
| dc.language.iso.none.fl_str_mv |
spa |
| language |
spa |
| dc.relation.ispartof.fl_str_mv |
SUNEDU |
| dc.rights.none.fl_str_mv |
info:eu-repo/semantics/openAccess |
| dc.rights.uri.none.fl_str_mv |
https://creativecommons.org/licenses/by-nc-nd/4.0/ |
| eu_rights_str_mv |
openAccess |
| rights_invalid_str_mv |
https://creativecommons.org/licenses/by-nc-nd/4.0/ |
| dc.format.none.fl_str_mv |
application/pdf |
| dc.publisher.none.fl_str_mv |
Universidad Católica San Pablo |
| dc.publisher.country.none.fl_str_mv |
PE |
| publisher.none.fl_str_mv |
Universidad Católica San Pablo |
| dc.source.none.fl_str_mv |
reponame:UCSP-Institucional instname:Universidad Católica San Pablo instacron:UCSP |
| instname_str |
Universidad Católica San Pablo |
| instacron_str |
UCSP |
| institution |
UCSP |
| reponame_str |
UCSP-Institucional |
| collection |
UCSP-Institucional |
| bitstream.url.fl_str_mv |
https://repositorio.ucsp.edu.pe/backend/api/core/bitstreams/e8d5f0d4-6d20-4977-8229-5117efe71b76/download https://repositorio.ucsp.edu.pe/backend/api/core/bitstreams/d2acb26e-110d-409f-911f-d402934663f2/download https://repositorio.ucsp.edu.pe/backend/api/core/bitstreams/f896d033-bbd0-4f66-bf21-8a80bb4ab964/download https://repositorio.ucsp.edu.pe/backend/api/core/bitstreams/84ea21c0-2bd5-4b24-871c-17d64c622280/download https://repositorio.ucsp.edu.pe/backend/api/core/bitstreams/268ee458-1ef1-403c-8db1-88eea183d5f8/download https://repositorio.ucsp.edu.pe/backend/api/core/bitstreams/e58b4bed-745d-48af-922f-e8cd5a1bd83a/download https://repositorio.ucsp.edu.pe/backend/api/core/bitstreams/70c73442-ebd2-4d24-b0ac-09d4a81542b3/download https://repositorio.ucsp.edu.pe/backend/api/core/bitstreams/78d08f07-e7e5-4233-9247-d56005bc8f43/download https://repositorio.ucsp.edu.pe/backend/api/core/bitstreams/11aa002c-93ec-41bf-8986-5222f787597e/download https://repositorio.ucsp.edu.pe/backend/api/core/bitstreams/748fc203-5720-468e-8be6-02f554b379fc/download https://repositorio.ucsp.edu.pe/backend/api/core/bitstreams/c62078ae-2428-46ef-9c58-3b20863fabcd/download https://repositorio.ucsp.edu.pe/backend/api/core/bitstreams/2778c671-2713-4fb1-98b1-571f3f00f15c/download https://repositorio.ucsp.edu.pe/backend/api/core/bitstreams/130cc06e-2626-4518-a901-42f03671740e/download |
| bitstream.checksum.fl_str_mv |
8a4605be74aa9ea9d79846c1fba20a33 6f604bf36225d87eda5726b949c25b12 9fc119002fc53ff44886442be7d553c0 af54e546931ebf5fbf030ef335fc7371 d97884a59fdaf1a2afd6842487a5ce9d 4baac124018c53f204c08d6d57b2235d 0c49e39711e265922d9378c9f62e4d1f 84f4a5c5871b7046e3a9ecbc5b143c2c 9afa2f5bdaa75dc751a39f326f8054af 5c02d746c5c498571223856a17232512 bead86997d3ed80220a36990ff8423fd e024f4b8d436e424e4259b0cd4c671ef 6e0300caa5d460facf656a53dad3843d |
| bitstream.checksumAlgorithm.fl_str_mv |
MD5 MD5 MD5 MD5 MD5 MD5 MD5 MD5 MD5 MD5 MD5 MD5 MD5 |
| repository.name.fl_str_mv |
Repositorio Institucional de la Universidad Católica San Pablo |
| repository.mail.fl_str_mv |
dspace@ucsp.edu.pe |
| _version_ |
1851053043977551872 |
| spelling |
Cayllahua Cahuina, Edward Jorge YuriPalma Ugarte, Joaquin Rodrigo2024-08-02T03:52:04Z2024-08-02T03:52:04Z20241081454https://hdl.handle.net/20.500.12590/18267La detección y clasificación de objetos en movimiento son tareas fundamentales en la vigilancia inteligente. Sin embargo, las soluciones actuales suelen emplear dos procesos aislados para detectar y clasificar objetos en movimiento. Primero, se detectan todos los objetos dentro de la escena y luego se emplea un algoritmo separado para determinar el subconjunto de objetos que están en movimiento. Además, diversas soluciones emplean redes complejas que requieren muchos recursos computacionales, a diferencia de las soluciones livianas que podrían llevar a un uso generalizado. En esta Tesis proponemos TRG-Net, un modelo unificado que se puede ejecutar en dispositivos computacionalmente limitados para detectar y clasificar únicamente objetos en movimiento. Esta propuesta se basa en la arquitectura Faster R-CNN, MobileNetV3 como extractor de características y un método basado en GMM para una búsqueda rápida y flexible de regiones de interés. TRG-Net reduce el tiempo de inferencia al unificar las tareas de detección de objetos en movimiento y clasificación de imágenes, limitando las propuestas de regiones a un número fijo configurable de posibles objetos en movimiento. Los experimentos con vídeos de vigilancia heterogéneos y el conjunto de datos de Kitti para la detección de objetos 2D muestran que nuestro enfoque mejora el tiempo de inferencia de Faster RCNN de 0.176 a 0.149 s, utilizando menos parámetros de 18.91 M a 18.30 M, mientras mantiene la precisión promedio media mAP de 0.423. Por lo tanto, TRG-Net logra compensaciones más tangibles entre precisión y velocidad, y podría aplicarse para abordar problemas del mundo real.Tesis de pregradoapplication/pdfspaUniversidad Católica San PabloPEinfo:eu-repo/semantics/openAccesshttps://creativecommons.org/licenses/by-nc-nd/4.0/DetecciónClasificaciónObjetos en movimientoModelo ligeroMixtura Gaussianahttps://purl.org/pe-repo/ocde/ford#1.02.01Un modelo ligero para la rápida detección y clasificación de objetos en movimiento orientado a sistemas inteligentes de vigilanciainfo:eu-repo/semantics/bachelorThesisinfo:eu-repo/semantics/publishedVersionreponame:UCSP-Institucionalinstname:Universidad Católica San Pabloinstacron:UCSPSUNEDULicenciado en Ciencia de la ComputaciónUniversidad Católica San Pablo. Departamento Ciencia de la ComputaciónTítulo ProfesionalCiencia de la ComputaciónEscuela Profesional Ciencia de la Computación70236306https://orcid.org/0000-0001-5422-077942425489https://purl.org/pe-repo/renati/type#tesishttps://purl.org/pe-repo/renati/level#tituloProfesional611016Gutierrez Caceres, Juan CarlosYari Ramos, Yessenia DeysiLICENSElicense.txtlicense.txttext/plain; charset=utf-81748https://repositorio.ucsp.edu.pe/backend/api/core/bitstreams/e8d5f0d4-6d20-4977-8229-5117efe71b76/download8a4605be74aa9ea9d79846c1fba20a33MD51ORIGINALPALMA_UGARTE_JOA_MOD.pdfPALMA_UGARTE_JOA_MOD.pdfapplication/pdf824302https://repositorio.ucsp.edu.pe/backend/api/core/bitstreams/d2acb26e-110d-409f-911f-d402934663f2/download6f604bf36225d87eda5726b949c25b12MD52TURNITIN.pdfTURNITIN.pdfapplication/pdf12146591https://repositorio.ucsp.edu.pe/backend/api/core/bitstreams/f896d033-bbd0-4f66-bf21-8a80bb4ab964/download9fc119002fc53ff44886442be7d553c0MD53AUTORIZACION.pdfAUTORIZACION.pdfapplication/pdf832877https://repositorio.ucsp.edu.pe/backend/api/core/bitstreams/84ea21c0-2bd5-4b24-871c-17d64c622280/downloadaf54e546931ebf5fbf030ef335fc7371MD54ACTA.pdfACTA.pdfapplication/pdf878974https://repositorio.ucsp.edu.pe/backend/api/core/bitstreams/268ee458-1ef1-403c-8db1-88eea183d5f8/downloadd97884a59fdaf1a2afd6842487a5ce9dMD55TEXTPALMA_UGARTE_JOA_MOD.pdf.txtPALMA_UGARTE_JOA_MOD.pdf.txtExtracted texttext/plain101990https://repositorio.ucsp.edu.pe/backend/api/core/bitstreams/e58b4bed-745d-48af-922f-e8cd5a1bd83a/download4baac124018c53f204c08d6d57b2235dMD56TURNITIN.pdf.txtTURNITIN.pdf.txtExtracted texttext/plain8770https://repositorio.ucsp.edu.pe/backend/api/core/bitstreams/70c73442-ebd2-4d24-b0ac-09d4a81542b3/download0c49e39711e265922d9378c9f62e4d1fMD58AUTORIZACION.pdf.txtAUTORIZACION.pdf.txtExtracted texttext/plain2233https://repositorio.ucsp.edu.pe/backend/api/core/bitstreams/78d08f07-e7e5-4233-9247-d56005bc8f43/download84f4a5c5871b7046e3a9ecbc5b143c2cMD510ACTA.pdf.txtACTA.pdf.txtExtracted texttext/plain398https://repositorio.ucsp.edu.pe/backend/api/core/bitstreams/11aa002c-93ec-41bf-8986-5222f787597e/download9afa2f5bdaa75dc751a39f326f8054afMD512THUMBNAILPALMA_UGARTE_JOA_MOD.pdf.jpgPALMA_UGARTE_JOA_MOD.pdf.jpgGenerated Thumbnailimage/jpeg21296https://repositorio.ucsp.edu.pe/backend/api/core/bitstreams/748fc203-5720-468e-8be6-02f554b379fc/download5c02d746c5c498571223856a17232512MD57TURNITIN.pdf.jpgTURNITIN.pdf.jpgGenerated Thumbnailimage/jpeg9037https://repositorio.ucsp.edu.pe/backend/api/core/bitstreams/c62078ae-2428-46ef-9c58-3b20863fabcd/downloadbead86997d3ed80220a36990ff8423fdMD59AUTORIZACION.pdf.jpgAUTORIZACION.pdf.jpgGenerated Thumbnailimage/jpeg27724https://repositorio.ucsp.edu.pe/backend/api/core/bitstreams/2778c671-2713-4fb1-98b1-571f3f00f15c/downloade024f4b8d436e424e4259b0cd4c671efMD511ACTA.pdf.jpgACTA.pdf.jpgGenerated Thumbnailimage/jpeg22925https://repositorio.ucsp.edu.pe/backend/api/core/bitstreams/130cc06e-2626-4518-a901-42f03671740e/download6e0300caa5d460facf656a53dad3843dMD51320.500.12590/18267oai:repositorio.ucsp.edu.pe:20.500.12590/182672024-08-02 10:10:47.916https://creativecommons.org/licenses/by-nc-nd/4.0/info:eu-repo/semantics/openAccessopen.accesshttps://repositorio.ucsp.edu.peRepositorio Institucional de la Universidad Católica San Pablodspace@ucsp.edu.peTk9URTogUExBQ0UgWU9VUiBPV04gTElDRU5TRSBIRVJFClRoaXMgc2FtcGxlIGxpY2Vuc2UgaXMgcHJvdmlkZWQgZm9yIGluZm9ybWF0aW9uYWwgcHVycG9zZXMgb25seS4KCk5PTi1FWENMVVNJVkUgRElTVFJJQlVUSU9OIExJQ0VOU0UKCkJ5IHNpZ25pbmcgYW5kIHN1Ym1pdHRpbmcgdGhpcyBsaWNlbnNlLCB5b3UgKHRoZSBhdXRob3Iocykgb3IgY29weXJpZ2h0Cm93bmVyKSBncmFudHMgdG8gRFNwYWNlIFVuaXZlcnNpdHkgKERTVSkgdGhlIG5vbi1leGNsdXNpdmUgcmlnaHQgdG8gcmVwcm9kdWNlLAp0cmFuc2xhdGUgKGFzIGRlZmluZWQgYmVsb3cpLCBhbmQvb3IgZGlzdHJpYnV0ZSB5b3VyIHN1Ym1pc3Npb24gKGluY2x1ZGluZwp0aGUgYWJzdHJhY3QpIHdvcmxkd2lkZSBpbiBwcmludCBhbmQgZWxlY3Ryb25pYyBmb3JtYXQgYW5kIGluIGFueSBtZWRpdW0sCmluY2x1ZGluZyBidXQgbm90IGxpbWl0ZWQgdG8gYXVkaW8gb3IgdmlkZW8uCgpZb3UgYWdyZWUgdGhhdCBEU1UgbWF5LCB3aXRob3V0IGNoYW5naW5nIHRoZSBjb250ZW50LCB0cmFuc2xhdGUgdGhlCnN1Ym1pc3Npb24gdG8gYW55IG1lZGl1bSBvciBmb3JtYXQgZm9yIHRoZSBwdXJwb3NlIG9mIHByZXNlcnZhdGlvbi4KCllvdSBhbHNvIGFncmVlIHRoYXQgRFNVIG1heSBrZWVwIG1vcmUgdGhhbiBvbmUgY29weSBvZiB0aGlzIHN1Ym1pc3Npb24gZm9yCnB1cnBvc2VzIG9mIHNlY3VyaXR5LCBiYWNrLXVwIGFuZCBwcmVzZXJ2YXRpb24uCgpZb3UgcmVwcmVzZW50IHRoYXQgdGhlIHN1Ym1pc3Npb24gaXMgeW91ciBvcmlnaW5hbCB3b3JrLCBhbmQgdGhhdCB5b3UgaGF2ZQp0aGUgcmlnaHQgdG8gZ3JhbnQgdGhlIHJpZ2h0cyBjb250YWluZWQgaW4gdGhpcyBsaWNlbnNlLiBZb3UgYWxzbyByZXByZXNlbnQKdGhhdCB5b3VyIHN1Ym1pc3Npb24gZG9lcyBub3QsIHRvIHRoZSBiZXN0IG9mIHlvdXIga25vd2xlZGdlLCBpbmZyaW5nZSB1cG9uCmFueW9uZSdzIGNvcHlyaWdodC4KCklmIHRoZSBzdWJtaXNzaW9uIGNvbnRhaW5zIG1hdGVyaWFsIGZvciB3aGljaCB5b3UgZG8gbm90IGhvbGQgY29weXJpZ2h0LAp5b3UgcmVwcmVzZW50IHRoYXQgeW91IGhhdmUgb2J0YWluZWQgdGhlIHVucmVzdHJpY3RlZCBwZXJtaXNzaW9uIG9mIHRoZQpjb3B5cmlnaHQgb3duZXIgdG8gZ3JhbnQgRFNVIHRoZSByaWdodHMgcmVxdWlyZWQgYnkgdGhpcyBsaWNlbnNlLCBhbmQgdGhhdApzdWNoIHRoaXJkLXBhcnR5IG93bmVkIG1hdGVyaWFsIGlzIGNsZWFybHkgaWRlbnRpZmllZCBhbmQgYWNrbm93bGVkZ2VkCndpdGhpbiB0aGUgdGV4dCBvciBjb250ZW50IG9mIHRoZSBzdWJtaXNzaW9uLgoKSUYgVEhFIFNVQk1JU1NJT04gSVMgQkFTRUQgVVBPTiBXT1JLIFRIQVQgSEFTIEJFRU4gU1BPTlNPUkVEIE9SIFNVUFBPUlRFRApCWSBBTiBBR0VOQ1kgT1IgT1JHQU5JWkFUSU9OIE9USEVSIFRIQU4gRFNVLCBZT1UgUkVQUkVTRU5UIFRIQVQgWU9VIEhBVkUKRlVMRklMTEVEIEFOWSBSSUdIVCBPRiBSRVZJRVcgT1IgT1RIRVIgT0JMSUdBVElPTlMgUkVRVUlSRUQgQlkgU1VDSApDT05UUkFDVCBPUiBBR1JFRU1FTlQuCgpEU1Ugd2lsbCBjbGVhcmx5IGlkZW50aWZ5IHlvdXIgbmFtZShzKSBhcyB0aGUgYXV0aG9yKHMpIG9yIG93bmVyKHMpIG9mIHRoZQpzdWJtaXNzaW9uLCBhbmQgd2lsbCBub3QgbWFrZSBhbnkgYWx0ZXJhdGlvbiwgb3RoZXIgdGhhbiBhcyBhbGxvd2VkIGJ5IHRoaXMKbGljZW5zZSwgdG8geW91ciBzdWJtaXNzaW9uLgo= |
| score |
13.966121 |
Nota importante:
La información contenida en este registro es de entera responsabilidad de la institución que gestiona el repositorio institucional donde esta contenido este documento o set de datos. El CONCYTEC no se hace responsable por los contenidos (publicaciones y/o datos) accesibles a través del Repositorio Nacional Digital de Ciencia, Tecnología e Innovación de Acceso Abierto (ALICIA).
La información contenida en este registro es de entera responsabilidad de la institución que gestiona el repositorio institucional donde esta contenido este documento o set de datos. El CONCYTEC no se hace responsable por los contenidos (publicaciones y/o datos) accesibles a través del Repositorio Nacional Digital de Ciencia, Tecnología e Innovación de Acceso Abierto (ALICIA).