Desarrollo y validación de un algoritmo basado en visión artificial para el reconocimiento de un posible asalto con arma de fuego en un local comercial de Lima

Descripción del Articulo

La presente tesis, tiene como objetivo principal desarrollar un algoritmo basado en visión artificial que permita el reconocimiento de los gestos corporales durante un asalto con arma de fuego en un local comercial, con el fin de brindar (desarrollar) un soporte tecnológico enfocado a la seguridad e...

Descripción completa

Detalles Bibliográficos
Autores: Aliaga Olivares, Aldo Mario, Pariona Lozano, Eduardo Joel
Formato: tesis de grado
Fecha de Publicación:2022
Institución:Universidad Tecnológica del Perú
Repositorio:UTP-Institucional
Lenguaje:español
OAI Identifier:oai:repositorio.utp.edu.pe:20.500.12867/6190
Enlace del recurso:https://hdl.handle.net/20.500.12867/6190
Nivel de acceso:acceso abierto
Materia:Algoritmos
Redes neuronales artificiales
Reconocimiento de gestos
Visión artificial
https://purl.org/pe-repo/ocde/ford#2.02.01
id UTPD_e4b0f84e148c9c4e591a17133403f995
oai_identifier_str oai:repositorio.utp.edu.pe:20.500.12867/6190
network_acronym_str UTPD
network_name_str UTP-Institucional
repository_id_str 4782
dc.title.es_PE.fl_str_mv Desarrollo y validación de un algoritmo basado en visión artificial para el reconocimiento de un posible asalto con arma de fuego en un local comercial de Lima
title Desarrollo y validación de un algoritmo basado en visión artificial para el reconocimiento de un posible asalto con arma de fuego en un local comercial de Lima
spellingShingle Desarrollo y validación de un algoritmo basado en visión artificial para el reconocimiento de un posible asalto con arma de fuego en un local comercial de Lima
Aliaga Olivares, Aldo Mario
Algoritmos
Redes neuronales artificiales
Reconocimiento de gestos
Visión artificial
https://purl.org/pe-repo/ocde/ford#2.02.01
title_short Desarrollo y validación de un algoritmo basado en visión artificial para el reconocimiento de un posible asalto con arma de fuego en un local comercial de Lima
title_full Desarrollo y validación de un algoritmo basado en visión artificial para el reconocimiento de un posible asalto con arma de fuego en un local comercial de Lima
title_fullStr Desarrollo y validación de un algoritmo basado en visión artificial para el reconocimiento de un posible asalto con arma de fuego en un local comercial de Lima
title_full_unstemmed Desarrollo y validación de un algoritmo basado en visión artificial para el reconocimiento de un posible asalto con arma de fuego en un local comercial de Lima
title_sort Desarrollo y validación de un algoritmo basado en visión artificial para el reconocimiento de un posible asalto con arma de fuego en un local comercial de Lima
author Aliaga Olivares, Aldo Mario
author_facet Aliaga Olivares, Aldo Mario
Pariona Lozano, Eduardo Joel
author_role author
author2 Pariona Lozano, Eduardo Joel
author2_role author
dc.contributor.advisor.fl_str_mv Machuca Mines, José Ambrosio
dc.contributor.author.fl_str_mv Aliaga Olivares, Aldo Mario
Pariona Lozano, Eduardo Joel
dc.subject.es_PE.fl_str_mv Algoritmos
Redes neuronales artificiales
Reconocimiento de gestos
Visión artificial
topic Algoritmos
Redes neuronales artificiales
Reconocimiento de gestos
Visión artificial
https://purl.org/pe-repo/ocde/ford#2.02.01
dc.subject.ocde.es_PE.fl_str_mv https://purl.org/pe-repo/ocde/ford#2.02.01
description La presente tesis, tiene como objetivo principal desarrollar un algoritmo basado en visión artificial que permita el reconocimiento de los gestos corporales durante un asalto con arma de fuego en un local comercial, con el fin de brindar (desarrollar) un soporte tecnológico enfocado a la seguridad electrónica. Para el entrenamiento y validación del algoritmo se utilizaron muestras provenientes de escenas simuladas dentro de un local comercial. Estás escenas se clasifican en dos clases: escenas del victimario y escenas de las víctimas. Para el desarrollo del algoritmo se utilizó el lenguaje Python en la versión 3.7 ya que este es compatible con el ordenador de placa única Raspberry Pi, en el cual se instaló la versión del sistema operativo de 64 bits. La adquisición de imágenes se trabajó bajo la norma DORI, que permite obtener una resolución de tipo “reconocimiento”, y se aplicó el protocolo RTSP para la comunicación vía ethernet con la cámara IP. En los vídeos se detectaron puntos cartesianos corporales aplicando interpolación bilineal y la red piramidal de funciones de MobileNetV2 teniendo como base el modelo MoveNet. Para el reconocimiento de gestos corporales, se aplicó vectorización por trasformación de coordenadas en dos puntos cartesianos en el cuarto cuadrante, normalización por método mínimo-máximo y una red neuronal recurrente LSTM. La red neuronal se configuró con el optimizador RMS prop y se utilizó el error cuadrático medio para el entrenamiento. La validación del algoritmo de reconocimiento de gestos corporales se realizó mediante 3 escenas simuladas de robo con arma de fuego en un local comercial, y se aplicó la matriz de confusión, Curva ROC, precisión y el coeficiente de correlación de Matthews, obteniéndose como resultados una precisión del 89.01% y un rendimiento del 84.40%.
publishDate 2022
dc.date.accessioned.none.fl_str_mv 2022-11-09T21:59:29Z
dc.date.available.none.fl_str_mv 2022-11-09T21:59:29Z
dc.date.issued.fl_str_mv 2022
dc.type.es_PE.fl_str_mv info:eu-repo/semantics/bachelorThesis
dc.type.version.es_PE.fl_str_mv info:eu-repo/semantics/publishedVersion
format bachelorThesis
status_str publishedVersion
dc.identifier.uri.none.fl_str_mv https://hdl.handle.net/20.500.12867/6190
url https://hdl.handle.net/20.500.12867/6190
dc.language.iso.es_PE.fl_str_mv spa
language spa
dc.relation.ispartof.fl_str_mv SUNEDU
dc.rights.es_PE.fl_str_mv info:eu-repo/semantics/openAccess
dc.rights.uri.es_PE.fl_str_mv http://creativecommons.org/licenses/by-nc-sa/4.0/
eu_rights_str_mv openAccess
rights_invalid_str_mv http://creativecommons.org/licenses/by-nc-sa/4.0/
dc.format.es_PE.fl_str_mv application/pdf
dc.publisher.es_PE.fl_str_mv Universidad Tecnológica del Perú
dc.publisher.country.es_PE.fl_str_mv PE
dc.source.es_PE.fl_str_mv Repositorio Institucional - UTP
Universidad Tecnológica del Perú
dc.source.none.fl_str_mv reponame:UTP-Institucional
instname:Universidad Tecnológica del Perú
instacron:UTP
instname_str Universidad Tecnológica del Perú
instacron_str UTP
institution UTP
reponame_str UTP-Institucional
collection UTP-Institucional
bitstream.url.fl_str_mv http://repositorio.utp.edu.pe/bitstream/20.500.12867/6190/1/A.Aliaga_E.Pariona_Tesis_Titulo_Profesional_2022.pdf
http://repositorio.utp.edu.pe/bitstream/20.500.12867/6190/2/license.txt
http://repositorio.utp.edu.pe/bitstream/20.500.12867/6190/3/A.Aliaga_E.Pariona_Tesis_Titulo_Profesional_2022.pdf.txt
http://repositorio.utp.edu.pe/bitstream/20.500.12867/6190/4/A.Aliaga_E.Pariona_Tesis_Titulo_Profesional_2022.pdf.jpg
bitstream.checksum.fl_str_mv 66c1fa02ef2ef7df2ef5a5f4436687fc
8a4605be74aa9ea9d79846c1fba20a33
9a2ffbaf0874472318cc33046692cd5a
8e78a1e896862c3ac479befcdbd907ab
bitstream.checksumAlgorithm.fl_str_mv MD5
MD5
MD5
MD5
repository.name.fl_str_mv Repositorio Institucional de la Universidad Tecnológica del Perú
repository.mail.fl_str_mv repositorio@utp.edu.pe
_version_ 1817984937481994240
spelling Machuca Mines, José AmbrosioAliaga Olivares, Aldo MarioPariona Lozano, Eduardo Joel2022-11-09T21:59:29Z2022-11-09T21:59:29Z2022https://hdl.handle.net/20.500.12867/6190La presente tesis, tiene como objetivo principal desarrollar un algoritmo basado en visión artificial que permita el reconocimiento de los gestos corporales durante un asalto con arma de fuego en un local comercial, con el fin de brindar (desarrollar) un soporte tecnológico enfocado a la seguridad electrónica. Para el entrenamiento y validación del algoritmo se utilizaron muestras provenientes de escenas simuladas dentro de un local comercial. Estás escenas se clasifican en dos clases: escenas del victimario y escenas de las víctimas. Para el desarrollo del algoritmo se utilizó el lenguaje Python en la versión 3.7 ya que este es compatible con el ordenador de placa única Raspberry Pi, en el cual se instaló la versión del sistema operativo de 64 bits. La adquisición de imágenes se trabajó bajo la norma DORI, que permite obtener una resolución de tipo “reconocimiento”, y se aplicó el protocolo RTSP para la comunicación vía ethernet con la cámara IP. En los vídeos se detectaron puntos cartesianos corporales aplicando interpolación bilineal y la red piramidal de funciones de MobileNetV2 teniendo como base el modelo MoveNet. Para el reconocimiento de gestos corporales, se aplicó vectorización por trasformación de coordenadas en dos puntos cartesianos en el cuarto cuadrante, normalización por método mínimo-máximo y una red neuronal recurrente LSTM. La red neuronal se configuró con el optimizador RMS prop y se utilizó el error cuadrático medio para el entrenamiento. La validación del algoritmo de reconocimiento de gestos corporales se realizó mediante 3 escenas simuladas de robo con arma de fuego en un local comercial, y se aplicó la matriz de confusión, Curva ROC, precisión y el coeficiente de correlación de Matthews, obteniéndose como resultados una precisión del 89.01% y un rendimiento del 84.40%.Campus Lima Centroapplication/pdfspaUniversidad Tecnológica del PerúPEinfo:eu-repo/semantics/openAccesshttp://creativecommons.org/licenses/by-nc-sa/4.0/Repositorio Institucional - UTPUniversidad Tecnológica del Perúreponame:UTP-Institucionalinstname:Universidad Tecnológica del Perúinstacron:UTPAlgoritmosRedes neuronales artificialesReconocimiento de gestosVisión artificialhttps://purl.org/pe-repo/ocde/ford#2.02.01Desarrollo y validación de un algoritmo basado en visión artificial para el reconocimiento de un posible asalto con arma de fuego en un local comercial de Limainfo:eu-repo/semantics/bachelorThesisinfo:eu-repo/semantics/publishedVersionSUNEDUIngeniero ElectrónicoUniversidad Tecnológica del Perú. Facultad de IngenieríaIngeniería ElectrónicaPregrado10617156https://orcid.org/0000-0001-8531-71517042627971802834712026Michhue Vela, Gabriel PercyBohórquez Bendezú, José LuisPalomino Masco, Joel Fernandohttp://purl.org/pe-repo/renati/level#tituloProfesionalhttp://purl.org/pe-repo/renati/type#tesisORIGINALA.Aliaga_E.Pariona_Tesis_Titulo_Profesional_2022.pdfA.Aliaga_E.Pariona_Tesis_Titulo_Profesional_2022.pdfapplication/pdf11680742http://repositorio.utp.edu.pe/bitstream/20.500.12867/6190/1/A.Aliaga_E.Pariona_Tesis_Titulo_Profesional_2022.pdf66c1fa02ef2ef7df2ef5a5f4436687fcMD51LICENSElicense.txtlicense.txttext/plain; charset=utf-81748http://repositorio.utp.edu.pe/bitstream/20.500.12867/6190/2/license.txt8a4605be74aa9ea9d79846c1fba20a33MD52TEXTA.Aliaga_E.Pariona_Tesis_Titulo_Profesional_2022.pdf.txtA.Aliaga_E.Pariona_Tesis_Titulo_Profesional_2022.pdf.txtExtracted texttext/plain311736http://repositorio.utp.edu.pe/bitstream/20.500.12867/6190/3/A.Aliaga_E.Pariona_Tesis_Titulo_Profesional_2022.pdf.txt9a2ffbaf0874472318cc33046692cd5aMD53THUMBNAILA.Aliaga_E.Pariona_Tesis_Titulo_Profesional_2022.pdf.jpgA.Aliaga_E.Pariona_Tesis_Titulo_Profesional_2022.pdf.jpgGenerated Thumbnailimage/jpeg10549http://repositorio.utp.edu.pe/bitstream/20.500.12867/6190/4/A.Aliaga_E.Pariona_Tesis_Titulo_Profesional_2022.pdf.jpg8e78a1e896862c3ac479befcdbd907abMD5420.500.12867/6190oai:repositorio.utp.edu.pe:20.500.12867/61902022-11-09 17:04:05.177Repositorio Institucional de la Universidad Tecnológica del Perúrepositorio@utp.edu.peTk9URTogUExBQ0UgWU9VUiBPV04gTElDRU5TRSBIRVJFClRoaXMgc2FtcGxlIGxpY2Vuc2UgaXMgcHJvdmlkZWQgZm9yIGluZm9ybWF0aW9uYWwgcHVycG9zZXMgb25seS4KCk5PTi1FWENMVVNJVkUgRElTVFJJQlVUSU9OIExJQ0VOU0UKCkJ5IHNpZ25pbmcgYW5kIHN1Ym1pdHRpbmcgdGhpcyBsaWNlbnNlLCB5b3UgKHRoZSBhdXRob3Iocykgb3IgY29weXJpZ2h0Cm93bmVyKSBncmFudHMgdG8gRFNwYWNlIFVuaXZlcnNpdHkgKERTVSkgdGhlIG5vbi1leGNsdXNpdmUgcmlnaHQgdG8gcmVwcm9kdWNlLAp0cmFuc2xhdGUgKGFzIGRlZmluZWQgYmVsb3cpLCBhbmQvb3IgZGlzdHJpYnV0ZSB5b3VyIHN1Ym1pc3Npb24gKGluY2x1ZGluZwp0aGUgYWJzdHJhY3QpIHdvcmxkd2lkZSBpbiBwcmludCBhbmQgZWxlY3Ryb25pYyBmb3JtYXQgYW5kIGluIGFueSBtZWRpdW0sCmluY2x1ZGluZyBidXQgbm90IGxpbWl0ZWQgdG8gYXVkaW8gb3IgdmlkZW8uCgpZb3UgYWdyZWUgdGhhdCBEU1UgbWF5LCB3aXRob3V0IGNoYW5naW5nIHRoZSBjb250ZW50LCB0cmFuc2xhdGUgdGhlCnN1Ym1pc3Npb24gdG8gYW55IG1lZGl1bSBvciBmb3JtYXQgZm9yIHRoZSBwdXJwb3NlIG9mIHByZXNlcnZhdGlvbi4KCllvdSBhbHNvIGFncmVlIHRoYXQgRFNVIG1heSBrZWVwIG1vcmUgdGhhbiBvbmUgY29weSBvZiB0aGlzIHN1Ym1pc3Npb24gZm9yCnB1cnBvc2VzIG9mIHNlY3VyaXR5LCBiYWNrLXVwIGFuZCBwcmVzZXJ2YXRpb24uCgpZb3UgcmVwcmVzZW50IHRoYXQgdGhlIHN1Ym1pc3Npb24gaXMgeW91ciBvcmlnaW5hbCB3b3JrLCBhbmQgdGhhdCB5b3UgaGF2ZQp0aGUgcmlnaHQgdG8gZ3JhbnQgdGhlIHJpZ2h0cyBjb250YWluZWQgaW4gdGhpcyBsaWNlbnNlLiBZb3UgYWxzbyByZXByZXNlbnQKdGhhdCB5b3VyIHN1Ym1pc3Npb24gZG9lcyBub3QsIHRvIHRoZSBiZXN0IG9mIHlvdXIga25vd2xlZGdlLCBpbmZyaW5nZSB1cG9uCmFueW9uZSdzIGNvcHlyaWdodC4KCklmIHRoZSBzdWJtaXNzaW9uIGNvbnRhaW5zIG1hdGVyaWFsIGZvciB3aGljaCB5b3UgZG8gbm90IGhvbGQgY29weXJpZ2h0LAp5b3UgcmVwcmVzZW50IHRoYXQgeW91IGhhdmUgb2J0YWluZWQgdGhlIHVucmVzdHJpY3RlZCBwZXJtaXNzaW9uIG9mIHRoZQpjb3B5cmlnaHQgb3duZXIgdG8gZ3JhbnQgRFNVIHRoZSByaWdodHMgcmVxdWlyZWQgYnkgdGhpcyBsaWNlbnNlLCBhbmQgdGhhdApzdWNoIHRoaXJkLXBhcnR5IG93bmVkIG1hdGVyaWFsIGlzIGNsZWFybHkgaWRlbnRpZmllZCBhbmQgYWNrbm93bGVkZ2VkCndpdGhpbiB0aGUgdGV4dCBvciBjb250ZW50IG9mIHRoZSBzdWJtaXNzaW9uLgoKSUYgVEhFIFNVQk1JU1NJT04gSVMgQkFTRUQgVVBPTiBXT1JLIFRIQVQgSEFTIEJFRU4gU1BPTlNPUkVEIE9SIFNVUFBPUlRFRApCWSBBTiBBR0VOQ1kgT1IgT1JHQU5JWkFUSU9OIE9USEVSIFRIQU4gRFNVLCBZT1UgUkVQUkVTRU5UIFRIQVQgWU9VIEhBVkUKRlVMRklMTEVEIEFOWSBSSUdIVCBPRiBSRVZJRVcgT1IgT1RIRVIgT0JMSUdBVElPTlMgUkVRVUlSRUQgQlkgU1VDSApDT05UUkFDVCBPUiBBR1JFRU1FTlQuCgpEU1Ugd2lsbCBjbGVhcmx5IGlkZW50aWZ5IHlvdXIgbmFtZShzKSBhcyB0aGUgYXV0aG9yKHMpIG9yIG93bmVyKHMpIG9mIHRoZQpzdWJtaXNzaW9uLCBhbmQgd2lsbCBub3QgbWFrZSBhbnkgYWx0ZXJhdGlvbiwgb3RoZXIgdGhhbiBhcyBhbGxvd2VkIGJ5IHRoaXMKbGljZW5zZSwgdG8geW91ciBzdWJtaXNzaW9uLgo=
score 13.971837
Nota importante:
La información contenida en este registro es de entera responsabilidad de la institución que gestiona el repositorio institucional donde esta contenido este documento o set de datos. El CONCYTEC no se hace responsable por los contenidos (publicaciones y/o datos) accesibles a través del Repositorio Nacional Digital de Ciencia, Tecnología e Innovación de Acceso Abierto (ALICIA).