Desarrollo y validación de un algoritmo basado en visión artificial para el reconocimiento de un posible asalto con arma de fuego en un local comercial de Lima
Descripción del Articulo
La presente tesis, tiene como objetivo principal desarrollar un algoritmo basado en visión artificial que permita el reconocimiento de los gestos corporales durante un asalto con arma de fuego en un local comercial, con el fin de brindar (desarrollar) un soporte tecnológico enfocado a la seguridad e...
Autores: | , |
---|---|
Formato: | tesis de grado |
Fecha de Publicación: | 2022 |
Institución: | Universidad Tecnológica del Perú |
Repositorio: | UTP-Institucional |
Lenguaje: | español |
OAI Identifier: | oai:repositorio.utp.edu.pe:20.500.12867/6190 |
Enlace del recurso: | https://hdl.handle.net/20.500.12867/6190 |
Nivel de acceso: | acceso abierto |
Materia: | Algoritmos Redes neuronales artificiales Reconocimiento de gestos Visión artificial https://purl.org/pe-repo/ocde/ford#2.02.01 |
Sumario: | La presente tesis, tiene como objetivo principal desarrollar un algoritmo basado en visión artificial que permita el reconocimiento de los gestos corporales durante un asalto con arma de fuego en un local comercial, con el fin de brindar (desarrollar) un soporte tecnológico enfocado a la seguridad electrónica. Para el entrenamiento y validación del algoritmo se utilizaron muestras provenientes de escenas simuladas dentro de un local comercial. Estás escenas se clasifican en dos clases: escenas del victimario y escenas de las víctimas. Para el desarrollo del algoritmo se utilizó el lenguaje Python en la versión 3.7 ya que este es compatible con el ordenador de placa única Raspberry Pi, en el cual se instaló la versión del sistema operativo de 64 bits. La adquisición de imágenes se trabajó bajo la norma DORI, que permite obtener una resolución de tipo “reconocimiento”, y se aplicó el protocolo RTSP para la comunicación vía ethernet con la cámara IP. En los vídeos se detectaron puntos cartesianos corporales aplicando interpolación bilineal y la red piramidal de funciones de MobileNetV2 teniendo como base el modelo MoveNet. Para el reconocimiento de gestos corporales, se aplicó vectorización por trasformación de coordenadas en dos puntos cartesianos en el cuarto cuadrante, normalización por método mínimo-máximo y una red neuronal recurrente LSTM. La red neuronal se configuró con el optimizador RMS prop y se utilizó el error cuadrático medio para el entrenamiento. La validación del algoritmo de reconocimiento de gestos corporales se realizó mediante 3 escenas simuladas de robo con arma de fuego en un local comercial, y se aplicó la matriz de confusión, Curva ROC, precisión y el coeficiente de correlación de Matthews, obteniéndose como resultados una precisión del 89.01% y un rendimiento del 84.40%. |
---|
Nota importante:
La información contenida en este registro es de entera responsabilidad de la institución que gestiona el repositorio institucional donde esta contenido este documento o set de datos. El CONCYTEC no se hace responsable por los contenidos (publicaciones y/o datos) accesibles a través del Repositorio Nacional Digital de Ciencia, Tecnología e Innovación de Acceso Abierto (ALICIA).
La información contenida en este registro es de entera responsabilidad de la institución que gestiona el repositorio institucional donde esta contenido este documento o set de datos. El CONCYTEC no se hace responsable por los contenidos (publicaciones y/o datos) accesibles a través del Repositorio Nacional Digital de Ciencia, Tecnología e Innovación de Acceso Abierto (ALICIA).