Deep Learning para la visión artificial e identificación del personal administrativo y docente de la Universidad Nacional Micaela Bastidas de Apurímac 2018

Descripción del Articulo

El objetivo principal de esta investigación fue lograr la proporción más alta de precisión en la identificación del personal administrativo y docente de la Universidad Nacional Micaela Bastidas de Apurímac (UNAMBA), usando Deep Learning; para lo cual, la investigación fue dividida en dos etapas. La...

Descripción completa

Detalles Bibliográficos
Autor: Ordoñez Ramos, Erech
Formato: tesis doctoral
Fecha de Publicación:2020
Institución:Universidad Nacional Del Altiplano
Repositorio:UNAP-Institucional
Lenguaje:español
OAI Identifier:oai:https://repositorio.unap.edu.pe:20.500.14082/13523
Enlace del recurso:http://repositorio.unap.edu.pe/handle/20.500.14082/13523
Nivel de acceso:acceso abierto
Materia:Ciencias de la Computación
Deep Learning
Computación Gráfica y Visión Computacional
Descripción
Sumario:El objetivo principal de esta investigación fue lograr la proporción más alta de precisión en la identificación del personal administrativo y docente de la Universidad Nacional Micaela Bastidas de Apurímac (UNAMBA), usando Deep Learning; para lo cual, la investigación fue dividida en dos etapas. La primera etapa consistió en entrenar en una arquitectura clásica como es VGG16 y este modelo evolucionó hasta el propuesto VGG16UNAMBA con la que se entrenó las imágenes obtenida a través de una cámara de video. En la segunda etapa se usó una arquitectura más moderna como lo es DenseNet121, la cual evoluciono hasta obtener DenseNet121UNAMBA, con la cual se entrenó la misma cantidad de imágenes, para finalmente, escoger la proporción más alta de precisión generada entre ambas arquitecturas. La investigación se desarrolló en los ambientes de la UNAMBA en el año 2019 en la sede académica de Tamburco – Abancay a una cantidad de 242 personas (administrativos y docentes); este proceso requería decenas de imágenes por persona para el entrenamiento de la Red Neuronal Convolucional; por lo que se usó técnicas de Video Scrapping y data augmentation para lograr 27,996 imágenes, las cuales se dividieron en 19,700 imágenes para el entrenamiento y 8,296 para la validación de los modelos. En cuanto a los resultados en la primera etapa, se entrenó el modelo VGG16UNAMBA con el cual se logró obtener una proporción de 0.9805 de precisión; mientras que en la segunda etapa se usó a DenseNet121UNAMBA, con dicho modelo se logró una proporción de 0.9932 de precisión.
Nota importante:
La información contenida en este registro es de entera responsabilidad de la institución que gestiona el repositorio institucional donde esta contenido este documento o set de datos. El CONCYTEC no se hace responsable por los contenidos (publicaciones y/o datos) accesibles a través del Repositorio Nacional Digital de Ciencia, Tecnología e Innovación de Acceso Abierto (ALICIA).