Reconocimiento de emociones por percepción visual aplicado en la navegación de un robot social

Descripción del Articulo

En la robótica social, los robots disponen de diversos sensores que le ayudan a conocer su entorno y, por ende, a modelar la interacción con los humanos. La información recolectada, ayuda al robot social a planificar sus acciones y que este tenga un comportamiento socialmente aceptable. Para el caso...

Descripción completa

Detalles Bibliográficos
Autor: Quiroz Quispe, Marco Antonio
Formato: tesis de grado
Fecha de Publicación:2022
Institución:Universidad Católica San Pablo
Repositorio:UCSP-Institucional
Lenguaje:español
OAI Identifier:oai:repositorio.ucsp.edu.pe:20.500.12590/17206
Enlace del recurso:https://hdl.handle.net/20.500.12590/17206
Nivel de acceso:acceso abierto
Materia:Robots sociales
Detección de rostros
Emoción de una escena
Grupo de personas
https://purl.org/pe-repo/ocde/ford#2.02.02
Descripción
Sumario:En la robótica social, los robots disponen de diversos sensores que le ayudan a conocer su entorno y, por ende, a modelar la interacción con los humanos. La información recolectada, ayuda al robot social a planificar sus acciones y que este tenga un comportamiento socialmente aceptable. Para el caso particular de ambientes donde es común que se formen grupos de personas, como museos, hospitales, restaurantes, una característica deseable en los robots sociales es que sea capaz de detectar las emociones de las personas que se encuentran a su alrededor. Así, un robot social puede estimar la emoción del ambiente y de acuerdo a esta información planificar una trayectoria, modificar su comportamiento y generar una interacción positiva con las personas. Este trabajo busca desarrollar un modelo basado en el aprendizaje automático para reconocer la emoción de una escena a través de los rostros detectados. En cada frame, las emociones individuales se reconocen en función de la red neuronal del Grupo de Geometría Visual (VGG) preentrenada para reconocer rostros (VGGFace); luego, para detectar la emoción del frame, las emociones individuales se agregan con un método de fusión y, en consecuencia, para detectar la emoción global (predominante) en la escena, también se agregan las emociones de sus frames contiguos. Las pruebas se realizan en dos entornos simulados: un museo y una cafetería. Adicionalmente, este trabajo propone una estrategia para crear conjuntos de datos con imágenes/videos para validar la estimación de emociones en escenas y emociones individuales. Los resultados muestran que la exactitud en la detección de emociones individuales es del 99,79 % y la exactitud promedio en la detección de emociones grupales (emoción de escena) es del 96,72 % y del 92,53 % en los escenarios de cafetería y museo, respectivamente.
Nota importante:
La información contenida en este registro es de entera responsabilidad de la institución que gestiona el repositorio institucional donde esta contenido este documento o set de datos. El CONCYTEC no se hace responsable por los contenidos (publicaciones y/o datos) accesibles a través del Repositorio Nacional Digital de Ciencia, Tecnología e Innovación de Acceso Abierto (ALICIA).