Reconocimiento de emociones por percepción visual aplicado en la navegación de un robot social
Descripción del Articulo
En la robótica social, los robots disponen de diversos sensores que le ayudan a conocer su entorno y, por ende, a modelar la interacción con los humanos. La información recolectada, ayuda al robot social a planificar sus acciones y que este tenga un comportamiento socialmente aceptable. Para el caso...
| Autor: | |
|---|---|
| Formato: | tesis de grado |
| Fecha de Publicación: | 2022 |
| Institución: | Universidad Católica San Pablo |
| Repositorio: | UCSP-Institucional |
| Lenguaje: | español |
| OAI Identifier: | oai:repositorio.ucsp.edu.pe:20.500.12590/17206 |
| Enlace del recurso: | https://hdl.handle.net/20.500.12590/17206 |
| Nivel de acceso: | acceso abierto |
| Materia: | Robots sociales Detección de rostros Emoción de una escena Grupo de personas https://purl.org/pe-repo/ocde/ford#2.02.02 |
| Sumario: | En la robótica social, los robots disponen de diversos sensores que le ayudan a conocer su entorno y, por ende, a modelar la interacción con los humanos. La información recolectada, ayuda al robot social a planificar sus acciones y que este tenga un comportamiento socialmente aceptable. Para el caso particular de ambientes donde es común que se formen grupos de personas, como museos, hospitales, restaurantes, una característica deseable en los robots sociales es que sea capaz de detectar las emociones de las personas que se encuentran a su alrededor. Así, un robot social puede estimar la emoción del ambiente y de acuerdo a esta información planificar una trayectoria, modificar su comportamiento y generar una interacción positiva con las personas. Este trabajo busca desarrollar un modelo basado en el aprendizaje automático para reconocer la emoción de una escena a través de los rostros detectados. En cada frame, las emociones individuales se reconocen en función de la red neuronal del Grupo de Geometría Visual (VGG) preentrenada para reconocer rostros (VGGFace); luego, para detectar la emoción del frame, las emociones individuales se agregan con un método de fusión y, en consecuencia, para detectar la emoción global (predominante) en la escena, también se agregan las emociones de sus frames contiguos. Las pruebas se realizan en dos entornos simulados: un museo y una cafetería. Adicionalmente, este trabajo propone una estrategia para crear conjuntos de datos con imágenes/videos para validar la estimación de emociones en escenas y emociones individuales. Los resultados muestran que la exactitud en la detección de emociones individuales es del 99,79 % y la exactitud promedio en la detección de emociones grupales (emoción de escena) es del 96,72 % y del 92,53 % en los escenarios de cafetería y museo, respectivamente. |
|---|
Nota importante:
La información contenida en este registro es de entera responsabilidad de la institución que gestiona el repositorio institucional donde esta contenido este documento o set de datos. El CONCYTEC no se hace responsable por los contenidos (publicaciones y/o datos) accesibles a través del Repositorio Nacional Digital de Ciencia, Tecnología e Innovación de Acceso Abierto (ALICIA).
La información contenida en este registro es de entera responsabilidad de la institución que gestiona el repositorio institucional donde esta contenido este documento o set de datos. El CONCYTEC no se hace responsable por los contenidos (publicaciones y/o datos) accesibles a través del Repositorio Nacional Digital de Ciencia, Tecnología e Innovación de Acceso Abierto (ALICIA).