Reconocimiento de emociones por percepción visual aplicado en la navegación de un robot social
Descripción del Articulo
En la robótica social, los robots disponen de diversos sensores que le ayudan a conocer su entorno y, por ende, a modelar la interacción con los humanos. La información recolectada, ayuda al robot social a planificar sus acciones y que este tenga un comportamiento socialmente aceptable. Para el caso...
| Autor: | |
|---|---|
| Formato: | tesis de grado |
| Fecha de Publicación: | 2022 |
| Institución: | Universidad Católica San Pablo |
| Repositorio: | UCSP-Institucional |
| Lenguaje: | español |
| OAI Identifier: | oai:repositorio.ucsp.edu.pe:20.500.12590/17206 |
| Enlace del recurso: | https://hdl.handle.net/20.500.12590/17206 |
| Nivel de acceso: | acceso abierto |
| Materia: | Robots sociales Detección de rostros Emoción de una escena Grupo de personas https://purl.org/pe-repo/ocde/ford#2.02.02 |
| id |
UCSP_6934a3d3946eb788cecdcd9d99db80af |
|---|---|
| oai_identifier_str |
oai:repositorio.ucsp.edu.pe:20.500.12590/17206 |
| network_acronym_str |
UCSP |
| network_name_str |
UCSP-Institucional |
| repository_id_str |
3854 |
| dc.title.es_PE.fl_str_mv |
Reconocimiento de emociones por percepción visual aplicado en la navegación de un robot social |
| title |
Reconocimiento de emociones por percepción visual aplicado en la navegación de un robot social |
| spellingShingle |
Reconocimiento de emociones por percepción visual aplicado en la navegación de un robot social Quiroz Quispe, Marco Antonio Robots sociales Detección de rostros Emoción de una escena Grupo de personas https://purl.org/pe-repo/ocde/ford#2.02.02 |
| title_short |
Reconocimiento de emociones por percepción visual aplicado en la navegación de un robot social |
| title_full |
Reconocimiento de emociones por percepción visual aplicado en la navegación de un robot social |
| title_fullStr |
Reconocimiento de emociones por percepción visual aplicado en la navegación de un robot social |
| title_full_unstemmed |
Reconocimiento de emociones por percepción visual aplicado en la navegación de un robot social |
| title_sort |
Reconocimiento de emociones por percepción visual aplicado en la navegación de un robot social |
| author |
Quiroz Quispe, Marco Antonio |
| author_facet |
Quiroz Quispe, Marco Antonio |
| author_role |
author |
| dc.contributor.advisor.fl_str_mv |
Patiño Escarcina, Raquel Esperanza |
| dc.contributor.author.fl_str_mv |
Quiroz Quispe, Marco Antonio |
| dc.subject.es_PE.fl_str_mv |
Robots sociales Detección de rostros Emoción de una escena Grupo de personas |
| topic |
Robots sociales Detección de rostros Emoción de una escena Grupo de personas https://purl.org/pe-repo/ocde/ford#2.02.02 |
| dc.subject.ocde.es_PE.fl_str_mv |
https://purl.org/pe-repo/ocde/ford#2.02.02 |
| description |
En la robótica social, los robots disponen de diversos sensores que le ayudan a conocer su entorno y, por ende, a modelar la interacción con los humanos. La información recolectada, ayuda al robot social a planificar sus acciones y que este tenga un comportamiento socialmente aceptable. Para el caso particular de ambientes donde es común que se formen grupos de personas, como museos, hospitales, restaurantes, una característica deseable en los robots sociales es que sea capaz de detectar las emociones de las personas que se encuentran a su alrededor. Así, un robot social puede estimar la emoción del ambiente y de acuerdo a esta información planificar una trayectoria, modificar su comportamiento y generar una interacción positiva con las personas. Este trabajo busca desarrollar un modelo basado en el aprendizaje automático para reconocer la emoción de una escena a través de los rostros detectados. En cada frame, las emociones individuales se reconocen en función de la red neuronal del Grupo de Geometría Visual (VGG) preentrenada para reconocer rostros (VGGFace); luego, para detectar la emoción del frame, las emociones individuales se agregan con un método de fusión y, en consecuencia, para detectar la emoción global (predominante) en la escena, también se agregan las emociones de sus frames contiguos. Las pruebas se realizan en dos entornos simulados: un museo y una cafetería. Adicionalmente, este trabajo propone una estrategia para crear conjuntos de datos con imágenes/videos para validar la estimación de emociones en escenas y emociones individuales. Los resultados muestran que la exactitud en la detección de emociones individuales es del 99,79 % y la exactitud promedio en la detección de emociones grupales (emoción de escena) es del 96,72 % y del 92,53 % en los escenarios de cafetería y museo, respectivamente. |
| publishDate |
2022 |
| dc.date.accessioned.none.fl_str_mv |
2022-07-04T13:11:30Z |
| dc.date.available.none.fl_str_mv |
2022-07-04T13:11:30Z |
| dc.date.issued.fl_str_mv |
2022 |
| dc.type.none.fl_str_mv |
info:eu-repo/semantics/bachelorThesis |
| dc.type.version.es_PE.fl_str_mv |
info:eu-repo/semantics/publishedVersion |
| format |
bachelorThesis |
| status_str |
publishedVersion |
| dc.identifier.other.none.fl_str_mv |
1074746 |
| dc.identifier.uri.none.fl_str_mv |
https://hdl.handle.net/20.500.12590/17206 |
| identifier_str_mv |
1074746 |
| url |
https://hdl.handle.net/20.500.12590/17206 |
| dc.language.iso.es_PE.fl_str_mv |
spa |
| language |
spa |
| dc.relation.ispartof.fl_str_mv |
SUNEDU |
| dc.rights.es_PE.fl_str_mv |
info:eu-repo/semantics/openAccess |
| dc.rights.uri.es_PE.fl_str_mv |
https://creativecommons.org/licenses/by/4.0/ |
| eu_rights_str_mv |
openAccess |
| rights_invalid_str_mv |
https://creativecommons.org/licenses/by/4.0/ |
| dc.format.es_PE.fl_str_mv |
application/pdf |
| dc.publisher.es_PE.fl_str_mv |
Universidad Católica San Pablo |
| dc.publisher.country.es_PE.fl_str_mv |
PE |
| dc.source.es_PE.fl_str_mv |
Universidad Católica San Pablo Repositorio Institucional - UCSP |
| dc.source.none.fl_str_mv |
reponame:UCSP-Institucional instname:Universidad Católica San Pablo instacron:UCSP |
| instname_str |
Universidad Católica San Pablo |
| instacron_str |
UCSP |
| institution |
UCSP |
| reponame_str |
UCSP-Institucional |
| collection |
UCSP-Institucional |
| bitstream.url.fl_str_mv |
https://repositorio.ucsp.edu.pe/backend/api/core/bitstreams/bde46c06-1a1d-4818-a976-18bee73dcf14/download https://repositorio.ucsp.edu.pe/backend/api/core/bitstreams/b7bcfd01-3577-4d6d-8b93-e16b84387a9e/download https://repositorio.ucsp.edu.pe/backend/api/core/bitstreams/63da21d4-335c-426a-9ead-57ddea67dde4/download https://repositorio.ucsp.edu.pe/backend/api/core/bitstreams/44c3c1b1-d6a7-4bcb-b76c-649a964ab01d/download |
| bitstream.checksum.fl_str_mv |
8a4605be74aa9ea9d79846c1fba20a33 142eee1e63c34323c0b4f8487252f5a1 00231d746341bf3054a0e0bafa7127d4 3bd0dabed7ddb9cc5b69540bcf22f701 |
| bitstream.checksumAlgorithm.fl_str_mv |
MD5 MD5 MD5 MD5 |
| repository.name.fl_str_mv |
Repositorio Institucional de la Universidad Católica San Pablo |
| repository.mail.fl_str_mv |
dspace@ucsp.edu.pe |
| _version_ |
1851053028675682304 |
| spelling |
Patiño Escarcina, Raquel EsperanzaQuiroz Quispe, Marco Antonio2022-07-04T13:11:30Z2022-07-04T13:11:30Z20221074746https://hdl.handle.net/20.500.12590/17206En la robótica social, los robots disponen de diversos sensores que le ayudan a conocer su entorno y, por ende, a modelar la interacción con los humanos. La información recolectada, ayuda al robot social a planificar sus acciones y que este tenga un comportamiento socialmente aceptable. Para el caso particular de ambientes donde es común que se formen grupos de personas, como museos, hospitales, restaurantes, una característica deseable en los robots sociales es que sea capaz de detectar las emociones de las personas que se encuentran a su alrededor. Así, un robot social puede estimar la emoción del ambiente y de acuerdo a esta información planificar una trayectoria, modificar su comportamiento y generar una interacción positiva con las personas. Este trabajo busca desarrollar un modelo basado en el aprendizaje automático para reconocer la emoción de una escena a través de los rostros detectados. En cada frame, las emociones individuales se reconocen en función de la red neuronal del Grupo de Geometría Visual (VGG) preentrenada para reconocer rostros (VGGFace); luego, para detectar la emoción del frame, las emociones individuales se agregan con un método de fusión y, en consecuencia, para detectar la emoción global (predominante) en la escena, también se agregan las emociones de sus frames contiguos. Las pruebas se realizan en dos entornos simulados: un museo y una cafetería. Adicionalmente, este trabajo propone una estrategia para crear conjuntos de datos con imágenes/videos para validar la estimación de emociones en escenas y emociones individuales. Los resultados muestran que la exactitud en la detección de emociones individuales es del 99,79 % y la exactitud promedio en la detección de emociones grupales (emoción de escena) es del 96,72 % y del 92,53 % en los escenarios de cafetería y museo, respectivamente.Tesisapplication/pdfspaUniversidad Católica San PabloPEinfo:eu-repo/semantics/openAccesshttps://creativecommons.org/licenses/by/4.0/Universidad Católica San PabloRepositorio Institucional - UCSPreponame:UCSP-Institucionalinstname:Universidad Católica San Pabloinstacron:UCSPRobots socialesDetección de rostrosEmoción de una escenaGrupo de personashttps://purl.org/pe-repo/ocde/ford#2.02.02Reconocimiento de emociones por percepción visual aplicado en la navegación de un robot socialinfo:eu-repo/semantics/bachelorThesisinfo:eu-repo/semantics/publishedVersionSUNEDUIngeniero Electrónico y de TelecomunicacionesUniversidad Católica San Pablo. Departamento de Ingeniería Eléctrica y ElectrónicaTítulo ProfesionalIngeniería Electrónica y de TelecomunicacionesPrograma Profesional de Ingeniería Electrónica y de Telecomunicaciones72911903https://orcid.org/0000-0001-7068-390940049016https://purl.org/pe-repo/renati/type#tesishttps://purl.org/pe-repo/renati/level#tituloProfesional712096Jimmy Diestin Ludeña ChoezIrvin Franco Benito Dongo EscalanteLICENSElicense.txtlicense.txttext/plain; charset=utf-81748https://repositorio.ucsp.edu.pe/backend/api/core/bitstreams/bde46c06-1a1d-4818-a976-18bee73dcf14/download8a4605be74aa9ea9d79846c1fba20a33MD52TEXTQUIROZ_QUISPE_MAR_EMO.pdf.txtQUIROZ_QUISPE_MAR_EMO.pdf.txtExtracted texttext/plain121947https://repositorio.ucsp.edu.pe/backend/api/core/bitstreams/b7bcfd01-3577-4d6d-8b93-e16b84387a9e/download142eee1e63c34323c0b4f8487252f5a1MD53ORIGINALQUIROZ_QUISPE_MAR_EMO.pdfQUIROZ_QUISPE_MAR_EMO.pdfapplication/pdf5605485https://repositorio.ucsp.edu.pe/backend/api/core/bitstreams/63da21d4-335c-426a-9ead-57ddea67dde4/download00231d746341bf3054a0e0bafa7127d4MD54THUMBNAILQUIROZ_QUISPE_MAR_EMO.pdf.jpgQUIROZ_QUISPE_MAR_EMO.pdf.jpgGenerated Thumbnailimage/jpeg3824https://repositorio.ucsp.edu.pe/backend/api/core/bitstreams/44c3c1b1-d6a7-4bcb-b76c-649a964ab01d/download3bd0dabed7ddb9cc5b69540bcf22f701MD5520.500.12590/17206oai:repositorio.ucsp.edu.pe:20.500.12590/172062023-07-26 01:05:54.203https://creativecommons.org/licenses/by/4.0/info:eu-repo/semantics/openAccessopen.accesshttps://repositorio.ucsp.edu.peRepositorio Institucional de la Universidad Católica San Pablodspace@ucsp.edu.peTk9URTogUExBQ0UgWU9VUiBPV04gTElDRU5TRSBIRVJFClRoaXMgc2FtcGxlIGxpY2Vuc2UgaXMgcHJvdmlkZWQgZm9yIGluZm9ybWF0aW9uYWwgcHVycG9zZXMgb25seS4KCk5PTi1FWENMVVNJVkUgRElTVFJJQlVUSU9OIExJQ0VOU0UKCkJ5IHNpZ25pbmcgYW5kIHN1Ym1pdHRpbmcgdGhpcyBsaWNlbnNlLCB5b3UgKHRoZSBhdXRob3Iocykgb3IgY29weXJpZ2h0Cm93bmVyKSBncmFudHMgdG8gRFNwYWNlIFVuaXZlcnNpdHkgKERTVSkgdGhlIG5vbi1leGNsdXNpdmUgcmlnaHQgdG8gcmVwcm9kdWNlLAp0cmFuc2xhdGUgKGFzIGRlZmluZWQgYmVsb3cpLCBhbmQvb3IgZGlzdHJpYnV0ZSB5b3VyIHN1Ym1pc3Npb24gKGluY2x1ZGluZwp0aGUgYWJzdHJhY3QpIHdvcmxkd2lkZSBpbiBwcmludCBhbmQgZWxlY3Ryb25pYyBmb3JtYXQgYW5kIGluIGFueSBtZWRpdW0sCmluY2x1ZGluZyBidXQgbm90IGxpbWl0ZWQgdG8gYXVkaW8gb3IgdmlkZW8uCgpZb3UgYWdyZWUgdGhhdCBEU1UgbWF5LCB3aXRob3V0IGNoYW5naW5nIHRoZSBjb250ZW50LCB0cmFuc2xhdGUgdGhlCnN1Ym1pc3Npb24gdG8gYW55IG1lZGl1bSBvciBmb3JtYXQgZm9yIHRoZSBwdXJwb3NlIG9mIHByZXNlcnZhdGlvbi4KCllvdSBhbHNvIGFncmVlIHRoYXQgRFNVIG1heSBrZWVwIG1vcmUgdGhhbiBvbmUgY29weSBvZiB0aGlzIHN1Ym1pc3Npb24gZm9yCnB1cnBvc2VzIG9mIHNlY3VyaXR5LCBiYWNrLXVwIGFuZCBwcmVzZXJ2YXRpb24uCgpZb3UgcmVwcmVzZW50IHRoYXQgdGhlIHN1Ym1pc3Npb24gaXMgeW91ciBvcmlnaW5hbCB3b3JrLCBhbmQgdGhhdCB5b3UgaGF2ZQp0aGUgcmlnaHQgdG8gZ3JhbnQgdGhlIHJpZ2h0cyBjb250YWluZWQgaW4gdGhpcyBsaWNlbnNlLiBZb3UgYWxzbyByZXByZXNlbnQKdGhhdCB5b3VyIHN1Ym1pc3Npb24gZG9lcyBub3QsIHRvIHRoZSBiZXN0IG9mIHlvdXIga25vd2xlZGdlLCBpbmZyaW5nZSB1cG9uCmFueW9uZSdzIGNvcHlyaWdodC4KCklmIHRoZSBzdWJtaXNzaW9uIGNvbnRhaW5zIG1hdGVyaWFsIGZvciB3aGljaCB5b3UgZG8gbm90IGhvbGQgY29weXJpZ2h0LAp5b3UgcmVwcmVzZW50IHRoYXQgeW91IGhhdmUgb2J0YWluZWQgdGhlIHVucmVzdHJpY3RlZCBwZXJtaXNzaW9uIG9mIHRoZQpjb3B5cmlnaHQgb3duZXIgdG8gZ3JhbnQgRFNVIHRoZSByaWdodHMgcmVxdWlyZWQgYnkgdGhpcyBsaWNlbnNlLCBhbmQgdGhhdApzdWNoIHRoaXJkLXBhcnR5IG93bmVkIG1hdGVyaWFsIGlzIGNsZWFybHkgaWRlbnRpZmllZCBhbmQgYWNrbm93bGVkZ2VkCndpdGhpbiB0aGUgdGV4dCBvciBjb250ZW50IG9mIHRoZSBzdWJtaXNzaW9uLgoKSUYgVEhFIFNVQk1JU1NJT04gSVMgQkFTRUQgVVBPTiBXT1JLIFRIQVQgSEFTIEJFRU4gU1BPTlNPUkVEIE9SIFNVUFBPUlRFRApCWSBBTiBBR0VOQ1kgT1IgT1JHQU5JWkFUSU9OIE9USEVSIFRIQU4gRFNVLCBZT1UgUkVQUkVTRU5UIFRIQVQgWU9VIEhBVkUKRlVMRklMTEVEIEFOWSBSSUdIVCBPRiBSRVZJRVcgT1IgT1RIRVIgT0JMSUdBVElPTlMgUkVRVUlSRUQgQlkgU1VDSApDT05UUkFDVCBPUiBBR1JFRU1FTlQuCgpEU1Ugd2lsbCBjbGVhcmx5IGlkZW50aWZ5IHlvdXIgbmFtZShzKSBhcyB0aGUgYXV0aG9yKHMpIG9yIG93bmVyKHMpIG9mIHRoZQpzdWJtaXNzaW9uLCBhbmQgd2lsbCBub3QgbWFrZSBhbnkgYWx0ZXJhdGlvbiwgb3RoZXIgdGhhbiBhcyBhbGxvd2VkIGJ5IHRoaXMKbGljZW5zZSwgdG8geW91ciBzdWJtaXNzaW9uLgo= |
| score |
13.457588 |
Nota importante:
La información contenida en este registro es de entera responsabilidad de la institución que gestiona el repositorio institucional donde esta contenido este documento o set de datos. El CONCYTEC no se hace responsable por los contenidos (publicaciones y/o datos) accesibles a través del Repositorio Nacional Digital de Ciencia, Tecnología e Innovación de Acceso Abierto (ALICIA).
La información contenida en este registro es de entera responsabilidad de la institución que gestiona el repositorio institucional donde esta contenido este documento o set de datos. El CONCYTEC no se hace responsable por los contenidos (publicaciones y/o datos) accesibles a través del Repositorio Nacional Digital de Ciencia, Tecnología e Innovación de Acceso Abierto (ALICIA).