Reconocimiento de expresiones faciales invariante a la posición del rostro usando CLM
Descripción del Articulo
Este trabajo de investigación se enfoca en el reconocimiento de expresiones faciales invariantes a la posición de la cabeza en el espacio tridimensional. Para poder realizar todo este proceso se ha trabajado con constrainedLocalModel-CLM, el cual nos ayuda a encontrar los puntos característicos en u...
Autor: | |
---|---|
Formato: | tesis doctoral |
Fecha de Publicación: | 2018 |
Institución: | Universidad Nacional de San Agustín |
Repositorio: | UNSA-Institucional |
Lenguaje: | español |
OAI Identifier: | oai:repositorio.unsa.edu.pe:20.500.12773/13354 |
Enlace del recurso: | http://hdl.handle.net/20.500.12773/13354 |
Nivel de acceso: | acceso abierto |
Materia: | Expresiones faciales CLM posición de la cabeza imágenes monoculares https://purl.org/pe-repo/ocde/ford#1.02.01 |
id |
UNSA_04657e92bc427575f54fed39f59bb966 |
---|---|
oai_identifier_str |
oai:repositorio.unsa.edu.pe:20.500.12773/13354 |
network_acronym_str |
UNSA |
network_name_str |
UNSA-Institucional |
repository_id_str |
4847 |
dc.title.es_PE.fl_str_mv |
Reconocimiento de expresiones faciales invariante a la posición del rostro usando CLM |
title |
Reconocimiento de expresiones faciales invariante a la posición del rostro usando CLM |
spellingShingle |
Reconocimiento de expresiones faciales invariante a la posición del rostro usando CLM Yari Ramos, Yessenia Deysi Expresiones faciales CLM posición de la cabeza imágenes monoculares https://purl.org/pe-repo/ocde/ford#1.02.01 |
title_short |
Reconocimiento de expresiones faciales invariante a la posición del rostro usando CLM |
title_full |
Reconocimiento de expresiones faciales invariante a la posición del rostro usando CLM |
title_fullStr |
Reconocimiento de expresiones faciales invariante a la posición del rostro usando CLM |
title_full_unstemmed |
Reconocimiento de expresiones faciales invariante a la posición del rostro usando CLM |
title_sort |
Reconocimiento de expresiones faciales invariante a la posición del rostro usando CLM |
author |
Yari Ramos, Yessenia Deysi |
author_facet |
Yari Ramos, Yessenia Deysi |
author_role |
author |
dc.contributor.advisor.fl_str_mv |
Túpac Valdivia, Yván Jesús |
dc.contributor.author.fl_str_mv |
Yari Ramos, Yessenia Deysi |
dc.subject.es_PE.fl_str_mv |
Expresiones faciales CLM posición de la cabeza imágenes monoculares |
topic |
Expresiones faciales CLM posición de la cabeza imágenes monoculares https://purl.org/pe-repo/ocde/ford#1.02.01 |
dc.subject.ocde.es_PE.fl_str_mv |
https://purl.org/pe-repo/ocde/ford#1.02.01 |
description |
Este trabajo de investigación se enfoca en el reconocimiento de expresiones faciales invariantes a la posición de la cabeza en el espacio tridimensional. Para poder realizar todo este proceso se ha trabajado con constrainedLocalModel-CLM, el cual nos ayuda a encontrar los puntos característicos en una imagen que contiene el rostro humano. La cantidad de puntos que se ha considerado en el modelo es de 68 que cubren todo el rostro. Después de encontrar los puntos en la imagen, se usa un modelo en 3D (CANDIDE 3), el cual consta de 113 vértices, los cuales solo serán usados algunos puntos (tanto con el modelo 3D como con los puntos encontrados) que nos ayudarán a encontrar la posición del rostro en el espacio tridimensional. Teniendo ya la posición podemos generar los modelos correspondientes para cada una de las expresiones faciales (7 en total, neutro, alegría, tristeza, temor, disgusto, sorpresa y repugnancia) y de esta forma calculando la menor distancia se puede obtener la expresión correcta. El porcentaje de error producido con esta técnica, es de 5.7 %, siendo comparable con otra técnicas que puede resolver el mismo problema. |
publishDate |
2018 |
dc.date.accessioned.none.fl_str_mv |
2021-11-30T03:10:01Z |
dc.date.available.none.fl_str_mv |
2021-11-30T03:10:01Z |
dc.date.issued.fl_str_mv |
2018 |
dc.type.es_PE.fl_str_mv |
info:eu-repo/semantics/doctoralThesis |
format |
doctoralThesis |
dc.identifier.uri.none.fl_str_mv |
http://hdl.handle.net/20.500.12773/13354 |
url |
http://hdl.handle.net/20.500.12773/13354 |
dc.language.iso.es_PE.fl_str_mv |
spa |
language |
spa |
dc.relation.ispartof.fl_str_mv |
SUNEDU |
dc.rights.es_PE.fl_str_mv |
info:eu-repo/semantics/openAccess |
dc.rights.uri.es_PE.fl_str_mv |
http://creativecommons.org/licenses/by-nc-nd/4.0/ |
eu_rights_str_mv |
openAccess |
rights_invalid_str_mv |
http://creativecommons.org/licenses/by-nc-nd/4.0/ |
dc.format.es_PE.fl_str_mv |
application/pdf |
dc.publisher.es_PE.fl_str_mv |
Universidad Nacional de San Agustín de Arequipa |
dc.publisher.country.es_PE.fl_str_mv |
PE |
dc.source.es_PE.fl_str_mv |
Universidad Nacional de San Agustín de Arequipa Repositorio Institucional - UNSA |
dc.source.none.fl_str_mv |
reponame:UNSA-Institucional instname:Universidad Nacional de San Agustín instacron:UNSA |
instname_str |
Universidad Nacional de San Agustín |
instacron_str |
UNSA |
institution |
UNSA |
reponame_str |
UNSA-Institucional |
collection |
UNSA-Institucional |
bitstream.url.fl_str_mv |
https://repositorio.unsa.edu.pe/bitstreams/83fe38a9-b3f8-40a5-af6e-b6c5d7c0befe/download https://repositorio.unsa.edu.pe/bitstreams/2e3fa15e-a53d-4f10-a16c-ef441393cbce/download https://repositorio.unsa.edu.pe/bitstreams/5e039e3f-756e-4dfd-9985-6d3d377e2879/download |
bitstream.checksum.fl_str_mv |
ae76370e3c73c3c0998dbca0916913e6 c52066b9c50a8f86be96c82978636682 aaa39740e06a4281609c983b953dd751 |
bitstream.checksumAlgorithm.fl_str_mv |
MD5 MD5 MD5 |
repository.name.fl_str_mv |
Repositorio Institucional UNSA |
repository.mail.fl_str_mv |
repositorio@unsa.edu.pe |
_version_ |
1828763147112022016 |
spelling |
Túpac Valdivia, Yván JesúsYari Ramos, Yessenia Deysi2021-11-30T03:10:01Z2021-11-30T03:10:01Z2018Este trabajo de investigación se enfoca en el reconocimiento de expresiones faciales invariantes a la posición de la cabeza en el espacio tridimensional. Para poder realizar todo este proceso se ha trabajado con constrainedLocalModel-CLM, el cual nos ayuda a encontrar los puntos característicos en una imagen que contiene el rostro humano. La cantidad de puntos que se ha considerado en el modelo es de 68 que cubren todo el rostro. Después de encontrar los puntos en la imagen, se usa un modelo en 3D (CANDIDE 3), el cual consta de 113 vértices, los cuales solo serán usados algunos puntos (tanto con el modelo 3D como con los puntos encontrados) que nos ayudarán a encontrar la posición del rostro en el espacio tridimensional. Teniendo ya la posición podemos generar los modelos correspondientes para cada una de las expresiones faciales (7 en total, neutro, alegría, tristeza, temor, disgusto, sorpresa y repugnancia) y de esta forma calculando la menor distancia se puede obtener la expresión correcta. El porcentaje de error producido con esta técnica, es de 5.7 %, siendo comparable con otra técnicas que puede resolver el mismo problema.application/pdfhttp://hdl.handle.net/20.500.12773/13354spaUniversidad Nacional de San Agustín de ArequipaPEinfo:eu-repo/semantics/openAccesshttp://creativecommons.org/licenses/by-nc-nd/4.0/Universidad Nacional de San Agustín de ArequipaRepositorio Institucional - UNSAreponame:UNSA-Institucionalinstname:Universidad Nacional de San Agustíninstacron:UNSAExpresiones facialesCLMposición de la cabezaimágenes monoculareshttps://purl.org/pe-repo/ocde/ford#1.02.01Reconocimiento de expresiones faciales invariante a la posición del rostro usando CLMinfo:eu-repo/semantics/doctoralThesisSUNEDU29600586https://orcid.org/0000-0002-7279-310542744760611028Alfaro Casas, Luis AlbertoHinojosa Cárdenas, EdwardTúpac Valdivia, Yván Jesúshttp://purl.org/pe-repo/renati/level#doctorhttp://purl.org/pe-repo/renati/type#tesisDoctorado en Ciencias de la ComputaciónUniversidad Nacional de San Agustín de Arequipa.Unidad de Posgrado.Facultad de Ingeniería de Producción y ServiciosDoctora en Ciencias de la ComputaciónORIGINALUPyarayd.pdfUPyarayd.pdfapplication/pdf1700345https://repositorio.unsa.edu.pe/bitstreams/83fe38a9-b3f8-40a5-af6e-b6c5d7c0befe/downloadae76370e3c73c3c0998dbca0916913e6MD51LICENSElicense.txtlicense.txttext/plain; charset=utf-81327https://repositorio.unsa.edu.pe/bitstreams/2e3fa15e-a53d-4f10-a16c-ef441393cbce/downloadc52066b9c50a8f86be96c82978636682MD52TEXTUPyarayd.pdf.txtUPyarayd.pdf.txtExtracted texttext/plain87247https://repositorio.unsa.edu.pe/bitstreams/5e039e3f-756e-4dfd-9985-6d3d377e2879/downloadaaa39740e06a4281609c983b953dd751MD5320.500.12773/13354oai:repositorio.unsa.edu.pe:20.500.12773/133542021-11-30 03:02:02.46http://creativecommons.org/licenses/by-nc-nd/4.0/info:eu-repo/semantics/openAccesshttps://repositorio.unsa.edu.peRepositorio Institucional UNSArepositorio@unsa.edu.pe77u/TGljZW5jaWEgZGUgVXNvCiAKRWwgUmVwb3NpdG9yaW8gSW5zdGl0dWNpb25hbCwgZGlmdW5kZSBtZWRpYW50ZSBsb3MgdHJhYmFqb3MgZGUgaW52ZXN0aWdhY2nDs24gcHJvZHVjaWRvcyBwb3IgbG9zIG1pZW1icm9zIGRlIGxhIHVuaXZlcnNpZGFkLiBFbCBjb250ZW5pZG8gZGUgbG9zIGRvY3VtZW50b3MgZGlnaXRhbGVzIGVzIGRlIGFjY2VzbyBhYmllcnRvIHBhcmEgdG9kYSBwZXJzb25hIGludGVyZXNhZGEuCgpTZSBhY2VwdGEgbGEgZGlmdXNpw7NuIHDDumJsaWNhIGRlIGxhIG9icmEsIHN1IGNvcGlhIHkgZGlzdHJpYnVjacOzbi4gUGFyYSBlc3RvIGVzIG5lY2VzYXJpbyBxdWUgc2UgY3VtcGxhIGNvbiBsYXMgc2lndWllbnRlcyBjb25kaWNpb25lczoKCkVsIG5lY2VzYXJpbyByZWNvbm9jaW1pZW50byBkZSBsYSBhdXRvcsOtYSBkZSBsYSBvYnJhLCBpZGVudGlmaWNhbmRvIG9wb3J0dW5hIHkgY29ycmVjdGFtZW50ZSBhIGxhIHBlcnNvbmEgcXVlIHBvc2VhIGxvcyBkZXJlY2hvcyBkZSBhdXRvci4KCk5vIGVzdMOhIHBlcm1pdGlkbyBlbCB1c28gaW5kZWJpZG8gZGVsIHRyYWJham8gZGUgaW52ZXN0aWdhY2nDs24gY29uIGZpbmVzIGRlIGx1Y3JvIG8gY3VhbHF1aWVyIHRpcG8gZGUgYWN0aXZpZGFkIHF1ZSBwcm9kdXpjYSBnYW5hbmNpYXMgYSBsYXMgcGVyc29uYXMgcXVlIGxvIGRpZnVuZGVuIHNpbiBlbCBjb25zZW50aW1pZW50byBkZWwgYXV0b3IgKGF1dG9yIGxlZ2FsKS4KCkxvcyBkZXJlY2hvcyBtb3JhbGVzIGRlbCBhdXRvciBubyBzb24gYWZlY3RhZG9zIHBvciBsYSBwcmVzZW50ZSBsaWNlbmNpYSBkZSB1c28uCgpEZXJlY2hvcyBkZSBhdXRvcgoKTGEgdW5pdmVyc2lkYWQgbm8gcG9zZWUgbG9zIGRlcmVjaG9zIGRlIHByb3BpZWRhZCBpbnRlbGVjdHVhbC4gTG9zIGRlcmVjaG9zIGRlIGF1dG9yIHNlIGVuY3VlbnRyYW4gcHJvdGVnaWRvcyBwb3IgbGEgbGVnaXNsYWNpw7NuIHBlcnVhbmE6IExleSBzb2JyZSBlbCBEZXJlY2hvIGRlIEF1dG9yIHByb211bGdhZG8gZW4gMTk5NiAoRC5MLiBOwrA4MjIpLCBMZXkgcXVlIG1vZGlmaWNhIGxvcyBhcnTDrWN1bG9zIDE4OMKwIHkgMTg5wrAgZGVsIGRlY3JldG8gbGVnaXNsYXRpdm8gTsKwODIyLCBMZXkgc29icmUgZGVyZWNob3MgZGUgYXV0b3IgcHJvbXVsZ2FkbyBlbiAyMDA1IChMZXkgTsKwMjg1MTcpLCBEZWNyZXRvIExlZ2lzbGF0aXZvIHF1ZSBhcHJ1ZWJhIGxhIG1vZGlmaWNhY2nDs24gZGVsIERlY3JldG8gTGVnaXNsYXRpdm8gTsKwODIyLCBMZXkgc29icmUgZWwgRGVyZWNobyBkZSBBdXRvciBwcm9tdWxnYWRvIGVuIDIwMDggKEQuTC4gTsKwMTA3NikuCg== |
score |
13.7211075 |
Nota importante:
La información contenida en este registro es de entera responsabilidad de la institución que gestiona el repositorio institucional donde esta contenido este documento o set de datos. El CONCYTEC no se hace responsable por los contenidos (publicaciones y/o datos) accesibles a través del Repositorio Nacional Digital de Ciencia, Tecnología e Innovación de Acceso Abierto (ALICIA).
La información contenida en este registro es de entera responsabilidad de la institución que gestiona el repositorio institucional donde esta contenido este documento o set de datos. El CONCYTEC no se hace responsable por los contenidos (publicaciones y/o datos) accesibles a través del Repositorio Nacional Digital de Ciencia, Tecnología e Innovación de Acceso Abierto (ALICIA).