Generación de imágenes de acciones específicas de una persona utilizando aprendizaje profundo

Descripción del Articulo

Desde que aparecieron las redes GAN, se han realizado varias investigaciones sobre cómo generar imágenes en diversos ámbitos, como la generación de imágenes, conversión de imágenes, síntesis de videos, síntesis de imágenes a partir de textos y predicción de cuadros de videos. Basándose mayormente en...

Descripción completa

Detalles Bibliográficos
Autor: Morales Pariona, Jose Ulises
Formato: tesis de maestría
Fecha de Publicación:2024
Institución:Pontificia Universidad Católica del Perú
Repositorio:PUCP-Tesis
Lenguaje:español
OAI Identifier:oai:tesis.pucp.edu.pe:20.500.12404/27570
Enlace del recurso:http://hdl.handle.net/20.500.12404/27570
Nivel de acceso:acceso abierto
Materia:Procesamiento de imágenes digitales
Procesamiento de datos
Aprendizaje profundo
https://purl.org/pe-repo/ocde/ford#1.02.00
id PUCP_dac900b60321e6cf395ee20f14bb8410
oai_identifier_str oai:tesis.pucp.edu.pe:20.500.12404/27570
network_acronym_str PUCP
network_name_str PUCP-Tesis
repository_id_str .
dc.title.es_ES.fl_str_mv Generación de imágenes de acciones específicas de una persona utilizando aprendizaje profundo
title Generación de imágenes de acciones específicas de una persona utilizando aprendizaje profundo
spellingShingle Generación de imágenes de acciones específicas de una persona utilizando aprendizaje profundo
Morales Pariona, Jose Ulises
Procesamiento de imágenes digitales
Procesamiento de datos
Aprendizaje profundo
https://purl.org/pe-repo/ocde/ford#1.02.00
title_short Generación de imágenes de acciones específicas de una persona utilizando aprendizaje profundo
title_full Generación de imágenes de acciones específicas de una persona utilizando aprendizaje profundo
title_fullStr Generación de imágenes de acciones específicas de una persona utilizando aprendizaje profundo
title_full_unstemmed Generación de imágenes de acciones específicas de una persona utilizando aprendizaje profundo
title_sort Generación de imágenes de acciones específicas de una persona utilizando aprendizaje profundo
author Morales Pariona, Jose Ulises
author_facet Morales Pariona, Jose Ulises
author_role author
dc.contributor.advisor.fl_str_mv Beltran Castañon, Cesar Armando
dc.contributor.author.fl_str_mv Morales Pariona, Jose Ulises
dc.subject.es_ES.fl_str_mv Procesamiento de imágenes digitales
Procesamiento de datos
Aprendizaje profundo
topic Procesamiento de imágenes digitales
Procesamiento de datos
Aprendizaje profundo
https://purl.org/pe-repo/ocde/ford#1.02.00
dc.subject.ocde.es_ES.fl_str_mv https://purl.org/pe-repo/ocde/ford#1.02.00
description Desde que aparecieron las redes GAN, se han realizado varias investigaciones sobre cómo generar imágenes en diversos ámbitos, como la generación de imágenes, conversión de imágenes, síntesis de videos, síntesis de imágenes a partir de textos y predicción de cuadros de videos. Basándose mayormente en mejorar la generación de imágenes de alta resolución y la reconstrucción o predicción de datos. El propósito de este trabajo es implementar las redes GAN en otros ámbitos, como la generación de imágenes de entidades realizando una acción. En este caso se consideró 3 acciones de personas, que son los ejercicios de Glúteo, Abdomen y Cardio. En primer lugar, se descargaron y procesaron las imágenes de YouTube, el cual incluye una secuencia de imágenes de cada acción. Posteriormente, se separó dos grupos de imágenes, de una sola persona, y de personas diferentes realizando las acciones. En segundo lugar, se seleccionó el modelo InfoGAN para la generación de imágenes, teniendo como evaluador de rendimiento, la Puntuación Inicial (PI). Obteniendo como resultados para el primer grupo, una puntuación máxima de 1.28 y en el segundo grupo, una puntuación máxima de 1.3. En conclusión, aunque no se obtuvo el puntaje máximo de 3 para este evaluador de rendimiento, debido a la cantidad y calidad de las imágenes. Se aprecia, que el modelo si logra diferenciar los 3 tipos de ejercicios, aunque existen casos donde se muestran incorrectamente las piernas, los brazos y la cabeza.
publishDate 2024
dc.date.accessioned.none.fl_str_mv 2024-04-16T20:32:04Z
dc.date.available.none.fl_str_mv 2024-04-16T20:32:04Z
dc.date.created.none.fl_str_mv 2024
dc.date.issued.fl_str_mv 2024-04-16
dc.type.es_ES.fl_str_mv info:eu-repo/semantics/masterThesis
format masterThesis
dc.identifier.uri.none.fl_str_mv http://hdl.handle.net/20.500.12404/27570
url http://hdl.handle.net/20.500.12404/27570
dc.language.iso.es_ES.fl_str_mv spa
language spa
dc.relation.ispartof.fl_str_mv SUNEDU
dc.rights.es_ES.fl_str_mv info:eu-repo/semantics/openAccess
dc.rights.uri.*.fl_str_mv http://creativecommons.org/licenses/by-nc-nd/2.5/pe/
eu_rights_str_mv openAccess
rights_invalid_str_mv http://creativecommons.org/licenses/by-nc-nd/2.5/pe/
dc.publisher.es_ES.fl_str_mv Pontificia Universidad Católica del Perú
dc.publisher.country.es_ES.fl_str_mv PE
dc.source.none.fl_str_mv reponame:PUCP-Tesis
instname:Pontificia Universidad Católica del Perú
instacron:PUCP
instname_str Pontificia Universidad Católica del Perú
instacron_str PUCP
institution PUCP
reponame_str PUCP-Tesis
collection PUCP-Tesis
bitstream.url.fl_str_mv https://tesis.pucp.edu.pe/bitstreams/ddccc0e2-20ae-4d72-861f-18618037abe8/download
https://tesis.pucp.edu.pe/bitstreams/7032fbaf-5bc2-4e88-bec6-868ea72d3b53/download
https://tesis.pucp.edu.pe/bitstreams/8495c3c2-2910-42d1-b4b9-43a898991192/download
https://tesis.pucp.edu.pe/bitstreams/40386583-7c8c-4d41-b87f-087a3b368ce2/download
https://tesis.pucp.edu.pe/bitstreams/b9e5f8aa-c930-4d35-a0c9-4060c1f084e1/download
https://tesis.pucp.edu.pe/bitstreams/ef4587af-fee4-4db7-b00e-5c728ecb57a0/download
https://tesis.pucp.edu.pe/bitstreams/d3083af6-cb73-425f-b8fe-c7caed1ec22f/download
https://tesis.pucp.edu.pe/bitstreams/5131a5ce-3a44-48ce-be7f-e81c88cfa328/download
bitstream.checksum.fl_str_mv 8691061db92928959b73363dd8c29c33
2bf92d15bbc6526447a867752fc8b3b4
3655808e5dd46167956d6870b0f43800
8a4605be74aa9ea9d79846c1fba20a33
2620a4f94c7c858972009b152c7c7804
eb5ae82d4c8a616df24f36552a3710f3
6bdd1e7a13f2ce79d1534934f3a911f9
c6fa53c7368f3041ffa2258983659a38
bitstream.checksumAlgorithm.fl_str_mv MD5
MD5
MD5
MD5
MD5
MD5
MD5
MD5
repository.name.fl_str_mv Repositorio de Tesis PUCP
repository.mail.fl_str_mv raul.sifuentes@pucp.pe
_version_ 1834736819275563008
spelling Beltran Castañon, Cesar ArmandoMorales Pariona, Jose Ulises2024-04-16T20:32:04Z2024-04-16T20:32:04Z20242024-04-16http://hdl.handle.net/20.500.12404/27570Desde que aparecieron las redes GAN, se han realizado varias investigaciones sobre cómo generar imágenes en diversos ámbitos, como la generación de imágenes, conversión de imágenes, síntesis de videos, síntesis de imágenes a partir de textos y predicción de cuadros de videos. Basándose mayormente en mejorar la generación de imágenes de alta resolución y la reconstrucción o predicción de datos. El propósito de este trabajo es implementar las redes GAN en otros ámbitos, como la generación de imágenes de entidades realizando una acción. En este caso se consideró 3 acciones de personas, que son los ejercicios de Glúteo, Abdomen y Cardio. En primer lugar, se descargaron y procesaron las imágenes de YouTube, el cual incluye una secuencia de imágenes de cada acción. Posteriormente, se separó dos grupos de imágenes, de una sola persona, y de personas diferentes realizando las acciones. En segundo lugar, se seleccionó el modelo InfoGAN para la generación de imágenes, teniendo como evaluador de rendimiento, la Puntuación Inicial (PI). Obteniendo como resultados para el primer grupo, una puntuación máxima de 1.28 y en el segundo grupo, una puntuación máxima de 1.3. En conclusión, aunque no se obtuvo el puntaje máximo de 3 para este evaluador de rendimiento, debido a la cantidad y calidad de las imágenes. Se aprecia, que el modelo si logra diferenciar los 3 tipos de ejercicios, aunque existen casos donde se muestran incorrectamente las piernas, los brazos y la cabeza.Since the appearance of GAN networks, various investigations have been carried out on how to generate images in various fields, such as image generation, image conversion, video synthesis, image synthesis from text, and video frame prediction. Based mostly on improving the generation of high resolution images and the reconstruction or prediction of data. The purpose of this work is to implement GAN networks in other areas, such as the generation of images of entities performing an action. In this case, 3 actions of people were considered, which are the Gluteus, Abdomen and Cardio exercises. First, the images from YouTube were downloaded and processed, which includes a sequence of images of each action. Subsequently, two groups of images were separated, of a single person, and of different people performing the actions. Secondly, the InfoGAN model was selected for image generation, having the Initial Score (PI) as a performance evaluator. Obtaining as results for the first group, a maximum score of 1.28 and in the second group, a maximum score of 1.3. In conclusion, although the maximum score of 3 was not obtained for this performance tester, due to the quantity and quality of the images. It can be seen that the model is able to differentiate the 3 types of exercises, although there are cases where the legs, arms and head are shown incorrectly.spaPontificia Universidad Católica del PerúPEinfo:eu-repo/semantics/openAccesshttp://creativecommons.org/licenses/by-nc-nd/2.5/pe/Procesamiento de imágenes digitalesProcesamiento de datosAprendizaje profundohttps://purl.org/pe-repo/ocde/ford#1.02.00Generación de imágenes de acciones específicas de una persona utilizando aprendizaje profundoinfo:eu-repo/semantics/masterThesisreponame:PUCP-Tesisinstname:Pontificia Universidad Católica del Perúinstacron:PUCPSUNEDUMaestro en Informática con mención en Ciencias de la ComputaciónMaestríaPontificia Universidad Católica del Perú. Escuela de Posgrado.Informática con mención en Ciencias de la Computación29561260https://orcid.org/0000-0002-0173-414046725998611087Olivares Poggi, Cesar AugustoBeltran Castañon, Cesar ArmandoAyma Quirita, Victor Andreshttps://purl.org/pe-repo/renati/level#maestrohttps://purl.org/pe-repo/renati/type#tesisORIGINALMORALES_PARIONA_JOSE_GENERACION_IMAGENES_ACCIONES.pdfMORALES_PARIONA_JOSE_GENERACION_IMAGENES_ACCIONES.pdfTexto completoapplication/pdf1385203https://tesis.pucp.edu.pe/bitstreams/ddccc0e2-20ae-4d72-861f-18618037abe8/download8691061db92928959b73363dd8c29c33MD51trueAnonymousREADMORALES_PARIONA_JOSE_ULISES_T.pdfMORALES_PARIONA_JOSE_ULISES_T.pdfReporte de originalidadapplication/pdf11780600https://tesis.pucp.edu.pe/bitstreams/7032fbaf-5bc2-4e88-bec6-868ea72d3b53/download2bf92d15bbc6526447a867752fc8b3b4MD52falseAnonymousREAD2500-01-01CC-LICENSElicense_rdflicense_rdfapplication/rdf+xml; charset=utf-8811https://tesis.pucp.edu.pe/bitstreams/8495c3c2-2910-42d1-b4b9-43a898991192/download3655808e5dd46167956d6870b0f43800MD53falseAnonymousREADLICENSElicense.txtlicense.txttext/plain; charset=utf-81748https://tesis.pucp.edu.pe/bitstreams/40386583-7c8c-4d41-b87f-087a3b368ce2/download8a4605be74aa9ea9d79846c1fba20a33MD54falseAnonymousREADTHUMBNAILMORALES_PARIONA_JOSE_GENERACION_IMAGENES_ACCIONES.pdf.jpgMORALES_PARIONA_JOSE_GENERACION_IMAGENES_ACCIONES.pdf.jpgIM Thumbnailimage/jpeg10841https://tesis.pucp.edu.pe/bitstreams/b9e5f8aa-c930-4d35-a0c9-4060c1f084e1/download2620a4f94c7c858972009b152c7c7804MD55falseAnonymousREADMORALES_PARIONA_JOSE_ULISES_T.pdf.jpgMORALES_PARIONA_JOSE_ULISES_T.pdf.jpgIM Thumbnailimage/jpeg7045https://tesis.pucp.edu.pe/bitstreams/ef4587af-fee4-4db7-b00e-5c728ecb57a0/downloadeb5ae82d4c8a616df24f36552a3710f3MD56falseAnonymousREAD2500-01-01TEXTMORALES_PARIONA_JOSE_GENERACION_IMAGENES_ACCIONES.pdf.txtMORALES_PARIONA_JOSE_GENERACION_IMAGENES_ACCIONES.pdf.txtExtracted texttext/plain89730https://tesis.pucp.edu.pe/bitstreams/d3083af6-cb73-425f-b8fe-c7caed1ec22f/download6bdd1e7a13f2ce79d1534934f3a911f9MD57falseAnonymousREADMORALES_PARIONA_JOSE_ULISES_T.pdf.txtMORALES_PARIONA_JOSE_ULISES_T.pdf.txtExtracted texttext/plain4227https://tesis.pucp.edu.pe/bitstreams/5131a5ce-3a44-48ce-be7f-e81c88cfa328/downloadc6fa53c7368f3041ffa2258983659a38MD58falseAnonymousREAD2500-01-0120.500.12404/27570oai:tesis.pucp.edu.pe:20.500.12404/275702025-03-04 21:24:25.342http://creativecommons.org/licenses/by-nc-nd/2.5/pe/info:eu-repo/semantics/openAccessopen.accesshttps://tesis.pucp.edu.peRepositorio de Tesis PUCPraul.sifuentes@pucp.peTk9URTogUExBQ0UgWU9VUiBPV04gTElDRU5TRSBIRVJFClRoaXMgc2FtcGxlIGxpY2Vuc2UgaXMgcHJvdmlkZWQgZm9yIGluZm9ybWF0aW9uYWwgcHVycG9zZXMgb25seS4KCk5PTi1FWENMVVNJVkUgRElTVFJJQlVUSU9OIExJQ0VOU0UKCkJ5IHNpZ25pbmcgYW5kIHN1Ym1pdHRpbmcgdGhpcyBsaWNlbnNlLCB5b3UgKHRoZSBhdXRob3Iocykgb3IgY29weXJpZ2h0Cm93bmVyKSBncmFudHMgdG8gRFNwYWNlIFVuaXZlcnNpdHkgKERTVSkgdGhlIG5vbi1leGNsdXNpdmUgcmlnaHQgdG8gcmVwcm9kdWNlLAp0cmFuc2xhdGUgKGFzIGRlZmluZWQgYmVsb3cpLCBhbmQvb3IgZGlzdHJpYnV0ZSB5b3VyIHN1Ym1pc3Npb24gKGluY2x1ZGluZwp0aGUgYWJzdHJhY3QpIHdvcmxkd2lkZSBpbiBwcmludCBhbmQgZWxlY3Ryb25pYyBmb3JtYXQgYW5kIGluIGFueSBtZWRpdW0sCmluY2x1ZGluZyBidXQgbm90IGxpbWl0ZWQgdG8gYXVkaW8gb3IgdmlkZW8uCgpZb3UgYWdyZWUgdGhhdCBEU1UgbWF5LCB3aXRob3V0IGNoYW5naW5nIHRoZSBjb250ZW50LCB0cmFuc2xhdGUgdGhlCnN1Ym1pc3Npb24gdG8gYW55IG1lZGl1bSBvciBmb3JtYXQgZm9yIHRoZSBwdXJwb3NlIG9mIHByZXNlcnZhdGlvbi4KCllvdSBhbHNvIGFncmVlIHRoYXQgRFNVIG1heSBrZWVwIG1vcmUgdGhhbiBvbmUgY29weSBvZiB0aGlzIHN1Ym1pc3Npb24gZm9yCnB1cnBvc2VzIG9mIHNlY3VyaXR5LCBiYWNrLXVwIGFuZCBwcmVzZXJ2YXRpb24uCgpZb3UgcmVwcmVzZW50IHRoYXQgdGhlIHN1Ym1pc3Npb24gaXMgeW91ciBvcmlnaW5hbCB3b3JrLCBhbmQgdGhhdCB5b3UgaGF2ZQp0aGUgcmlnaHQgdG8gZ3JhbnQgdGhlIHJpZ2h0cyBjb250YWluZWQgaW4gdGhpcyBsaWNlbnNlLiBZb3UgYWxzbyByZXByZXNlbnQKdGhhdCB5b3VyIHN1Ym1pc3Npb24gZG9lcyBub3QsIHRvIHRoZSBiZXN0IG9mIHlvdXIga25vd2xlZGdlLCBpbmZyaW5nZSB1cG9uCmFueW9uZSdzIGNvcHlyaWdodC4KCklmIHRoZSBzdWJtaXNzaW9uIGNvbnRhaW5zIG1hdGVyaWFsIGZvciB3aGljaCB5b3UgZG8gbm90IGhvbGQgY29weXJpZ2h0LAp5b3UgcmVwcmVzZW50IHRoYXQgeW91IGhhdmUgb2J0YWluZWQgdGhlIHVucmVzdHJpY3RlZCBwZXJtaXNzaW9uIG9mIHRoZQpjb3B5cmlnaHQgb3duZXIgdG8gZ3JhbnQgRFNVIHRoZSByaWdodHMgcmVxdWlyZWQgYnkgdGhpcyBsaWNlbnNlLCBhbmQgdGhhdApzdWNoIHRoaXJkLXBhcnR5IG93bmVkIG1hdGVyaWFsIGlzIGNsZWFybHkgaWRlbnRpZmllZCBhbmQgYWNrbm93bGVkZ2VkCndpdGhpbiB0aGUgdGV4dCBvciBjb250ZW50IG9mIHRoZSBzdWJtaXNzaW9uLgoKSUYgVEhFIFNVQk1JU1NJT04gSVMgQkFTRUQgVVBPTiBXT1JLIFRIQVQgSEFTIEJFRU4gU1BPTlNPUkVEIE9SIFNVUFBPUlRFRApCWSBBTiBBR0VOQ1kgT1IgT1JHQU5JWkFUSU9OIE9USEVSIFRIQU4gRFNVLCBZT1UgUkVQUkVTRU5UIFRIQVQgWU9VIEhBVkUKRlVMRklMTEVEIEFOWSBSSUdIVCBPRiBSRVZJRVcgT1IgT1RIRVIgT0JMSUdBVElPTlMgUkVRVUlSRUQgQlkgU1VDSApDT05UUkFDVCBPUiBBR1JFRU1FTlQuCgpEU1Ugd2lsbCBjbGVhcmx5IGlkZW50aWZ5IHlvdXIgbmFtZShzKSBhcyB0aGUgYXV0aG9yKHMpIG9yIG93bmVyKHMpIG9mIHRoZQpzdWJtaXNzaW9uLCBhbmQgd2lsbCBub3QgbWFrZSBhbnkgYWx0ZXJhdGlvbiwgb3RoZXIgdGhhbiBhcyBhbGxvd2VkIGJ5IHRoaXMKbGljZW5zZSwgdG8geW91ciBzdWJtaXNzaW9uLgo=
score 13.905282
Nota importante:
La información contenida en este registro es de entera responsabilidad de la institución que gestiona el repositorio institucional donde esta contenido este documento o set de datos. El CONCYTEC no se hace responsable por los contenidos (publicaciones y/o datos) accesibles a través del Repositorio Nacional Digital de Ciencia, Tecnología e Innovación de Acceso Abierto (ALICIA).