Generación de imágenes de acciones específicas de una persona utilizando aprendizaje profundo
Descripción del Articulo
Desde que aparecieron las redes GAN, se han realizado varias investigaciones sobre cómo generar imágenes en diversos ámbitos, como la generación de imágenes, conversión de imágenes, síntesis de videos, síntesis de imágenes a partir de textos y predicción de cuadros de videos. Basándose mayormente en...
| Autor: | |
|---|---|
| Formato: | tesis de maestría |
| Fecha de Publicación: | 2024 |
| Institución: | Pontificia Universidad Católica del Perú |
| Repositorio: | PUCP-Tesis |
| Lenguaje: | español |
| OAI Identifier: | oai:tesis.pucp.edu.pe:20.500.12404/27570 |
| Enlace del recurso: | http://hdl.handle.net/20.500.12404/27570 |
| Nivel de acceso: | acceso abierto |
| Materia: | Procesamiento de imágenes digitales Procesamiento de datos Aprendizaje profundo https://purl.org/pe-repo/ocde/ford#1.02.00 |
| id |
PUCP_dac900b60321e6cf395ee20f14bb8410 |
|---|---|
| oai_identifier_str |
oai:tesis.pucp.edu.pe:20.500.12404/27570 |
| network_acronym_str |
PUCP |
| network_name_str |
PUCP-Tesis |
| repository_id_str |
. |
| dc.title.es_ES.fl_str_mv |
Generación de imágenes de acciones específicas de una persona utilizando aprendizaje profundo |
| title |
Generación de imágenes de acciones específicas de una persona utilizando aprendizaje profundo |
| spellingShingle |
Generación de imágenes de acciones específicas de una persona utilizando aprendizaje profundo Morales Pariona, Jose Ulises Procesamiento de imágenes digitales Procesamiento de datos Aprendizaje profundo https://purl.org/pe-repo/ocde/ford#1.02.00 |
| title_short |
Generación de imágenes de acciones específicas de una persona utilizando aprendizaje profundo |
| title_full |
Generación de imágenes de acciones específicas de una persona utilizando aprendizaje profundo |
| title_fullStr |
Generación de imágenes de acciones específicas de una persona utilizando aprendizaje profundo |
| title_full_unstemmed |
Generación de imágenes de acciones específicas de una persona utilizando aprendizaje profundo |
| title_sort |
Generación de imágenes de acciones específicas de una persona utilizando aprendizaje profundo |
| author |
Morales Pariona, Jose Ulises |
| author_facet |
Morales Pariona, Jose Ulises |
| author_role |
author |
| dc.contributor.advisor.fl_str_mv |
Beltran Castañon, Cesar Armando |
| dc.contributor.author.fl_str_mv |
Morales Pariona, Jose Ulises |
| dc.subject.es_ES.fl_str_mv |
Procesamiento de imágenes digitales Procesamiento de datos Aprendizaje profundo |
| topic |
Procesamiento de imágenes digitales Procesamiento de datos Aprendizaje profundo https://purl.org/pe-repo/ocde/ford#1.02.00 |
| dc.subject.ocde.es_ES.fl_str_mv |
https://purl.org/pe-repo/ocde/ford#1.02.00 |
| description |
Desde que aparecieron las redes GAN, se han realizado varias investigaciones sobre cómo generar imágenes en diversos ámbitos, como la generación de imágenes, conversión de imágenes, síntesis de videos, síntesis de imágenes a partir de textos y predicción de cuadros de videos. Basándose mayormente en mejorar la generación de imágenes de alta resolución y la reconstrucción o predicción de datos. El propósito de este trabajo es implementar las redes GAN en otros ámbitos, como la generación de imágenes de entidades realizando una acción. En este caso se consideró 3 acciones de personas, que son los ejercicios de Glúteo, Abdomen y Cardio. En primer lugar, se descargaron y procesaron las imágenes de YouTube, el cual incluye una secuencia de imágenes de cada acción. Posteriormente, se separó dos grupos de imágenes, de una sola persona, y de personas diferentes realizando las acciones. En segundo lugar, se seleccionó el modelo InfoGAN para la generación de imágenes, teniendo como evaluador de rendimiento, la Puntuación Inicial (PI). Obteniendo como resultados para el primer grupo, una puntuación máxima de 1.28 y en el segundo grupo, una puntuación máxima de 1.3. En conclusión, aunque no se obtuvo el puntaje máximo de 3 para este evaluador de rendimiento, debido a la cantidad y calidad de las imágenes. Se aprecia, que el modelo si logra diferenciar los 3 tipos de ejercicios, aunque existen casos donde se muestran incorrectamente las piernas, los brazos y la cabeza. |
| publishDate |
2024 |
| dc.date.accessioned.none.fl_str_mv |
2024-04-16T20:32:04Z |
| dc.date.available.none.fl_str_mv |
2024-04-16T20:32:04Z |
| dc.date.created.none.fl_str_mv |
2024 |
| dc.date.issued.fl_str_mv |
2024-04-16 |
| dc.type.es_ES.fl_str_mv |
info:eu-repo/semantics/masterThesis |
| format |
masterThesis |
| dc.identifier.uri.none.fl_str_mv |
http://hdl.handle.net/20.500.12404/27570 |
| url |
http://hdl.handle.net/20.500.12404/27570 |
| dc.language.iso.es_ES.fl_str_mv |
spa |
| language |
spa |
| dc.relation.ispartof.fl_str_mv |
SUNEDU |
| dc.rights.es_ES.fl_str_mv |
info:eu-repo/semantics/openAccess |
| dc.rights.uri.*.fl_str_mv |
http://creativecommons.org/licenses/by-nc-nd/2.5/pe/ |
| eu_rights_str_mv |
openAccess |
| rights_invalid_str_mv |
http://creativecommons.org/licenses/by-nc-nd/2.5/pe/ |
| dc.publisher.es_ES.fl_str_mv |
Pontificia Universidad Católica del Perú |
| dc.publisher.country.es_ES.fl_str_mv |
PE |
| dc.source.none.fl_str_mv |
reponame:PUCP-Tesis instname:Pontificia Universidad Católica del Perú instacron:PUCP |
| instname_str |
Pontificia Universidad Católica del Perú |
| instacron_str |
PUCP |
| institution |
PUCP |
| reponame_str |
PUCP-Tesis |
| collection |
PUCP-Tesis |
| bitstream.url.fl_str_mv |
https://tesis.pucp.edu.pe/bitstreams/ddccc0e2-20ae-4d72-861f-18618037abe8/download https://tesis.pucp.edu.pe/bitstreams/7032fbaf-5bc2-4e88-bec6-868ea72d3b53/download https://tesis.pucp.edu.pe/bitstreams/8495c3c2-2910-42d1-b4b9-43a898991192/download https://tesis.pucp.edu.pe/bitstreams/40386583-7c8c-4d41-b87f-087a3b368ce2/download https://tesis.pucp.edu.pe/bitstreams/b9e5f8aa-c930-4d35-a0c9-4060c1f084e1/download https://tesis.pucp.edu.pe/bitstreams/ef4587af-fee4-4db7-b00e-5c728ecb57a0/download https://tesis.pucp.edu.pe/bitstreams/d3083af6-cb73-425f-b8fe-c7caed1ec22f/download https://tesis.pucp.edu.pe/bitstreams/5131a5ce-3a44-48ce-be7f-e81c88cfa328/download |
| bitstream.checksum.fl_str_mv |
8691061db92928959b73363dd8c29c33 2bf92d15bbc6526447a867752fc8b3b4 3655808e5dd46167956d6870b0f43800 8a4605be74aa9ea9d79846c1fba20a33 2620a4f94c7c858972009b152c7c7804 eb5ae82d4c8a616df24f36552a3710f3 6bdd1e7a13f2ce79d1534934f3a911f9 c6fa53c7368f3041ffa2258983659a38 |
| bitstream.checksumAlgorithm.fl_str_mv |
MD5 MD5 MD5 MD5 MD5 MD5 MD5 MD5 |
| repository.name.fl_str_mv |
Repositorio de Tesis PUCP |
| repository.mail.fl_str_mv |
raul.sifuentes@pucp.pe |
| _version_ |
1834736819275563008 |
| spelling |
Beltran Castañon, Cesar ArmandoMorales Pariona, Jose Ulises2024-04-16T20:32:04Z2024-04-16T20:32:04Z20242024-04-16http://hdl.handle.net/20.500.12404/27570Desde que aparecieron las redes GAN, se han realizado varias investigaciones sobre cómo generar imágenes en diversos ámbitos, como la generación de imágenes, conversión de imágenes, síntesis de videos, síntesis de imágenes a partir de textos y predicción de cuadros de videos. Basándose mayormente en mejorar la generación de imágenes de alta resolución y la reconstrucción o predicción de datos. El propósito de este trabajo es implementar las redes GAN en otros ámbitos, como la generación de imágenes de entidades realizando una acción. En este caso se consideró 3 acciones de personas, que son los ejercicios de Glúteo, Abdomen y Cardio. En primer lugar, se descargaron y procesaron las imágenes de YouTube, el cual incluye una secuencia de imágenes de cada acción. Posteriormente, se separó dos grupos de imágenes, de una sola persona, y de personas diferentes realizando las acciones. En segundo lugar, se seleccionó el modelo InfoGAN para la generación de imágenes, teniendo como evaluador de rendimiento, la Puntuación Inicial (PI). Obteniendo como resultados para el primer grupo, una puntuación máxima de 1.28 y en el segundo grupo, una puntuación máxima de 1.3. En conclusión, aunque no se obtuvo el puntaje máximo de 3 para este evaluador de rendimiento, debido a la cantidad y calidad de las imágenes. Se aprecia, que el modelo si logra diferenciar los 3 tipos de ejercicios, aunque existen casos donde se muestran incorrectamente las piernas, los brazos y la cabeza.Since the appearance of GAN networks, various investigations have been carried out on how to generate images in various fields, such as image generation, image conversion, video synthesis, image synthesis from text, and video frame prediction. Based mostly on improving the generation of high resolution images and the reconstruction or prediction of data. The purpose of this work is to implement GAN networks in other areas, such as the generation of images of entities performing an action. In this case, 3 actions of people were considered, which are the Gluteus, Abdomen and Cardio exercises. First, the images from YouTube were downloaded and processed, which includes a sequence of images of each action. Subsequently, two groups of images were separated, of a single person, and of different people performing the actions. Secondly, the InfoGAN model was selected for image generation, having the Initial Score (PI) as a performance evaluator. Obtaining as results for the first group, a maximum score of 1.28 and in the second group, a maximum score of 1.3. In conclusion, although the maximum score of 3 was not obtained for this performance tester, due to the quantity and quality of the images. It can be seen that the model is able to differentiate the 3 types of exercises, although there are cases where the legs, arms and head are shown incorrectly.spaPontificia Universidad Católica del PerúPEinfo:eu-repo/semantics/openAccesshttp://creativecommons.org/licenses/by-nc-nd/2.5/pe/Procesamiento de imágenes digitalesProcesamiento de datosAprendizaje profundohttps://purl.org/pe-repo/ocde/ford#1.02.00Generación de imágenes de acciones específicas de una persona utilizando aprendizaje profundoinfo:eu-repo/semantics/masterThesisreponame:PUCP-Tesisinstname:Pontificia Universidad Católica del Perúinstacron:PUCPSUNEDUMaestro en Informática con mención en Ciencias de la ComputaciónMaestríaPontificia Universidad Católica del Perú. Escuela de Posgrado.Informática con mención en Ciencias de la Computación29561260https://orcid.org/0000-0002-0173-414046725998611087Olivares Poggi, Cesar AugustoBeltran Castañon, Cesar ArmandoAyma Quirita, Victor Andreshttps://purl.org/pe-repo/renati/level#maestrohttps://purl.org/pe-repo/renati/type#tesisORIGINALMORALES_PARIONA_JOSE_GENERACION_IMAGENES_ACCIONES.pdfMORALES_PARIONA_JOSE_GENERACION_IMAGENES_ACCIONES.pdfTexto completoapplication/pdf1385203https://tesis.pucp.edu.pe/bitstreams/ddccc0e2-20ae-4d72-861f-18618037abe8/download8691061db92928959b73363dd8c29c33MD51trueAnonymousREADMORALES_PARIONA_JOSE_ULISES_T.pdfMORALES_PARIONA_JOSE_ULISES_T.pdfReporte de originalidadapplication/pdf11780600https://tesis.pucp.edu.pe/bitstreams/7032fbaf-5bc2-4e88-bec6-868ea72d3b53/download2bf92d15bbc6526447a867752fc8b3b4MD52falseAnonymousREAD2500-01-01CC-LICENSElicense_rdflicense_rdfapplication/rdf+xml; charset=utf-8811https://tesis.pucp.edu.pe/bitstreams/8495c3c2-2910-42d1-b4b9-43a898991192/download3655808e5dd46167956d6870b0f43800MD53falseAnonymousREADLICENSElicense.txtlicense.txttext/plain; charset=utf-81748https://tesis.pucp.edu.pe/bitstreams/40386583-7c8c-4d41-b87f-087a3b368ce2/download8a4605be74aa9ea9d79846c1fba20a33MD54falseAnonymousREADTHUMBNAILMORALES_PARIONA_JOSE_GENERACION_IMAGENES_ACCIONES.pdf.jpgMORALES_PARIONA_JOSE_GENERACION_IMAGENES_ACCIONES.pdf.jpgIM Thumbnailimage/jpeg10841https://tesis.pucp.edu.pe/bitstreams/b9e5f8aa-c930-4d35-a0c9-4060c1f084e1/download2620a4f94c7c858972009b152c7c7804MD55falseAnonymousREADMORALES_PARIONA_JOSE_ULISES_T.pdf.jpgMORALES_PARIONA_JOSE_ULISES_T.pdf.jpgIM Thumbnailimage/jpeg7045https://tesis.pucp.edu.pe/bitstreams/ef4587af-fee4-4db7-b00e-5c728ecb57a0/downloadeb5ae82d4c8a616df24f36552a3710f3MD56falseAnonymousREAD2500-01-01TEXTMORALES_PARIONA_JOSE_GENERACION_IMAGENES_ACCIONES.pdf.txtMORALES_PARIONA_JOSE_GENERACION_IMAGENES_ACCIONES.pdf.txtExtracted texttext/plain89730https://tesis.pucp.edu.pe/bitstreams/d3083af6-cb73-425f-b8fe-c7caed1ec22f/download6bdd1e7a13f2ce79d1534934f3a911f9MD57falseAnonymousREADMORALES_PARIONA_JOSE_ULISES_T.pdf.txtMORALES_PARIONA_JOSE_ULISES_T.pdf.txtExtracted texttext/plain4227https://tesis.pucp.edu.pe/bitstreams/5131a5ce-3a44-48ce-be7f-e81c88cfa328/downloadc6fa53c7368f3041ffa2258983659a38MD58falseAnonymousREAD2500-01-0120.500.12404/27570oai:tesis.pucp.edu.pe:20.500.12404/275702025-03-04 21:24:25.342http://creativecommons.org/licenses/by-nc-nd/2.5/pe/info:eu-repo/semantics/openAccessopen.accesshttps://tesis.pucp.edu.peRepositorio de Tesis PUCPraul.sifuentes@pucp.peTk9URTogUExBQ0UgWU9VUiBPV04gTElDRU5TRSBIRVJFClRoaXMgc2FtcGxlIGxpY2Vuc2UgaXMgcHJvdmlkZWQgZm9yIGluZm9ybWF0aW9uYWwgcHVycG9zZXMgb25seS4KCk5PTi1FWENMVVNJVkUgRElTVFJJQlVUSU9OIExJQ0VOU0UKCkJ5IHNpZ25pbmcgYW5kIHN1Ym1pdHRpbmcgdGhpcyBsaWNlbnNlLCB5b3UgKHRoZSBhdXRob3Iocykgb3IgY29weXJpZ2h0Cm93bmVyKSBncmFudHMgdG8gRFNwYWNlIFVuaXZlcnNpdHkgKERTVSkgdGhlIG5vbi1leGNsdXNpdmUgcmlnaHQgdG8gcmVwcm9kdWNlLAp0cmFuc2xhdGUgKGFzIGRlZmluZWQgYmVsb3cpLCBhbmQvb3IgZGlzdHJpYnV0ZSB5b3VyIHN1Ym1pc3Npb24gKGluY2x1ZGluZwp0aGUgYWJzdHJhY3QpIHdvcmxkd2lkZSBpbiBwcmludCBhbmQgZWxlY3Ryb25pYyBmb3JtYXQgYW5kIGluIGFueSBtZWRpdW0sCmluY2x1ZGluZyBidXQgbm90IGxpbWl0ZWQgdG8gYXVkaW8gb3IgdmlkZW8uCgpZb3UgYWdyZWUgdGhhdCBEU1UgbWF5LCB3aXRob3V0IGNoYW5naW5nIHRoZSBjb250ZW50LCB0cmFuc2xhdGUgdGhlCnN1Ym1pc3Npb24gdG8gYW55IG1lZGl1bSBvciBmb3JtYXQgZm9yIHRoZSBwdXJwb3NlIG9mIHByZXNlcnZhdGlvbi4KCllvdSBhbHNvIGFncmVlIHRoYXQgRFNVIG1heSBrZWVwIG1vcmUgdGhhbiBvbmUgY29weSBvZiB0aGlzIHN1Ym1pc3Npb24gZm9yCnB1cnBvc2VzIG9mIHNlY3VyaXR5LCBiYWNrLXVwIGFuZCBwcmVzZXJ2YXRpb24uCgpZb3UgcmVwcmVzZW50IHRoYXQgdGhlIHN1Ym1pc3Npb24gaXMgeW91ciBvcmlnaW5hbCB3b3JrLCBhbmQgdGhhdCB5b3UgaGF2ZQp0aGUgcmlnaHQgdG8gZ3JhbnQgdGhlIHJpZ2h0cyBjb250YWluZWQgaW4gdGhpcyBsaWNlbnNlLiBZb3UgYWxzbyByZXByZXNlbnQKdGhhdCB5b3VyIHN1Ym1pc3Npb24gZG9lcyBub3QsIHRvIHRoZSBiZXN0IG9mIHlvdXIga25vd2xlZGdlLCBpbmZyaW5nZSB1cG9uCmFueW9uZSdzIGNvcHlyaWdodC4KCklmIHRoZSBzdWJtaXNzaW9uIGNvbnRhaW5zIG1hdGVyaWFsIGZvciB3aGljaCB5b3UgZG8gbm90IGhvbGQgY29weXJpZ2h0LAp5b3UgcmVwcmVzZW50IHRoYXQgeW91IGhhdmUgb2J0YWluZWQgdGhlIHVucmVzdHJpY3RlZCBwZXJtaXNzaW9uIG9mIHRoZQpjb3B5cmlnaHQgb3duZXIgdG8gZ3JhbnQgRFNVIHRoZSByaWdodHMgcmVxdWlyZWQgYnkgdGhpcyBsaWNlbnNlLCBhbmQgdGhhdApzdWNoIHRoaXJkLXBhcnR5IG93bmVkIG1hdGVyaWFsIGlzIGNsZWFybHkgaWRlbnRpZmllZCBhbmQgYWNrbm93bGVkZ2VkCndpdGhpbiB0aGUgdGV4dCBvciBjb250ZW50IG9mIHRoZSBzdWJtaXNzaW9uLgoKSUYgVEhFIFNVQk1JU1NJT04gSVMgQkFTRUQgVVBPTiBXT1JLIFRIQVQgSEFTIEJFRU4gU1BPTlNPUkVEIE9SIFNVUFBPUlRFRApCWSBBTiBBR0VOQ1kgT1IgT1JHQU5JWkFUSU9OIE9USEVSIFRIQU4gRFNVLCBZT1UgUkVQUkVTRU5UIFRIQVQgWU9VIEhBVkUKRlVMRklMTEVEIEFOWSBSSUdIVCBPRiBSRVZJRVcgT1IgT1RIRVIgT0JMSUdBVElPTlMgUkVRVUlSRUQgQlkgU1VDSApDT05UUkFDVCBPUiBBR1JFRU1FTlQuCgpEU1Ugd2lsbCBjbGVhcmx5IGlkZW50aWZ5IHlvdXIgbmFtZShzKSBhcyB0aGUgYXV0aG9yKHMpIG9yIG93bmVyKHMpIG9mIHRoZQpzdWJtaXNzaW9uLCBhbmQgd2lsbCBub3QgbWFrZSBhbnkgYWx0ZXJhdGlvbiwgb3RoZXIgdGhhbiBhcyBhbGxvd2VkIGJ5IHRoaXMKbGljZW5zZSwgdG8geW91ciBzdWJtaXNzaW9uLgo= |
| score |
13.905282 |
Nota importante:
La información contenida en este registro es de entera responsabilidad de la institución que gestiona el repositorio institucional donde esta contenido este documento o set de datos. El CONCYTEC no se hace responsable por los contenidos (publicaciones y/o datos) accesibles a través del Repositorio Nacional Digital de Ciencia, Tecnología e Innovación de Acceso Abierto (ALICIA).
La información contenida en este registro es de entera responsabilidad de la institución que gestiona el repositorio institucional donde esta contenido este documento o set de datos. El CONCYTEC no se hace responsable por los contenidos (publicaciones y/o datos) accesibles a través del Repositorio Nacional Digital de Ciencia, Tecnología e Innovación de Acceso Abierto (ALICIA).