Detección de objetos y estimación de distancia usando proxémica y aprendizaje profundo para ayuda de personas con discapacidad visual

Descripción del Articulo

En 2020, en el mundo existían cerca de 2.2 billones de personas con discapacidad visual y en el Perú en el año 2021 existían cerca de 1.6 millones, de los cuales se estima que el predominio de la discapacidad visual en regiones de bajos y medianos ingresos económicos es 400 % mayor comparada con los...

Descripción completa

Detalles Bibliográficos
Autor: Ruiz Adarmes, Miguel Angel
Formato: tesis de maestría
Fecha de Publicación:2024
Institución:Universidad Nacional de Ingeniería
Repositorio:UNI-Tesis
Lenguaje:español
OAI Identifier:oai:cybertesis.uni.edu.pe:20.500.14076/28146
Enlace del recurso:http://hdl.handle.net/20.500.14076/28146
Nivel de acceso:acceso abierto
Materia:Personas con discapacidad visual
Deteccción de objetos
Estimación de distancia
Interacción proxémica
https://purl.org/pe-repo/ocde/ford#1.02.01
id UUNI_a1774b910c7363f3edb9fffa17b029f0
oai_identifier_str oai:cybertesis.uni.edu.pe:20.500.14076/28146
network_acronym_str UUNI
network_name_str UNI-Tesis
repository_id_str 1534
dc.title.es.fl_str_mv Detección de objetos y estimación de distancia usando proxémica y aprendizaje profundo para ayuda de personas con discapacidad visual
title Detección de objetos y estimación de distancia usando proxémica y aprendizaje profundo para ayuda de personas con discapacidad visual
spellingShingle Detección de objetos y estimación de distancia usando proxémica y aprendizaje profundo para ayuda de personas con discapacidad visual
Ruiz Adarmes, Miguel Angel
Personas con discapacidad visual
Deteccción de objetos
Estimación de distancia
Interacción proxémica
https://purl.org/pe-repo/ocde/ford#1.02.01
title_short Detección de objetos y estimación de distancia usando proxémica y aprendizaje profundo para ayuda de personas con discapacidad visual
title_full Detección de objetos y estimación de distancia usando proxémica y aprendizaje profundo para ayuda de personas con discapacidad visual
title_fullStr Detección de objetos y estimación de distancia usando proxémica y aprendizaje profundo para ayuda de personas con discapacidad visual
title_full_unstemmed Detección de objetos y estimación de distancia usando proxémica y aprendizaje profundo para ayuda de personas con discapacidad visual
title_sort Detección de objetos y estimación de distancia usando proxémica y aprendizaje profundo para ayuda de personas con discapacidad visual
dc.creator.none.fl_str_mv Ruiz Adarmes, Miguel Angel
author Ruiz Adarmes, Miguel Angel
author_facet Ruiz Adarmes, Miguel Angel
author_role author
dc.contributor.advisor.fl_str_mv Cardinale Villarreal, Yudith Coromoto
dc.contributor.author.fl_str_mv Ruiz Adarmes, Miguel Angel
dc.subject.es.fl_str_mv Personas con discapacidad visual
Deteccción de objetos
Estimación de distancia
Interacción proxémica
topic Personas con discapacidad visual
Deteccción de objetos
Estimación de distancia
Interacción proxémica
https://purl.org/pe-repo/ocde/ford#1.02.01
dc.subject.ocde.es.fl_str_mv https://purl.org/pe-repo/ocde/ford#1.02.01
description En 2020, en el mundo existían cerca de 2.2 billones de personas con discapacidad visual y en el Perú en el año 2021 existían cerca de 1.6 millones, de los cuales se estima que el predominio de la discapacidad visual en regiones de bajos y medianos ingresos económicos es 400 % mayor comparada con los valores registrados en las regiones con altos ingresos económicos. Dentro de estos grupos, el mayor porcentaje se encuentra conformado por personas mayores de 50 años. Es en este contexto que la tecnología y los últimos desarrollos de aplicaciones, que promueven la inclusión en el mundo digital de personas con discapacidad visual, han tomado gran importancia para mejorar la calidad de vida de estas personas, apoyando a los niños en su desarrollo motor, a las personas adultas de mediana edad en la mejora de sus capacidades de participación y productividad en el mundo económico y a las personas adultas mayores en la mejora de sus desplazamientos de forma independiente y en su integración social. Por otro lado, recientemente se ha incrementado el interés de los investigadores en emplear el Aprendizaje Automático para desarrollar aplicaciones capaces de aprender y ajustarse a necesidades específicas; en emplear los principios proxémicos para mejorar la Interacción Humano-Máquina (HCI por sus siglas en inglés de Human-Computer Interaction) para implementar aplicaciones que respondan de acuerdo a la distancia, identidad, localización, movimiento y orientación de los objetos y de las personas que interactúan con los dispositivos digitales. Sin embargo, aunque existen muchos esfuerzos recientes en el desarrollo de aplicaciones para personas con discapacidad visual, también se ha notado que aún hay mucho que investigar en el uso del Aprendizaje Automático y la interacción proxémica para crear soluciones inteligentes. Por lo que, con el objetivo de ayudar en el desarrollo y la independencia de las personas con discapacidad visual, en esta investigación se propone crear un procedimiento computacional que integre la detección de objetos usando el aprendizaje profundo, con estimación de la distancia, de los objetos previamente detectados, usando los principios y dimensiones de la proxémica para obtener información espacial de objetos obstáculos que se encuentran en una ruta seguida.
publishDate 2024
dc.date.accessioned.none.fl_str_mv 2025-06-05T00:00:20Z
dc.date.available.none.fl_str_mv 2025-06-05T00:00:20Z
dc.date.issued.fl_str_mv 2024
dc.type.es.fl_str_mv info:eu-repo/semantics/masterThesis
format masterThesis
dc.identifier.uri.none.fl_str_mv http://hdl.handle.net/20.500.14076/28146
url http://hdl.handle.net/20.500.14076/28146
dc.language.iso.es.fl_str_mv spa
language spa
dc.relation.ispartof.fl_str_mv SUNEDU
dc.rights.es.fl_str_mv info:eu-repo/semantics/openAccess
dc.rights.uri.es.fl_str_mv http://creativecommons.org/licenses/by-nc-nd/4.0/
eu_rights_str_mv openAccess
rights_invalid_str_mv http://creativecommons.org/licenses/by-nc-nd/4.0/
dc.format.es.fl_str_mv application/pdf
dc.publisher.es.fl_str_mv Universidad Nacional de Ingeniería
dc.publisher.country.es.fl_str_mv PE
dc.source.es.fl_str_mv Universidad Nacional de Ingeniería
Repositorio Institucional - UNI
dc.source.none.fl_str_mv reponame:UNI-Tesis
instname:Universidad Nacional de Ingeniería
instacron:UNI
instname_str Universidad Nacional de Ingeniería
instacron_str UNI
institution UNI
reponame_str UNI-Tesis
collection UNI-Tesis
bitstream.url.fl_str_mv http://cybertesis.uni.edu.pe/bitstream/20.500.14076/28146/6/ruiz_am.pdf.txt
http://cybertesis.uni.edu.pe/bitstream/20.500.14076/28146/7/ruiz_am%28acta%29.pdf.txt
http://cybertesis.uni.edu.pe/bitstream/20.500.14076/28146/8/informe_de_similitud.pdf.txt
http://cybertesis.uni.edu.pe/bitstream/20.500.14076/28146/9/carta_de_autorizaci%c3%b3n.pdf.txt
http://cybertesis.uni.edu.pe/bitstream/20.500.14076/28146/5/license.txt
http://cybertesis.uni.edu.pe/bitstream/20.500.14076/28146/1/ruiz_am.pdf
http://cybertesis.uni.edu.pe/bitstream/20.500.14076/28146/2/ruiz_am%28acta%29.pdf
http://cybertesis.uni.edu.pe/bitstream/20.500.14076/28146/3/informe_de_similitud.pdf
http://cybertesis.uni.edu.pe/bitstream/20.500.14076/28146/4/carta_de_autorizaci%c3%b3n.pdf
bitstream.checksum.fl_str_mv a0ed2ebf57000229eb2e4f1f062f1744
68b329da9893e34099c7d8ad5cb9c940
e1c06d85ae7b8b032bef47e42e4c08f9
68b329da9893e34099c7d8ad5cb9c940
8a4605be74aa9ea9d79846c1fba20a33
63624471e8eacaa2fc948db0bb196dd3
cf17c344457c9b80725c250090bc35e0
70721cb6cfafa5233a4f4930303e5b81
fc5106f6c3d8a5975dd272b8d0065667
bitstream.checksumAlgorithm.fl_str_mv MD5
MD5
MD5
MD5
MD5
MD5
MD5
MD5
MD5
repository.name.fl_str_mv Repositorio Institucional - UNI
repository.mail.fl_str_mv repositorio@uni.edu.pe
_version_ 1842622166720315392
spelling Cardinale Villarreal, Yudith CoromotoRuiz Adarmes, Miguel AngelRuiz Adarmes, Miguel Angel2025-06-05T00:00:20Z2025-06-05T00:00:20Z2024http://hdl.handle.net/20.500.14076/28146En 2020, en el mundo existían cerca de 2.2 billones de personas con discapacidad visual y en el Perú en el año 2021 existían cerca de 1.6 millones, de los cuales se estima que el predominio de la discapacidad visual en regiones de bajos y medianos ingresos económicos es 400 % mayor comparada con los valores registrados en las regiones con altos ingresos económicos. Dentro de estos grupos, el mayor porcentaje se encuentra conformado por personas mayores de 50 años. Es en este contexto que la tecnología y los últimos desarrollos de aplicaciones, que promueven la inclusión en el mundo digital de personas con discapacidad visual, han tomado gran importancia para mejorar la calidad de vida de estas personas, apoyando a los niños en su desarrollo motor, a las personas adultas de mediana edad en la mejora de sus capacidades de participación y productividad en el mundo económico y a las personas adultas mayores en la mejora de sus desplazamientos de forma independiente y en su integración social. Por otro lado, recientemente se ha incrementado el interés de los investigadores en emplear el Aprendizaje Automático para desarrollar aplicaciones capaces de aprender y ajustarse a necesidades específicas; en emplear los principios proxémicos para mejorar la Interacción Humano-Máquina (HCI por sus siglas en inglés de Human-Computer Interaction) para implementar aplicaciones que respondan de acuerdo a la distancia, identidad, localización, movimiento y orientación de los objetos y de las personas que interactúan con los dispositivos digitales. Sin embargo, aunque existen muchos esfuerzos recientes en el desarrollo de aplicaciones para personas con discapacidad visual, también se ha notado que aún hay mucho que investigar en el uso del Aprendizaje Automático y la interacción proxémica para crear soluciones inteligentes. Por lo que, con el objetivo de ayudar en el desarrollo y la independencia de las personas con discapacidad visual, en esta investigación se propone crear un procedimiento computacional que integre la detección de objetos usando el aprendizaje profundo, con estimación de la distancia, de los objetos previamente detectados, usando los principios y dimensiones de la proxémica para obtener información espacial de objetos obstáculos que se encuentran en una ruta seguida.In 2020, there were about 2.2 billion people with visual disabilities in the world and in Peru in 2021 there were about 1.6 million, of which it is estimated that the prevalence of visual disability in low and middle income regions It is 400 % higher compared to the values recorded in regions with high economic income. Within these groups, the highest percentage is made up of people over 50 years of age. It is in this context that technology and the latest application developments, which promote the inclusion of people with visual disabilities in the digital world, have taken on great importance to improve the quality of life of these people, supporting children in their motor development, middle-aged adults in improving their participation and productivity capacities in the economic world, and older adults in improving their independent displacements and social integration. On the other hand, researchers’ interest in using Machine Learning to develop applications capable of learning and adjusting to specific needs has recently increased; in using proxemic principles to improve Human-Machine Interaction (HCI) to implement applications that respond according to the distance, identity, location, movement and orientation of objects and people that interact with digital devices. However, although there are many recent efforts in developing applications for the visually impaired, it has also been noted that there is still much to research in the use of Machine Learning and proxemic interaction to create intelligent solutions. Therefore, with the aim of helping in the development and independence of people with visual disabilities, this research proposes to create a computational procedure that integrates object detection using deep learning, with distance estimation, of previously detected objects, using the principles and dimensions of proxemics to obtain spatial information about objects and obstacles that are on a followed route.Submitted by Quispe Rabanal Flavio (flaviofime@hotmail.com) on 2025-06-05T00:00:20Z No. of bitstreams: 4 ruiz_am.pdf: 7735353 bytes, checksum: 63624471e8eacaa2fc948db0bb196dd3 (MD5) ruiz_am(acta).pdf: 803227 bytes, checksum: cf17c344457c9b80725c250090bc35e0 (MD5) informe_de_similitud.pdf: 1294727 bytes, checksum: 70721cb6cfafa5233a4f4930303e5b81 (MD5) carta_de_autorización.pdf: 611123 bytes, checksum: fc5106f6c3d8a5975dd272b8d0065667 (MD5)Made available in DSpace on 2025-06-05T00:00:20Z (GMT). No. of bitstreams: 4 ruiz_am.pdf: 7735353 bytes, checksum: 63624471e8eacaa2fc948db0bb196dd3 (MD5) ruiz_am(acta).pdf: 803227 bytes, checksum: cf17c344457c9b80725c250090bc35e0 (MD5) informe_de_similitud.pdf: 1294727 bytes, checksum: 70721cb6cfafa5233a4f4930303e5b81 (MD5) carta_de_autorización.pdf: 611123 bytes, checksum: fc5106f6c3d8a5975dd272b8d0065667 (MD5) Previous issue date: 2024Tesisapplication/pdfspaUniversidad Nacional de IngenieríaPEinfo:eu-repo/semantics/openAccesshttp://creativecommons.org/licenses/by-nc-nd/4.0/Universidad Nacional de IngenieríaRepositorio Institucional - UNIreponame:UNI-Tesisinstname:Universidad Nacional de Ingenieríainstacron:UNIPersonas con discapacidad visualDeteccción de objetosEstimación de distanciaInteracción proxémicahttps://purl.org/pe-repo/ocde/ford#1.02.01Detección de objetos y estimación de distancia usando proxémica y aprendizaje profundo para ayuda de personas con discapacidad visualinfo:eu-repo/semantics/masterThesisSUNEDUMaestro en Ciencias en Ciencia de la Computación con Mención en Especialidad Computación CientíficaUniversidad Nacional de Ingeniería. Facultad de Ciencias. Unidad de PosgradoMaestríaMaestría en Ciencias en Ciencia de la Computación con Mención en Especialidad Computación CientíficaMaestría09156149https://purl.org/pe-repo/renati/type#tesishttps://purl.org/pe-repo/renati/level#maestro611047Solano Salinas, Carlos JavierOchoa Jiménez, RosendoCuadros Vargas, ErnestoRosales Huamaní, Jimmy Aurelio165228833TEXTruiz_am.pdf.txtruiz_am.pdf.txtExtracted texttext/plain180291http://cybertesis.uni.edu.pe/bitstream/20.500.14076/28146/6/ruiz_am.pdf.txta0ed2ebf57000229eb2e4f1f062f1744MD56ruiz_am(acta).pdf.txtruiz_am(acta).pdf.txtExtracted texttext/plain1http://cybertesis.uni.edu.pe/bitstream/20.500.14076/28146/7/ruiz_am%28acta%29.pdf.txt68b329da9893e34099c7d8ad5cb9c940MD57informe_de_similitud.pdf.txtinforme_de_similitud.pdf.txtExtracted texttext/plain2http://cybertesis.uni.edu.pe/bitstream/20.500.14076/28146/8/informe_de_similitud.pdf.txte1c06d85ae7b8b032bef47e42e4c08f9MD58carta_de_autorización.pdf.txtcarta_de_autorización.pdf.txtExtracted texttext/plain1http://cybertesis.uni.edu.pe/bitstream/20.500.14076/28146/9/carta_de_autorizaci%c3%b3n.pdf.txt68b329da9893e34099c7d8ad5cb9c940MD59LICENSElicense.txtlicense.txttext/plain; charset=utf-81748http://cybertesis.uni.edu.pe/bitstream/20.500.14076/28146/5/license.txt8a4605be74aa9ea9d79846c1fba20a33MD55ORIGINALruiz_am.pdfruiz_am.pdfapplication/pdf7735353http://cybertesis.uni.edu.pe/bitstream/20.500.14076/28146/1/ruiz_am.pdf63624471e8eacaa2fc948db0bb196dd3MD51ruiz_am(acta).pdfruiz_am(acta).pdfapplication/pdf803227http://cybertesis.uni.edu.pe/bitstream/20.500.14076/28146/2/ruiz_am%28acta%29.pdfcf17c344457c9b80725c250090bc35e0MD52informe_de_similitud.pdfinforme_de_similitud.pdfapplication/pdf1294727http://cybertesis.uni.edu.pe/bitstream/20.500.14076/28146/3/informe_de_similitud.pdf70721cb6cfafa5233a4f4930303e5b81MD53carta_de_autorización.pdfcarta_de_autorización.pdfapplication/pdf611123http://cybertesis.uni.edu.pe/bitstream/20.500.14076/28146/4/carta_de_autorizaci%c3%b3n.pdffc5106f6c3d8a5975dd272b8d0065667MD5420.500.14076/28146oai:cybertesis.uni.edu.pe:20.500.14076/281462025-08-26 19:36:31.422Repositorio Institucional - UNIrepositorio@uni.edu.peTk9URTogUExBQ0UgWU9VUiBPV04gTElDRU5TRSBIRVJFClRoaXMgc2FtcGxlIGxpY2Vuc2UgaXMgcHJvdmlkZWQgZm9yIGluZm9ybWF0aW9uYWwgcHVycG9zZXMgb25seS4KCk5PTi1FWENMVVNJVkUgRElTVFJJQlVUSU9OIExJQ0VOU0UKCkJ5IHNpZ25pbmcgYW5kIHN1Ym1pdHRpbmcgdGhpcyBsaWNlbnNlLCB5b3UgKHRoZSBhdXRob3Iocykgb3IgY29weXJpZ2h0Cm93bmVyKSBncmFudHMgdG8gRFNwYWNlIFVuaXZlcnNpdHkgKERTVSkgdGhlIG5vbi1leGNsdXNpdmUgcmlnaHQgdG8gcmVwcm9kdWNlLAp0cmFuc2xhdGUgKGFzIGRlZmluZWQgYmVsb3cpLCBhbmQvb3IgZGlzdHJpYnV0ZSB5b3VyIHN1Ym1pc3Npb24gKGluY2x1ZGluZwp0aGUgYWJzdHJhY3QpIHdvcmxkd2lkZSBpbiBwcmludCBhbmQgZWxlY3Ryb25pYyBmb3JtYXQgYW5kIGluIGFueSBtZWRpdW0sCmluY2x1ZGluZyBidXQgbm90IGxpbWl0ZWQgdG8gYXVkaW8gb3IgdmlkZW8uCgpZb3UgYWdyZWUgdGhhdCBEU1UgbWF5LCB3aXRob3V0IGNoYW5naW5nIHRoZSBjb250ZW50LCB0cmFuc2xhdGUgdGhlCnN1Ym1pc3Npb24gdG8gYW55IG1lZGl1bSBvciBmb3JtYXQgZm9yIHRoZSBwdXJwb3NlIG9mIHByZXNlcnZhdGlvbi4KCllvdSBhbHNvIGFncmVlIHRoYXQgRFNVIG1heSBrZWVwIG1vcmUgdGhhbiBvbmUgY29weSBvZiB0aGlzIHN1Ym1pc3Npb24gZm9yCnB1cnBvc2VzIG9mIHNlY3VyaXR5LCBiYWNrLXVwIGFuZCBwcmVzZXJ2YXRpb24uCgpZb3UgcmVwcmVzZW50IHRoYXQgdGhlIHN1Ym1pc3Npb24gaXMgeW91ciBvcmlnaW5hbCB3b3JrLCBhbmQgdGhhdCB5b3UgaGF2ZQp0aGUgcmlnaHQgdG8gZ3JhbnQgdGhlIHJpZ2h0cyBjb250YWluZWQgaW4gdGhpcyBsaWNlbnNlLiBZb3UgYWxzbyByZXByZXNlbnQKdGhhdCB5b3VyIHN1Ym1pc3Npb24gZG9lcyBub3QsIHRvIHRoZSBiZXN0IG9mIHlvdXIga25vd2xlZGdlLCBpbmZyaW5nZSB1cG9uCmFueW9uZSdzIGNvcHlyaWdodC4KCklmIHRoZSBzdWJtaXNzaW9uIGNvbnRhaW5zIG1hdGVyaWFsIGZvciB3aGljaCB5b3UgZG8gbm90IGhvbGQgY29weXJpZ2h0LAp5b3UgcmVwcmVzZW50IHRoYXQgeW91IGhhdmUgb2J0YWluZWQgdGhlIHVucmVzdHJpY3RlZCBwZXJtaXNzaW9uIG9mIHRoZQpjb3B5cmlnaHQgb3duZXIgdG8gZ3JhbnQgRFNVIHRoZSByaWdodHMgcmVxdWlyZWQgYnkgdGhpcyBsaWNlbnNlLCBhbmQgdGhhdApzdWNoIHRoaXJkLXBhcnR5IG93bmVkIG1hdGVyaWFsIGlzIGNsZWFybHkgaWRlbnRpZmllZCBhbmQgYWNrbm93bGVkZ2VkCndpdGhpbiB0aGUgdGV4dCBvciBjb250ZW50IG9mIHRoZSBzdWJtaXNzaW9uLgoKSUYgVEhFIFNVQk1JU1NJT04gSVMgQkFTRUQgVVBPTiBXT1JLIFRIQVQgSEFTIEJFRU4gU1BPTlNPUkVEIE9SIFNVUFBPUlRFRApCWSBBTiBBR0VOQ1kgT1IgT1JHQU5JWkFUSU9OIE9USEVSIFRIQU4gRFNVLCBZT1UgUkVQUkVTRU5UIFRIQVQgWU9VIEhBVkUKRlVMRklMTEVEIEFOWSBSSUdIVCBPRiBSRVZJRVcgT1IgT1RIRVIgT0JMSUdBVElPTlMgUkVRVUlSRUQgQlkgU1VDSApDT05UUkFDVCBPUiBBR1JFRU1FTlQuCgpEU1Ugd2lsbCBjbGVhcmx5IGlkZW50aWZ5IHlvdXIgbmFtZShzKSBhcyB0aGUgYXV0aG9yKHMpIG9yIG93bmVyKHMpIG9mIHRoZQpzdWJtaXNzaW9uLCBhbmQgd2lsbCBub3QgbWFrZSBhbnkgYWx0ZXJhdGlvbiwgb3RoZXIgdGhhbiBhcyBhbGxvd2VkIGJ5IHRoaXMKbGljZW5zZSwgdG8geW91ciBzdWJtaXNzaW9uLgo=
score 13.9378
Nota importante:
La información contenida en este registro es de entera responsabilidad de la institución que gestiona el repositorio institucional donde esta contenido este documento o set de datos. El CONCYTEC no se hace responsable por los contenidos (publicaciones y/o datos) accesibles a través del Repositorio Nacional Digital de Ciencia, Tecnología e Innovación de Acceso Abierto (ALICIA).