Modelos neuronales de traducción automática para la lengua nativa aimara
Descripción del Articulo
Esta tesis presenta el desarrollo y la evaluación de modelos de traducción automática neuronal para la traducción del español a la lengua aimara, utilizando dos arquitecturas clave: Seq2Seq con atención y Transformers. El objetivo principal es explorar la aplicabilidad de estos modelos avanzados en...
| Autor: | |
|---|---|
| Formato: | tesis de maestría |
| Fecha de Publicación: | 2025 |
| Institución: | Universidad Nacional de San Agustín |
| Repositorio: | UNSA-Institucional |
| Lenguaje: | español |
| OAI Identifier: | oai:repositorio.unsa.edu.pe:20.500.12773/20396 |
| Enlace del recurso: | https://hdl.handle.net/20.500.12773/20396 |
| Nivel de acceso: | acceso abierto |
| Materia: | Traducción automática neuronal Seq2Seq Transformer Procesamiento de lenguaje natural https://purl.org/pe-repo/ocde/ford#1.02.01 |
| id |
UNSA_120564ebbeb23a8349831c20f4a6864d |
|---|---|
| oai_identifier_str |
oai:repositorio.unsa.edu.pe:20.500.12773/20396 |
| network_acronym_str |
UNSA |
| network_name_str |
UNSA-Institucional |
| repository_id_str |
4847 |
| spelling |
Gutierrez Caceres, Juan CarlosApaza Alanoca, Honorio2025-07-04T20:25:30Z2025-07-04T20:25:30Z2025Esta tesis presenta el desarrollo y la evaluación de modelos de traducción automática neuronal para la traducción del español a la lengua aimara, utilizando dos arquitecturas clave: Seq2Seq con atención y Transformers. El objetivo principal es explorar la aplicabilidad de estos modelos avanzados en lenguas de bajo recurso, como el aimara, donde la disponibilidad de corpus paralelos es limitada. A través de la implementación y análisis de estas arquitecturas, se busca mejorar la calidad de las traducciones y promover el acceso de las comunidades nativas a información y servicios digitales en su lengua materna. El modelo Seq2Seq con atención permite al decodificador enfocarse dinámicamente en diferentes partes de la secuencia de entrada, mejorando la alineación entre las palabras de los idiomas de origen y destino. Por otro lado, el modelo Transformer, que elimina la recurrencia y utiliza exclusivamente mecanismos de auto-atención, demuestra una mayor eficiencia en el procesamiento paralelo y una capacidad superior para capturar dependencias a largo plazo en las secuencias de texto. Los resultados experimentales muestran que, aunque ambos modelos logran mejorar la traducción del español al aimara, el Transformer se destaca por su precisión y rapidez en el entrenamiento. La investigación destaca la importancia de desarrollar herramientas tecnológicas que faciliten la comunicación en lenguas nativas, ayudando a cerrar la brecha digital para las comunidades aimara-hablantes. Finalmente, se proponen recomendaciones para la mejora continua de estos modelos y se sientan las bases para futuras investigaciones en traducción automática de lenguas indígenas.application/pdfhttps://hdl.handle.net/20.500.12773/20396spaUniversidad Nacional de San Agustín de ArequipaPEinfo:eu-repo/semantics/openAccesshttp://creativecommons.org/licenses/by-nc-nd/4.0/Universidad Nacional de San Agustín de ArequipaRepositorio Institucional - UNSAreponame:UNSA-Institucionalinstname:Universidad Nacional de San Agustíninstacron:UNSATraducción automática neuronalSeq2SeqTransformerProcesamiento de lenguaje naturalhttps://purl.org/pe-repo/ocde/ford#1.02.01Modelos neuronales de traducción automática para la lengua nativa aimarainfo:eu-repo/semantics/masterThesisSUNEDU30677357https://orcid.org/0000-0001-6379-869570490843611017Hinojosa Cardenas, EdwardCardenas Talavera, Rolando JesusGutierrez Caceres, Juan Carloshttps://purl.org/pe-repo/renati/level#maestrohttps://purl.org/pe-repo/renati/type#tesisMaestría en Ciencias de la ComputaciónUniversidad Nacional de San Agustín de Arequipa.Unidad de Posgrado.Facultad de Ingeniería de Producción y ServiciosMaestro en Ciencias de la ComputaciónORIGINALTesis.pdfapplication/pdf4025363https://repositorio.unsa.edu.pe/bitstreams/280e0a45-a244-4e64-ad20-428f69898281/downloadcb0dfbc009ae4d88a4124318278bfa6dMD51Reporte de Similitud.pdfapplication/pdf6172033https://repositorio.unsa.edu.pe/bitstreams/46ab3598-61e9-4a8f-8393-7fe72189bc44/downloada6748c981d9abdd2a6d6fe72f01c87b6MD52Autorización de Publicación Digital.pdfapplication/pdf380851https://repositorio.unsa.edu.pe/bitstreams/2bd61ef5-db57-4599-95be-8a0662c33e00/downloadc1ee810b91964fdee43e6a909ecc75f5MD5320.500.12773/20396oai:repositorio.unsa.edu.pe:20.500.12773/203962025-07-15 15:16:10.409http://creativecommons.org/licenses/by-nc-nd/4.0/info:eu-repo/semantics/openAccesshttps://repositorio.unsa.edu.peRepositorio Institucional UNSAvridi.gestioninformacion@unsa.edu.pe |
| dc.title.es_PE.fl_str_mv |
Modelos neuronales de traducción automática para la lengua nativa aimara |
| title |
Modelos neuronales de traducción automática para la lengua nativa aimara |
| spellingShingle |
Modelos neuronales de traducción automática para la lengua nativa aimara Apaza Alanoca, Honorio Traducción automática neuronal Seq2Seq Transformer Procesamiento de lenguaje natural https://purl.org/pe-repo/ocde/ford#1.02.01 |
| title_short |
Modelos neuronales de traducción automática para la lengua nativa aimara |
| title_full |
Modelos neuronales de traducción automática para la lengua nativa aimara |
| title_fullStr |
Modelos neuronales de traducción automática para la lengua nativa aimara |
| title_full_unstemmed |
Modelos neuronales de traducción automática para la lengua nativa aimara |
| title_sort |
Modelos neuronales de traducción automática para la lengua nativa aimara |
| author |
Apaza Alanoca, Honorio |
| author_facet |
Apaza Alanoca, Honorio |
| author_role |
author |
| dc.contributor.advisor.fl_str_mv |
Gutierrez Caceres, Juan Carlos |
| dc.contributor.author.fl_str_mv |
Apaza Alanoca, Honorio |
| dc.subject.es_PE.fl_str_mv |
Traducción automática neuronal Seq2Seq Transformer Procesamiento de lenguaje natural |
| topic |
Traducción automática neuronal Seq2Seq Transformer Procesamiento de lenguaje natural https://purl.org/pe-repo/ocde/ford#1.02.01 |
| dc.subject.ocde.es_PE.fl_str_mv |
https://purl.org/pe-repo/ocde/ford#1.02.01 |
| description |
Esta tesis presenta el desarrollo y la evaluación de modelos de traducción automática neuronal para la traducción del español a la lengua aimara, utilizando dos arquitecturas clave: Seq2Seq con atención y Transformers. El objetivo principal es explorar la aplicabilidad de estos modelos avanzados en lenguas de bajo recurso, como el aimara, donde la disponibilidad de corpus paralelos es limitada. A través de la implementación y análisis de estas arquitecturas, se busca mejorar la calidad de las traducciones y promover el acceso de las comunidades nativas a información y servicios digitales en su lengua materna. El modelo Seq2Seq con atención permite al decodificador enfocarse dinámicamente en diferentes partes de la secuencia de entrada, mejorando la alineación entre las palabras de los idiomas de origen y destino. Por otro lado, el modelo Transformer, que elimina la recurrencia y utiliza exclusivamente mecanismos de auto-atención, demuestra una mayor eficiencia en el procesamiento paralelo y una capacidad superior para capturar dependencias a largo plazo en las secuencias de texto. Los resultados experimentales muestran que, aunque ambos modelos logran mejorar la traducción del español al aimara, el Transformer se destaca por su precisión y rapidez en el entrenamiento. La investigación destaca la importancia de desarrollar herramientas tecnológicas que faciliten la comunicación en lenguas nativas, ayudando a cerrar la brecha digital para las comunidades aimara-hablantes. Finalmente, se proponen recomendaciones para la mejora continua de estos modelos y se sientan las bases para futuras investigaciones en traducción automática de lenguas indígenas. |
| publishDate |
2025 |
| dc.date.accessioned.none.fl_str_mv |
2025-07-04T20:25:30Z |
| dc.date.available.none.fl_str_mv |
2025-07-04T20:25:30Z |
| dc.date.issued.fl_str_mv |
2025 |
| dc.type.es_PE.fl_str_mv |
info:eu-repo/semantics/masterThesis |
| format |
masterThesis |
| dc.identifier.uri.es_PE.fl_str_mv |
https://hdl.handle.net/20.500.12773/20396 |
| url |
https://hdl.handle.net/20.500.12773/20396 |
| dc.language.iso.es_PE.fl_str_mv |
spa |
| language |
spa |
| dc.relation.ispartof.fl_str_mv |
SUNEDU |
| dc.rights.es_PE.fl_str_mv |
info:eu-repo/semantics/openAccess |
| dc.rights.uri.es_PE.fl_str_mv |
http://creativecommons.org/licenses/by-nc-nd/4.0/ |
| eu_rights_str_mv |
openAccess |
| rights_invalid_str_mv |
http://creativecommons.org/licenses/by-nc-nd/4.0/ |
| dc.format.es_PE.fl_str_mv |
application/pdf |
| dc.publisher.es_PE.fl_str_mv |
Universidad Nacional de San Agustín de Arequipa |
| dc.publisher.country.es_PE.fl_str_mv |
PE |
| dc.source.es_PE.fl_str_mv |
Universidad Nacional de San Agustín de Arequipa Repositorio Institucional - UNSA |
| dc.source.none.fl_str_mv |
reponame:UNSA-Institucional instname:Universidad Nacional de San Agustín instacron:UNSA |
| instname_str |
Universidad Nacional de San Agustín |
| instacron_str |
UNSA |
| institution |
UNSA |
| reponame_str |
UNSA-Institucional |
| collection |
UNSA-Institucional |
| bitstream.url.fl_str_mv |
https://repositorio.unsa.edu.pe/bitstreams/280e0a45-a244-4e64-ad20-428f69898281/download https://repositorio.unsa.edu.pe/bitstreams/46ab3598-61e9-4a8f-8393-7fe72189bc44/download https://repositorio.unsa.edu.pe/bitstreams/2bd61ef5-db57-4599-95be-8a0662c33e00/download |
| bitstream.checksum.fl_str_mv |
cb0dfbc009ae4d88a4124318278bfa6d a6748c981d9abdd2a6d6fe72f01c87b6 c1ee810b91964fdee43e6a909ecc75f5 |
| bitstream.checksumAlgorithm.fl_str_mv |
MD5 MD5 MD5 |
| repository.name.fl_str_mv |
Repositorio Institucional UNSA |
| repository.mail.fl_str_mv |
vridi.gestioninformacion@unsa.edu.pe |
| _version_ |
1850325256163557376 |
| score |
13.890096 |
Nota importante:
La información contenida en este registro es de entera responsabilidad de la institución que gestiona el repositorio institucional donde esta contenido este documento o set de datos. El CONCYTEC no se hace responsable por los contenidos (publicaciones y/o datos) accesibles a través del Repositorio Nacional Digital de Ciencia, Tecnología e Innovación de Acceso Abierto (ALICIA).
La información contenida en este registro es de entera responsabilidad de la institución que gestiona el repositorio institucional donde esta contenido este documento o set de datos. El CONCYTEC no se hace responsable por los contenidos (publicaciones y/o datos) accesibles a través del Repositorio Nacional Digital de Ciencia, Tecnología e Innovación de Acceso Abierto (ALICIA).