Modelos neuronales de traducción automática para la lengua nativa aimara

Descripción del Articulo

Esta tesis presenta el desarrollo y la evaluación de modelos de traducción automática neuronal para la traducción del español a la lengua aimara, utilizando dos arquitecturas clave: Seq2Seq con atención y Transformers. El objetivo principal es explorar la aplicabilidad de estos modelos avanzados en...

Descripción completa

Detalles Bibliográficos
Autor: Apaza Alanoca, Honorio
Formato: tesis de maestría
Fecha de Publicación:2025
Institución:Universidad Nacional de San Agustín
Repositorio:UNSA-Institucional
Lenguaje:español
OAI Identifier:oai:repositorio.unsa.edu.pe:20.500.12773/20396
Enlace del recurso:https://hdl.handle.net/20.500.12773/20396
Nivel de acceso:acceso abierto
Materia:Traducción automática neuronal
Seq2Seq
Transformer
Procesamiento de lenguaje natural
https://purl.org/pe-repo/ocde/ford#1.02.01
id UNSA_120564ebbeb23a8349831c20f4a6864d
oai_identifier_str oai:repositorio.unsa.edu.pe:20.500.12773/20396
network_acronym_str UNSA
network_name_str UNSA-Institucional
repository_id_str 4847
spelling Gutierrez Caceres, Juan CarlosApaza Alanoca, Honorio2025-07-04T20:25:30Z2025-07-04T20:25:30Z2025Esta tesis presenta el desarrollo y la evaluación de modelos de traducción automática neuronal para la traducción del español a la lengua aimara, utilizando dos arquitecturas clave: Seq2Seq con atención y Transformers. El objetivo principal es explorar la aplicabilidad de estos modelos avanzados en lenguas de bajo recurso, como el aimara, donde la disponibilidad de corpus paralelos es limitada. A través de la implementación y análisis de estas arquitecturas, se busca mejorar la calidad de las traducciones y promover el acceso de las comunidades nativas a información y servicios digitales en su lengua materna. El modelo Seq2Seq con atención permite al decodificador enfocarse dinámicamente en diferentes partes de la secuencia de entrada, mejorando la alineación entre las palabras de los idiomas de origen y destino. Por otro lado, el modelo Transformer, que elimina la recurrencia y utiliza exclusivamente mecanismos de auto-atención, demuestra una mayor eficiencia en el procesamiento paralelo y una capacidad superior para capturar dependencias a largo plazo en las secuencias de texto. Los resultados experimentales muestran que, aunque ambos modelos logran mejorar la traducción del español al aimara, el Transformer se destaca por su precisión y rapidez en el entrenamiento. La investigación destaca la importancia de desarrollar herramientas tecnológicas que faciliten la comunicación en lenguas nativas, ayudando a cerrar la brecha digital para las comunidades aimara-hablantes. Finalmente, se proponen recomendaciones para la mejora continua de estos modelos y se sientan las bases para futuras investigaciones en traducción automática de lenguas indígenas.application/pdfhttps://hdl.handle.net/20.500.12773/20396spaUniversidad Nacional de San Agustín de ArequipaPEinfo:eu-repo/semantics/openAccesshttp://creativecommons.org/licenses/by-nc-nd/4.0/Universidad Nacional de San Agustín de ArequipaRepositorio Institucional - UNSAreponame:UNSA-Institucionalinstname:Universidad Nacional de San Agustíninstacron:UNSATraducción automática neuronalSeq2SeqTransformerProcesamiento de lenguaje naturalhttps://purl.org/pe-repo/ocde/ford#1.02.01Modelos neuronales de traducción automática para la lengua nativa aimarainfo:eu-repo/semantics/masterThesisSUNEDU30677357https://orcid.org/0000-0001-6379-869570490843611017Hinojosa Cardenas, EdwardCardenas Talavera, Rolando JesusGutierrez Caceres, Juan Carloshttps://purl.org/pe-repo/renati/level#maestrohttps://purl.org/pe-repo/renati/type#tesisMaestría en Ciencias de la ComputaciónUniversidad Nacional de San Agustín de Arequipa.Unidad de Posgrado.Facultad de Ingeniería de Producción y ServiciosMaestro en Ciencias de la ComputaciónORIGINALTesis.pdfapplication/pdf4025363https://repositorio.unsa.edu.pe/bitstreams/280e0a45-a244-4e64-ad20-428f69898281/downloadcb0dfbc009ae4d88a4124318278bfa6dMD51Reporte de Similitud.pdfapplication/pdf6172033https://repositorio.unsa.edu.pe/bitstreams/46ab3598-61e9-4a8f-8393-7fe72189bc44/downloada6748c981d9abdd2a6d6fe72f01c87b6MD52Autorización de Publicación Digital.pdfapplication/pdf380851https://repositorio.unsa.edu.pe/bitstreams/2bd61ef5-db57-4599-95be-8a0662c33e00/downloadc1ee810b91964fdee43e6a909ecc75f5MD5320.500.12773/20396oai:repositorio.unsa.edu.pe:20.500.12773/203962025-07-15 15:16:10.409http://creativecommons.org/licenses/by-nc-nd/4.0/info:eu-repo/semantics/openAccesshttps://repositorio.unsa.edu.peRepositorio Institucional UNSAvridi.gestioninformacion@unsa.edu.pe
dc.title.es_PE.fl_str_mv Modelos neuronales de traducción automática para la lengua nativa aimara
title Modelos neuronales de traducción automática para la lengua nativa aimara
spellingShingle Modelos neuronales de traducción automática para la lengua nativa aimara
Apaza Alanoca, Honorio
Traducción automática neuronal
Seq2Seq
Transformer
Procesamiento de lenguaje natural
https://purl.org/pe-repo/ocde/ford#1.02.01
title_short Modelos neuronales de traducción automática para la lengua nativa aimara
title_full Modelos neuronales de traducción automática para la lengua nativa aimara
title_fullStr Modelos neuronales de traducción automática para la lengua nativa aimara
title_full_unstemmed Modelos neuronales de traducción automática para la lengua nativa aimara
title_sort Modelos neuronales de traducción automática para la lengua nativa aimara
author Apaza Alanoca, Honorio
author_facet Apaza Alanoca, Honorio
author_role author
dc.contributor.advisor.fl_str_mv Gutierrez Caceres, Juan Carlos
dc.contributor.author.fl_str_mv Apaza Alanoca, Honorio
dc.subject.es_PE.fl_str_mv Traducción automática neuronal
Seq2Seq
Transformer
Procesamiento de lenguaje natural
topic Traducción automática neuronal
Seq2Seq
Transformer
Procesamiento de lenguaje natural
https://purl.org/pe-repo/ocde/ford#1.02.01
dc.subject.ocde.es_PE.fl_str_mv https://purl.org/pe-repo/ocde/ford#1.02.01
description Esta tesis presenta el desarrollo y la evaluación de modelos de traducción automática neuronal para la traducción del español a la lengua aimara, utilizando dos arquitecturas clave: Seq2Seq con atención y Transformers. El objetivo principal es explorar la aplicabilidad de estos modelos avanzados en lenguas de bajo recurso, como el aimara, donde la disponibilidad de corpus paralelos es limitada. A través de la implementación y análisis de estas arquitecturas, se busca mejorar la calidad de las traducciones y promover el acceso de las comunidades nativas a información y servicios digitales en su lengua materna. El modelo Seq2Seq con atención permite al decodificador enfocarse dinámicamente en diferentes partes de la secuencia de entrada, mejorando la alineación entre las palabras de los idiomas de origen y destino. Por otro lado, el modelo Transformer, que elimina la recurrencia y utiliza exclusivamente mecanismos de auto-atención, demuestra una mayor eficiencia en el procesamiento paralelo y una capacidad superior para capturar dependencias a largo plazo en las secuencias de texto. Los resultados experimentales muestran que, aunque ambos modelos logran mejorar la traducción del español al aimara, el Transformer se destaca por su precisión y rapidez en el entrenamiento. La investigación destaca la importancia de desarrollar herramientas tecnológicas que faciliten la comunicación en lenguas nativas, ayudando a cerrar la brecha digital para las comunidades aimara-hablantes. Finalmente, se proponen recomendaciones para la mejora continua de estos modelos y se sientan las bases para futuras investigaciones en traducción automática de lenguas indígenas.
publishDate 2025
dc.date.accessioned.none.fl_str_mv 2025-07-04T20:25:30Z
dc.date.available.none.fl_str_mv 2025-07-04T20:25:30Z
dc.date.issued.fl_str_mv 2025
dc.type.es_PE.fl_str_mv info:eu-repo/semantics/masterThesis
format masterThesis
dc.identifier.uri.es_PE.fl_str_mv https://hdl.handle.net/20.500.12773/20396
url https://hdl.handle.net/20.500.12773/20396
dc.language.iso.es_PE.fl_str_mv spa
language spa
dc.relation.ispartof.fl_str_mv SUNEDU
dc.rights.es_PE.fl_str_mv info:eu-repo/semantics/openAccess
dc.rights.uri.es_PE.fl_str_mv http://creativecommons.org/licenses/by-nc-nd/4.0/
eu_rights_str_mv openAccess
rights_invalid_str_mv http://creativecommons.org/licenses/by-nc-nd/4.0/
dc.format.es_PE.fl_str_mv application/pdf
dc.publisher.es_PE.fl_str_mv Universidad Nacional de San Agustín de Arequipa
dc.publisher.country.es_PE.fl_str_mv PE
dc.source.es_PE.fl_str_mv Universidad Nacional de San Agustín de Arequipa
Repositorio Institucional - UNSA
dc.source.none.fl_str_mv reponame:UNSA-Institucional
instname:Universidad Nacional de San Agustín
instacron:UNSA
instname_str Universidad Nacional de San Agustín
instacron_str UNSA
institution UNSA
reponame_str UNSA-Institucional
collection UNSA-Institucional
bitstream.url.fl_str_mv https://repositorio.unsa.edu.pe/bitstreams/280e0a45-a244-4e64-ad20-428f69898281/download
https://repositorio.unsa.edu.pe/bitstreams/46ab3598-61e9-4a8f-8393-7fe72189bc44/download
https://repositorio.unsa.edu.pe/bitstreams/2bd61ef5-db57-4599-95be-8a0662c33e00/download
bitstream.checksum.fl_str_mv cb0dfbc009ae4d88a4124318278bfa6d
a6748c981d9abdd2a6d6fe72f01c87b6
c1ee810b91964fdee43e6a909ecc75f5
bitstream.checksumAlgorithm.fl_str_mv MD5
MD5
MD5
repository.name.fl_str_mv Repositorio Institucional UNSA
repository.mail.fl_str_mv vridi.gestioninformacion@unsa.edu.pe
_version_ 1850325256163557376
score 13.890096
Nota importante:
La información contenida en este registro es de entera responsabilidad de la institución que gestiona el repositorio institucional donde esta contenido este documento o set de datos. El CONCYTEC no se hace responsable por los contenidos (publicaciones y/o datos) accesibles a través del Repositorio Nacional Digital de Ciencia, Tecnología e Innovación de Acceso Abierto (ALICIA).