Modelos neuronales de traducción automática para la lengua nativa aimara
Descripción del Articulo
Esta tesis presenta el desarrollo y la evaluación de modelos de traducción automática neuronal para la traducción del español a la lengua aimara, utilizando dos arquitecturas clave: Seq2Seq con atención y Transformers. El objetivo principal es explorar la aplicabilidad de estos modelos avanzados en...
| Autor: | |
|---|---|
| Formato: | tesis de maestría |
| Fecha de Publicación: | 2025 |
| Institución: | Universidad Nacional de San Agustín |
| Repositorio: | UNSA-Institucional |
| Lenguaje: | español |
| OAI Identifier: | oai:repositorio.unsa.edu.pe:20.500.12773/20396 |
| Enlace del recurso: | https://hdl.handle.net/20.500.12773/20396 |
| Nivel de acceso: | acceso abierto |
| Materia: | Traducción automática neuronal Seq2Seq Transformer Procesamiento de lenguaje natural https://purl.org/pe-repo/ocde/ford#1.02.01 |
| Sumario: | Esta tesis presenta el desarrollo y la evaluación de modelos de traducción automática neuronal para la traducción del español a la lengua aimara, utilizando dos arquitecturas clave: Seq2Seq con atención y Transformers. El objetivo principal es explorar la aplicabilidad de estos modelos avanzados en lenguas de bajo recurso, como el aimara, donde la disponibilidad de corpus paralelos es limitada. A través de la implementación y análisis de estas arquitecturas, se busca mejorar la calidad de las traducciones y promover el acceso de las comunidades nativas a información y servicios digitales en su lengua materna. El modelo Seq2Seq con atención permite al decodificador enfocarse dinámicamente en diferentes partes de la secuencia de entrada, mejorando la alineación entre las palabras de los idiomas de origen y destino. Por otro lado, el modelo Transformer, que elimina la recurrencia y utiliza exclusivamente mecanismos de auto-atención, demuestra una mayor eficiencia en el procesamiento paralelo y una capacidad superior para capturar dependencias a largo plazo en las secuencias de texto. Los resultados experimentales muestran que, aunque ambos modelos logran mejorar la traducción del español al aimara, el Transformer se destaca por su precisión y rapidez en el entrenamiento. La investigación destaca la importancia de desarrollar herramientas tecnológicas que faciliten la comunicación en lenguas nativas, ayudando a cerrar la brecha digital para las comunidades aimara-hablantes. Finalmente, se proponen recomendaciones para la mejora continua de estos modelos y se sientan las bases para futuras investigaciones en traducción automática de lenguas indígenas. |
|---|
Nota importante:
La información contenida en este registro es de entera responsabilidad de la institución que gestiona el repositorio institucional donde esta contenido este documento o set de datos. El CONCYTEC no se hace responsable por los contenidos (publicaciones y/o datos) accesibles a través del Repositorio Nacional Digital de Ciencia, Tecnología e Innovación de Acceso Abierto (ALICIA).
La información contenida en este registro es de entera responsabilidad de la institución que gestiona el repositorio institucional donde esta contenido este documento o set de datos. El CONCYTEC no se hace responsable por los contenidos (publicaciones y/o datos) accesibles a través del Repositorio Nacional Digital de Ciencia, Tecnología e Innovación de Acceso Abierto (ALICIA).