Chatbot generativo en el idioma español utilizando la arquitectura de red neuronal Transformer
Descripción del Articulo
Los agentes conversacionales o chatbot han ido progresando en los últimos años gracias a la inteligencia artificial. Siendo Eliza (1966), uno de los primeros programas en procesar lenguaje natural. Eliza busca patrones en la frase escrita por el usuario, para luego responder con una “frase modelo&qu...
Autores: | , |
---|---|
Formato: | tesis de grado |
Fecha de Publicación: | 2019 |
Institución: | Universidad Nacional de San Antonio Abad del Cusco |
Repositorio: | UNSAAC-Institucional |
Lenguaje: | español |
OAI Identifier: | oai:repositorio.unsaac.edu.pe:20.500.12918/4783 |
Enlace del recurso: | http://hdl.handle.net/20.500.12918/4783 |
Nivel de acceso: | acceso cerrado |
Materia: | Chatbot generativo Self-attention Arquitectura de red neuronal Transformer http://purl.org/pe-repo/ocde/ford#2.02.04 |
id |
RUNS_69aceebe88159de29b8528b0fd34b831 |
---|---|
oai_identifier_str |
oai:repositorio.unsaac.edu.pe:20.500.12918/4783 |
network_acronym_str |
RUNS |
network_name_str |
UNSAAC-Institucional |
repository_id_str |
|
spelling |
Villafuerte Serna, RonyPaucar Pinto, Deybis YoulUscamaita Quispetupa, Marycel2019-12-16T23:14:19Z2019-12-16T23:14:19Z2019253T20190700IN/014/2019http://hdl.handle.net/20.500.12918/4783Los agentes conversacionales o chatbot han ido progresando en los últimos años gracias a la inteligencia artificial. Siendo Eliza (1966), uno de los primeros programas en procesar lenguaje natural. Eliza busca patrones en la frase escrita por el usuario, para luego responder con una “frase modelo" registrada en su base de datos. Por otro lado, tenemos el actual Google Assistant, un asistente virtual en desarrollo, compuesto por módulos de deep learning, además posee la tecnología Google Duplex que utiliza Redes Neuronales Recurrentes (RNN) y módulos de Long short-term memory (LSTM) en su núcleo, con el fin de ayudar a los usuarios a completar tareas específicas. Si bien las RNNs se utilizan para modelar problemas de secuencia temporal, como la traducción automática neural (Casacuberta and Peris, 2017), estas redes procesan la entrada de manera secuencial, es decir, requieren más tiempo de entrenamiento y mayores recursos de hardware; en contraste a esto, surge transformer, una arquitectura encoder-decoder que procesa de forma paralela la secuencia de entrada mientras usa un mecanismo de self-attention (Gouws et al., 2018); por esta razón, se implementó un chatbot generativo en el idioma español utilizando la arquitectura de red neuronal transformer siguiendo el método propuesto por (Perez, 2016). En este proyecto se entrenaron y probaron varios modelos basados en Vanilla y Universal transformer; los mejores modelos fueron evaluados, obteniendo un 60% de respuestas buenas y un 76% de respuestas coherentes.Tesisapplication/pdfspaUniversidad Nacional de San Antonio Abad del CuscoPEinfo:eu-repo/semantics/closedAccesshttp://creativecommons.org/licenses/by-nc-nd/4.0Universidad Nacional de San Antonio Abad del CuscoRepositorio Institucional - UNSAACreponame:UNSAAC-Institucionalinstname:Universidad Nacional de San Antonio Abad del Cuscoinstacron:UNSAACChatbot generativoSelf-attentionArquitectura de red neuronal Transformerhttp://purl.org/pe-repo/ocde/ford#2.02.04Chatbot generativo en el idioma español utilizando la arquitectura de red neuronal Transformerinfo:eu-repo/semantics/bachelorThesisSUNEDUIngeniero Informático y de SistemasUniversidad Nacional de San Antonio Abad del Cusco. Facultad de Ingeniería Eléctrica, Electrónica, Informática y MecánicaTítulo profesionalIngeniería Informática y de Sistemas4766213773131252https://orcid.org/0000-0003-4607-522X23957778http://purl.org/pe-repo/renati/type#tesishttp://purl.org/pe-repo/renati/nivel#tituloProfesional612296ORIGINAL253T20190700.pdfapplication/pdf50947http://repositorio.unsaac.edu.pe/bitstream/20.500.12918/4783/1/253T20190700.pdfd580f140c7dc572f8f2022eea5137ed0MD51TEXT253T20190700.pdf.txt253T20190700.pdf.txtExtracted texttext/plain3004http://repositorio.unsaac.edu.pe/bitstream/20.500.12918/4783/2/253T20190700.pdf.txtbc849d7c523e0127abff15d759073722MD5220.500.12918/4783oai:repositorio.unsaac.edu.pe:20.500.12918/47832021-07-27 21:39:48.524DSpace de la UNSAACsoporte.repositorio@unsaac.edu.pe |
dc.title.es_PE.fl_str_mv |
Chatbot generativo en el idioma español utilizando la arquitectura de red neuronal Transformer |
title |
Chatbot generativo en el idioma español utilizando la arquitectura de red neuronal Transformer |
spellingShingle |
Chatbot generativo en el idioma español utilizando la arquitectura de red neuronal Transformer Paucar Pinto, Deybis Youl Chatbot generativo Self-attention Arquitectura de red neuronal Transformer http://purl.org/pe-repo/ocde/ford#2.02.04 |
title_short |
Chatbot generativo en el idioma español utilizando la arquitectura de red neuronal Transformer |
title_full |
Chatbot generativo en el idioma español utilizando la arquitectura de red neuronal Transformer |
title_fullStr |
Chatbot generativo en el idioma español utilizando la arquitectura de red neuronal Transformer |
title_full_unstemmed |
Chatbot generativo en el idioma español utilizando la arquitectura de red neuronal Transformer |
title_sort |
Chatbot generativo en el idioma español utilizando la arquitectura de red neuronal Transformer |
author |
Paucar Pinto, Deybis Youl |
author_facet |
Paucar Pinto, Deybis Youl Uscamaita Quispetupa, Marycel |
author_role |
author |
author2 |
Uscamaita Quispetupa, Marycel |
author2_role |
author |
dc.contributor.advisor.fl_str_mv |
Villafuerte Serna, Rony |
dc.contributor.author.fl_str_mv |
Paucar Pinto, Deybis Youl Uscamaita Quispetupa, Marycel |
dc.subject.es_PE.fl_str_mv |
Chatbot generativo Self-attention Arquitectura de red neuronal Transformer |
topic |
Chatbot generativo Self-attention Arquitectura de red neuronal Transformer http://purl.org/pe-repo/ocde/ford#2.02.04 |
dc.subject.ocde.none.fl_str_mv |
http://purl.org/pe-repo/ocde/ford#2.02.04 |
description |
Los agentes conversacionales o chatbot han ido progresando en los últimos años gracias a la inteligencia artificial. Siendo Eliza (1966), uno de los primeros programas en procesar lenguaje natural. Eliza busca patrones en la frase escrita por el usuario, para luego responder con una “frase modelo" registrada en su base de datos. Por otro lado, tenemos el actual Google Assistant, un asistente virtual en desarrollo, compuesto por módulos de deep learning, además posee la tecnología Google Duplex que utiliza Redes Neuronales Recurrentes (RNN) y módulos de Long short-term memory (LSTM) en su núcleo, con el fin de ayudar a los usuarios a completar tareas específicas. Si bien las RNNs se utilizan para modelar problemas de secuencia temporal, como la traducción automática neural (Casacuberta and Peris, 2017), estas redes procesan la entrada de manera secuencial, es decir, requieren más tiempo de entrenamiento y mayores recursos de hardware; en contraste a esto, surge transformer, una arquitectura encoder-decoder que procesa de forma paralela la secuencia de entrada mientras usa un mecanismo de self-attention (Gouws et al., 2018); por esta razón, se implementó un chatbot generativo en el idioma español utilizando la arquitectura de red neuronal transformer siguiendo el método propuesto por (Perez, 2016). En este proyecto se entrenaron y probaron varios modelos basados en Vanilla y Universal transformer; los mejores modelos fueron evaluados, obteniendo un 60% de respuestas buenas y un 76% de respuestas coherentes. |
publishDate |
2019 |
dc.date.accessioned.none.fl_str_mv |
2019-12-16T23:14:19Z |
dc.date.available.none.fl_str_mv |
2019-12-16T23:14:19Z |
dc.date.issued.fl_str_mv |
2019 |
dc.type.none.fl_str_mv |
info:eu-repo/semantics/bachelorThesis |
format |
bachelorThesis |
dc.identifier.other.none.fl_str_mv |
253T20190700 IN/014/2019 |
dc.identifier.uri.none.fl_str_mv |
http://hdl.handle.net/20.500.12918/4783 |
identifier_str_mv |
253T20190700 IN/014/2019 |
url |
http://hdl.handle.net/20.500.12918/4783 |
dc.language.iso.es_PE.fl_str_mv |
spa |
language |
spa |
dc.relation.ispartof.fl_str_mv |
SUNEDU |
dc.rights.en_US.fl_str_mv |
info:eu-repo/semantics/closedAccess |
dc.rights.uri.*.fl_str_mv |
http://creativecommons.org/licenses/by-nc-nd/4.0 |
eu_rights_str_mv |
closedAccess |
rights_invalid_str_mv |
http://creativecommons.org/licenses/by-nc-nd/4.0 |
dc.format.en_US.fl_str_mv |
application/pdf |
dc.publisher.es_PE.fl_str_mv |
Universidad Nacional de San Antonio Abad del Cusco |
dc.publisher.country.none.fl_str_mv |
PE |
dc.source.es_PE.fl_str_mv |
Universidad Nacional de San Antonio Abad del Cusco Repositorio Institucional - UNSAAC |
dc.source.none.fl_str_mv |
reponame:UNSAAC-Institucional instname:Universidad Nacional de San Antonio Abad del Cusco instacron:UNSAAC |
instname_str |
Universidad Nacional de San Antonio Abad del Cusco |
instacron_str |
UNSAAC |
institution |
UNSAAC |
reponame_str |
UNSAAC-Institucional |
collection |
UNSAAC-Institucional |
bitstream.url.fl_str_mv |
http://repositorio.unsaac.edu.pe/bitstream/20.500.12918/4783/1/253T20190700.pdf http://repositorio.unsaac.edu.pe/bitstream/20.500.12918/4783/2/253T20190700.pdf.txt |
bitstream.checksum.fl_str_mv |
d580f140c7dc572f8f2022eea5137ed0 bc849d7c523e0127abff15d759073722 |
bitstream.checksumAlgorithm.fl_str_mv |
MD5 MD5 |
repository.name.fl_str_mv |
DSpace de la UNSAAC |
repository.mail.fl_str_mv |
soporte.repositorio@unsaac.edu.pe |
_version_ |
1742881448381120512 |
score |
13.8851595 |
Nota importante:
La información contenida en este registro es de entera responsabilidad de la institución que gestiona el repositorio institucional donde esta contenido este documento o set de datos. El CONCYTEC no se hace responsable por los contenidos (publicaciones y/o datos) accesibles a través del Repositorio Nacional Digital de Ciencia, Tecnología e Innovación de Acceso Abierto (ALICIA).
La información contenida en este registro es de entera responsabilidad de la institución que gestiona el repositorio institucional donde esta contenido este documento o set de datos. El CONCYTEC no se hace responsable por los contenidos (publicaciones y/o datos) accesibles a través del Repositorio Nacional Digital de Ciencia, Tecnología e Innovación de Acceso Abierto (ALICIA).