Chatbot generativo en el idioma español utilizando la arquitectura de red neuronal Transformer

Descripción del Articulo

Los agentes conversacionales o chatbot han ido progresando en los últimos años gracias a la inteligencia artificial. Siendo Eliza (1966), uno de los primeros programas en procesar lenguaje natural. Eliza busca patrones en la frase escrita por el usuario, para luego responder con una “frase modelo&qu...

Descripción completa

Detalles Bibliográficos
Autores: Paucar Pinto, Deybis Youl, Uscamaita Quispetupa, Marycel
Formato: tesis de grado
Fecha de Publicación:2019
Institución:Universidad Nacional de San Antonio Abad del Cusco
Repositorio:UNSAAC-Institucional
Lenguaje:español
OAI Identifier:oai:repositorio.unsaac.edu.pe:20.500.12918/4783
Enlace del recurso:http://hdl.handle.net/20.500.12918/4783
Nivel de acceso:acceso cerrado
Materia:Chatbot generativo
Self-attention
Arquitectura de red neuronal Transformer
http://purl.org/pe-repo/ocde/ford#2.02.04
id RUNS_69aceebe88159de29b8528b0fd34b831
oai_identifier_str oai:repositorio.unsaac.edu.pe:20.500.12918/4783
network_acronym_str RUNS
network_name_str UNSAAC-Institucional
repository_id_str
spelling Villafuerte Serna, RonyPaucar Pinto, Deybis YoulUscamaita Quispetupa, Marycel2019-12-16T23:14:19Z2019-12-16T23:14:19Z2019253T20190700IN/014/2019http://hdl.handle.net/20.500.12918/4783Los agentes conversacionales o chatbot han ido progresando en los últimos años gracias a la inteligencia artificial. Siendo Eliza (1966), uno de los primeros programas en procesar lenguaje natural. Eliza busca patrones en la frase escrita por el usuario, para luego responder con una “frase modelo" registrada en su base de datos. Por otro lado, tenemos el actual Google Assistant, un asistente virtual en desarrollo, compuesto por módulos de deep learning, además posee la tecnología Google Duplex que utiliza Redes Neuronales Recurrentes (RNN) y módulos de Long short-term memory (LSTM) en su núcleo, con el fin de ayudar a los usuarios a completar tareas específicas. Si bien las RNNs se utilizan para modelar problemas de secuencia temporal, como la traducción automática neural (Casacuberta and Peris, 2017), estas redes procesan la entrada de manera secuencial, es decir, requieren más tiempo de entrenamiento y mayores recursos de hardware; en contraste a esto, surge transformer, una arquitectura encoder-decoder que procesa de forma paralela la secuencia de entrada mientras usa un mecanismo de self-attention (Gouws et al., 2018); por esta razón, se implementó un chatbot generativo en el idioma español utilizando la arquitectura de red neuronal transformer siguiendo el método propuesto por (Perez, 2016). En este proyecto se entrenaron y probaron varios modelos basados en Vanilla y Universal transformer; los mejores modelos fueron evaluados, obteniendo un 60% de respuestas buenas y un 76% de respuestas coherentes.Tesisapplication/pdfspaUniversidad Nacional de San Antonio Abad del CuscoPEinfo:eu-repo/semantics/closedAccesshttp://creativecommons.org/licenses/by-nc-nd/4.0Universidad Nacional de San Antonio Abad del CuscoRepositorio Institucional - UNSAACreponame:UNSAAC-Institucionalinstname:Universidad Nacional de San Antonio Abad del Cuscoinstacron:UNSAACChatbot generativoSelf-attentionArquitectura de red neuronal Transformerhttp://purl.org/pe-repo/ocde/ford#2.02.04Chatbot generativo en el idioma español utilizando la arquitectura de red neuronal Transformerinfo:eu-repo/semantics/bachelorThesisSUNEDUIngeniero Informático y de SistemasUniversidad Nacional de San Antonio Abad del Cusco. Facultad de Ingeniería Eléctrica, Electrónica, Informática y MecánicaTítulo profesionalIngeniería Informática y de Sistemas4766213773131252https://orcid.org/0000-0003-4607-522X23957778http://purl.org/pe-repo/renati/type#tesishttp://purl.org/pe-repo/renati/nivel#tituloProfesional612296ORIGINAL253T20190700.pdfapplication/pdf50947http://repositorio.unsaac.edu.pe/bitstream/20.500.12918/4783/1/253T20190700.pdfd580f140c7dc572f8f2022eea5137ed0MD51TEXT253T20190700.pdf.txt253T20190700.pdf.txtExtracted texttext/plain3004http://repositorio.unsaac.edu.pe/bitstream/20.500.12918/4783/2/253T20190700.pdf.txtbc849d7c523e0127abff15d759073722MD5220.500.12918/4783oai:repositorio.unsaac.edu.pe:20.500.12918/47832021-07-27 21:39:48.524DSpace de la UNSAACsoporte.repositorio@unsaac.edu.pe
dc.title.es_PE.fl_str_mv Chatbot generativo en el idioma español utilizando la arquitectura de red neuronal Transformer
title Chatbot generativo en el idioma español utilizando la arquitectura de red neuronal Transformer
spellingShingle Chatbot generativo en el idioma español utilizando la arquitectura de red neuronal Transformer
Paucar Pinto, Deybis Youl
Chatbot generativo
Self-attention
Arquitectura de red neuronal Transformer
http://purl.org/pe-repo/ocde/ford#2.02.04
title_short Chatbot generativo en el idioma español utilizando la arquitectura de red neuronal Transformer
title_full Chatbot generativo en el idioma español utilizando la arquitectura de red neuronal Transformer
title_fullStr Chatbot generativo en el idioma español utilizando la arquitectura de red neuronal Transformer
title_full_unstemmed Chatbot generativo en el idioma español utilizando la arquitectura de red neuronal Transformer
title_sort Chatbot generativo en el idioma español utilizando la arquitectura de red neuronal Transformer
author Paucar Pinto, Deybis Youl
author_facet Paucar Pinto, Deybis Youl
Uscamaita Quispetupa, Marycel
author_role author
author2 Uscamaita Quispetupa, Marycel
author2_role author
dc.contributor.advisor.fl_str_mv Villafuerte Serna, Rony
dc.contributor.author.fl_str_mv Paucar Pinto, Deybis Youl
Uscamaita Quispetupa, Marycel
dc.subject.es_PE.fl_str_mv Chatbot generativo
Self-attention
Arquitectura de red neuronal Transformer
topic Chatbot generativo
Self-attention
Arquitectura de red neuronal Transformer
http://purl.org/pe-repo/ocde/ford#2.02.04
dc.subject.ocde.none.fl_str_mv http://purl.org/pe-repo/ocde/ford#2.02.04
description Los agentes conversacionales o chatbot han ido progresando en los últimos años gracias a la inteligencia artificial. Siendo Eliza (1966), uno de los primeros programas en procesar lenguaje natural. Eliza busca patrones en la frase escrita por el usuario, para luego responder con una “frase modelo" registrada en su base de datos. Por otro lado, tenemos el actual Google Assistant, un asistente virtual en desarrollo, compuesto por módulos de deep learning, además posee la tecnología Google Duplex que utiliza Redes Neuronales Recurrentes (RNN) y módulos de Long short-term memory (LSTM) en su núcleo, con el fin de ayudar a los usuarios a completar tareas específicas. Si bien las RNNs se utilizan para modelar problemas de secuencia temporal, como la traducción automática neural (Casacuberta and Peris, 2017), estas redes procesan la entrada de manera secuencial, es decir, requieren más tiempo de entrenamiento y mayores recursos de hardware; en contraste a esto, surge transformer, una arquitectura encoder-decoder que procesa de forma paralela la secuencia de entrada mientras usa un mecanismo de self-attention (Gouws et al., 2018); por esta razón, se implementó un chatbot generativo en el idioma español utilizando la arquitectura de red neuronal transformer siguiendo el método propuesto por (Perez, 2016). En este proyecto se entrenaron y probaron varios modelos basados en Vanilla y Universal transformer; los mejores modelos fueron evaluados, obteniendo un 60% de respuestas buenas y un 76% de respuestas coherentes.
publishDate 2019
dc.date.accessioned.none.fl_str_mv 2019-12-16T23:14:19Z
dc.date.available.none.fl_str_mv 2019-12-16T23:14:19Z
dc.date.issued.fl_str_mv 2019
dc.type.none.fl_str_mv info:eu-repo/semantics/bachelorThesis
format bachelorThesis
dc.identifier.other.none.fl_str_mv 253T20190700
IN/014/2019
dc.identifier.uri.none.fl_str_mv http://hdl.handle.net/20.500.12918/4783
identifier_str_mv 253T20190700
IN/014/2019
url http://hdl.handle.net/20.500.12918/4783
dc.language.iso.es_PE.fl_str_mv spa
language spa
dc.relation.ispartof.fl_str_mv SUNEDU
dc.rights.en_US.fl_str_mv info:eu-repo/semantics/closedAccess
dc.rights.uri.*.fl_str_mv http://creativecommons.org/licenses/by-nc-nd/4.0
eu_rights_str_mv closedAccess
rights_invalid_str_mv http://creativecommons.org/licenses/by-nc-nd/4.0
dc.format.en_US.fl_str_mv application/pdf
dc.publisher.es_PE.fl_str_mv Universidad Nacional de San Antonio Abad del Cusco
dc.publisher.country.none.fl_str_mv PE
dc.source.es_PE.fl_str_mv Universidad Nacional de San Antonio Abad del Cusco
Repositorio Institucional - UNSAAC
dc.source.none.fl_str_mv reponame:UNSAAC-Institucional
instname:Universidad Nacional de San Antonio Abad del Cusco
instacron:UNSAAC
instname_str Universidad Nacional de San Antonio Abad del Cusco
instacron_str UNSAAC
institution UNSAAC
reponame_str UNSAAC-Institucional
collection UNSAAC-Institucional
bitstream.url.fl_str_mv http://repositorio.unsaac.edu.pe/bitstream/20.500.12918/4783/1/253T20190700.pdf
http://repositorio.unsaac.edu.pe/bitstream/20.500.12918/4783/2/253T20190700.pdf.txt
bitstream.checksum.fl_str_mv d580f140c7dc572f8f2022eea5137ed0
bc849d7c523e0127abff15d759073722
bitstream.checksumAlgorithm.fl_str_mv MD5
MD5
repository.name.fl_str_mv DSpace de la UNSAAC
repository.mail.fl_str_mv soporte.repositorio@unsaac.edu.pe
_version_ 1742881448381120512
score 13.8851595
Nota importante:
La información contenida en este registro es de entera responsabilidad de la institución que gestiona el repositorio institucional donde esta contenido este documento o set de datos. El CONCYTEC no se hace responsable por los contenidos (publicaciones y/o datos) accesibles a través del Repositorio Nacional Digital de Ciencia, Tecnología e Innovación de Acceso Abierto (ALICIA).