Análisis comparativo en la implementación de la red neuronal backpropagation usando el método de componentes principales y el método clásico

Descripción del Articulo

El objetivo principal de esta investigación fue realizar un análisis comparativo en la implementación de redes neuronales de Backpropagation utilizando el método multivariado PCA frente al método clásico, que en este ámbito de investigación se definió como la aplicación de redes neuronales sin la im...

Descripción completa

Detalles Bibliográficos
Autor: Aguilar Ibáñez, Luis
Formato: tesis doctoral
Fecha de Publicación:2019
Institución:Universidad Nacional de Piura
Repositorio:UNP-Institucional
Lenguaje:español
OAI Identifier:oai:repositorio.unp.edu.pe:UNP/1583
Enlace del recurso:https://repositorio.unp.edu.pe/handle/UNP/1583
Nivel de acceso:acceso abierto
Materia:Reducción de dimensiones
Redes neuronales
Análisis de componentes principales
Algoritmo Backpropagation
Aprendizaje de máquina
Ingeniería de Sistemas y Comunicaciones Telecomunicaciones
id RUMP_fe73dde4dcd517a87fad2d6827dfb376
oai_identifier_str oai:repositorio.unp.edu.pe:UNP/1583
network_acronym_str RUMP
network_name_str UNP-Institucional
repository_id_str 4814
dc.title.es_PE.fl_str_mv Análisis comparativo en la implementación de la red neuronal backpropagation usando el método de componentes principales y el método clásico
title Análisis comparativo en la implementación de la red neuronal backpropagation usando el método de componentes principales y el método clásico
spellingShingle Análisis comparativo en la implementación de la red neuronal backpropagation usando el método de componentes principales y el método clásico
Aguilar Ibáñez, Luis
Reducción de dimensiones
Redes neuronales
Análisis de componentes principales
Algoritmo Backpropagation
Aprendizaje de máquina
Ingeniería de Sistemas y Comunicaciones Telecomunicaciones
title_short Análisis comparativo en la implementación de la red neuronal backpropagation usando el método de componentes principales y el método clásico
title_full Análisis comparativo en la implementación de la red neuronal backpropagation usando el método de componentes principales y el método clásico
title_fullStr Análisis comparativo en la implementación de la red neuronal backpropagation usando el método de componentes principales y el método clásico
title_full_unstemmed Análisis comparativo en la implementación de la red neuronal backpropagation usando el método de componentes principales y el método clásico
title_sort Análisis comparativo en la implementación de la red neuronal backpropagation usando el método de componentes principales y el método clásico
author Aguilar Ibáñez, Luis
author_facet Aguilar Ibáñez, Luis
author_role author
dc.contributor.advisor.fl_str_mv Haro Díaz, Cesar Leonardo
dc.contributor.author.fl_str_mv Aguilar Ibáñez, Luis
dc.subject.es_PE.fl_str_mv Reducción de dimensiones
Redes neuronales
Análisis de componentes principales
Algoritmo Backpropagation
Aprendizaje de máquina
topic Reducción de dimensiones
Redes neuronales
Análisis de componentes principales
Algoritmo Backpropagation
Aprendizaje de máquina
Ingeniería de Sistemas y Comunicaciones Telecomunicaciones
dc.subject.ocde.none.fl_str_mv Ingeniería de Sistemas y Comunicaciones Telecomunicaciones
description El objetivo principal de esta investigación fue realizar un análisis comparativo en la implementación de redes neuronales de Backpropagation utilizando el método multivariado PCA frente al método clásico, que en este ámbito de investigación se definió como la aplicación de redes neuronales sin la implementación de PCA. El enfoque en esta tesis doctoral, concretamente, referente a PCA, fue aplicarlo a una variedad de conjuntos de datos. Los resultados se calcularon desde la perspectiva de las redes neuronales, incluyendo redes totalmente conectadas y convolucionales. Para este propósito, se seleccionaron tres tipos de conjuntos de datos. El primero representa datos tabulares, mientras que los otros dos datos de imagen, que están compuestos por imágenes RGB de 1 canal y 3 canales. Las técnicas de reducción de la dimensión, como la PCA, contribuyen en gran medida al proceso de flujo de aprendizaje automático. Por ejemplo, PCA se puede usar para seleccionar características, también puede transformar conjuntos de datos en representaciones más bajas. Al mismo tiempo, PCA se puede utilizar como una herramienta para visualizar datos de alta dimensión. Además, dado que PCA reduce el número de dimensiones, también reduce los recursos computacionales y acelera el entrenamiento. Del mismo modo, también se ha observado cómo la combinación de PCA con otros algoritmos mejora el rendimiento de clasificación. Sin embargo, los resultados de las mejoras son relativos a las diferentes configuraciones utilizadas por los modelos. Además, pueden verse afectados por factores independientes, que no están relacionados con PCA. Por lo tanto, es necesario un análisis imparcial para obtener una mejor comprensión del efecto de PCA sobre los algoritmos de aprendizaje. En este sentido, los resultados obtenidos en esta investigación mostraron un incremento considerable en la precisión cuando se usa PCA con redes neuronales totalmente conectadas. Este hecho fue más frecuente con los conjuntos de datos tabulares. Los mismos resultados se observaron con las imágenes de 1 canal. A pesar de que las mejoras en la precisión no fueron demasiado significativas, especialmente en comparación con otros modelos, como las redes convolucionales. Sin embargo, cuando se aplicó PCA a las imágenes de 3 canales, con un conjunto de modelos de red pre-entrenados, la precisión no mejoró. De hecho, la precisión fue mucho menor en comparación con el modelo clásico (resnet normal). Esto sugiere que la aplicación de PCA mejora la precisión en algunos tipos de conjuntos de datos más que en otros. En particular, cuando los datos son más complejos, PCA puede perder esa complejidad, lo que resulta en ratios de precisión más bajos.
publishDate 2019
dc.date.accessioned.none.fl_str_mv 2019-04-05T01:00:19Z
dc.date.available.none.fl_str_mv 2019-04-05T01:00:19Z
dc.date.issued.fl_str_mv 2019
dc.type.es_PE.fl_str_mv info:eu-repo/semantics/doctoralThesis
format doctoralThesis
dc.identifier.citation.none.fl_str_mv APA
dc.identifier.uri.none.fl_str_mv https://repositorio.unp.edu.pe/handle/UNP/1583
identifier_str_mv APA
url https://repositorio.unp.edu.pe/handle/UNP/1583
dc.language.iso.es_PE.fl_str_mv spa
language spa
dc.relation.ispartof.fl_str_mv SUNEDU
dc.rights.es_PE.fl_str_mv info:eu-repo/semantics/openAccess
dc.rights.uri.*.fl_str_mv https://creativecommons.org/licenses/by/4.0/
eu_rights_str_mv openAccess
rights_invalid_str_mv https://creativecommons.org/licenses/by/4.0/
dc.format.es_PE.fl_str_mv application/pdf
dc.publisher.es_PE.fl_str_mv Universidad Nacional de Piura
dc.publisher.country.es_PE.fl_str_mv PE
dc.source.es_PE.fl_str_mv Universidad Nacional de Piura / UNP
dc.source.none.fl_str_mv reponame:UNP-Institucional
instname:Universidad Nacional de Piura
instacron:UNP
instname_str Universidad Nacional de Piura
instacron_str UNP
institution UNP
reponame_str UNP-Institucional
collection UNP-Institucional
bitstream.url.fl_str_mv https://repositorio.unp.edu.pe/bitstreams/5765b7f8-8961-403c-9aba-54143b916ead/download
https://repositorio.unp.edu.pe/bitstreams/ef4b1805-ee81-4761-8a49-f47e2c5aa51f/download
https://repositorio.unp.edu.pe/bitstreams/024376ae-0c88-480f-8e71-85e9b6636679/download
https://repositorio.unp.edu.pe/bitstreams/7686d5cc-b61c-457b-8ed5-cfc0a079ff04/download
bitstream.checksum.fl_str_mv e6a1199e4c6b3028a2154a2def3ccf7e
bb87e2fb4674c76d0d2e9ed07fbb9c86
c52066b9c50a8f86be96c82978636682
1c9365eb623e682ae40e8f9995554494
bitstream.checksumAlgorithm.fl_str_mv MD5
MD5
MD5
MD5
repository.name.fl_str_mv DSPACE7 UNP
repository.mail.fl_str_mv dspace-help@myu.edu
_version_ 1846425806773944320
spelling Haro Díaz, Cesar LeonardoAguilar Ibáñez, Luis2019-04-05T01:00:19Z2019-04-05T01:00:19Z2019APAhttps://repositorio.unp.edu.pe/handle/UNP/1583El objetivo principal de esta investigación fue realizar un análisis comparativo en la implementación de redes neuronales de Backpropagation utilizando el método multivariado PCA frente al método clásico, que en este ámbito de investigación se definió como la aplicación de redes neuronales sin la implementación de PCA. El enfoque en esta tesis doctoral, concretamente, referente a PCA, fue aplicarlo a una variedad de conjuntos de datos. Los resultados se calcularon desde la perspectiva de las redes neuronales, incluyendo redes totalmente conectadas y convolucionales. Para este propósito, se seleccionaron tres tipos de conjuntos de datos. El primero representa datos tabulares, mientras que los otros dos datos de imagen, que están compuestos por imágenes RGB de 1 canal y 3 canales. Las técnicas de reducción de la dimensión, como la PCA, contribuyen en gran medida al proceso de flujo de aprendizaje automático. Por ejemplo, PCA se puede usar para seleccionar características, también puede transformar conjuntos de datos en representaciones más bajas. Al mismo tiempo, PCA se puede utilizar como una herramienta para visualizar datos de alta dimensión. Además, dado que PCA reduce el número de dimensiones, también reduce los recursos computacionales y acelera el entrenamiento. Del mismo modo, también se ha observado cómo la combinación de PCA con otros algoritmos mejora el rendimiento de clasificación. Sin embargo, los resultados de las mejoras son relativos a las diferentes configuraciones utilizadas por los modelos. Además, pueden verse afectados por factores independientes, que no están relacionados con PCA. Por lo tanto, es necesario un análisis imparcial para obtener una mejor comprensión del efecto de PCA sobre los algoritmos de aprendizaje. En este sentido, los resultados obtenidos en esta investigación mostraron un incremento considerable en la precisión cuando se usa PCA con redes neuronales totalmente conectadas. Este hecho fue más frecuente con los conjuntos de datos tabulares. Los mismos resultados se observaron con las imágenes de 1 canal. A pesar de que las mejoras en la precisión no fueron demasiado significativas, especialmente en comparación con otros modelos, como las redes convolucionales. Sin embargo, cuando se aplicó PCA a las imágenes de 3 canales, con un conjunto de modelos de red pre-entrenados, la precisión no mejoró. De hecho, la precisión fue mucho menor en comparación con el modelo clásico (resnet normal). Esto sugiere que la aplicación de PCA mejora la precisión en algunos tipos de conjuntos de datos más que en otros. En particular, cuando los datos son más complejos, PCA puede perder esa complejidad, lo que resulta en ratios de precisión más bajos.application/pdfspaUniversidad Nacional de PiuraPEinfo:eu-repo/semantics/openAccesshttps://creativecommons.org/licenses/by/4.0/Universidad Nacional de Piura / UNPreponame:UNP-Institucionalinstname:Universidad Nacional de Piurainstacron:UNPReducción de dimensionesRedes neuronalesAnálisis de componentes principalesAlgoritmo BackpropagationAprendizaje de máquinaIngeniería de Sistemas y Comunicaciones TelecomunicacionesAnálisis comparativo en la implementación de la red neuronal backpropagation usando el método de componentes principales y el método clásicoinfo:eu-repo/semantics/doctoralThesisSUNEDUDoctor en Ciencias Tecnologías de la Información y ComunicacionesUniversidad Nacional de PiuraDoctoradoTecnologías de la Información y ComunicacionesDoctorado en Tecnologías de la Información y ComunicacionesORIGINALTIC-AGU-IBA-2019.pdfTIC-AGU-IBA-2019.pdfapplication/pdf3847952https://repositorio.unp.edu.pe/bitstreams/5765b7f8-8961-403c-9aba-54143b916ead/downloade6a1199e4c6b3028a2154a2def3ccf7eMD51CC-LICENSElicense_rdflicense_rdfapplication/rdf+xml; charset=utf-81232https://repositorio.unp.edu.pe/bitstreams/ef4b1805-ee81-4761-8a49-f47e2c5aa51f/downloadbb87e2fb4674c76d0d2e9ed07fbb9c86MD52LICENSElicense.txtlicense.txttext/plain; charset=utf-81327https://repositorio.unp.edu.pe/bitstreams/024376ae-0c88-480f-8e71-85e9b6636679/downloadc52066b9c50a8f86be96c82978636682MD53TEXTTIC-AGU-IBA-2019.pdf.txtTIC-AGU-IBA-2019.pdf.txtExtracted texttext/plain139288https://repositorio.unp.edu.pe/bitstreams/7686d5cc-b61c-457b-8ed5-cfc0a079ff04/download1c9365eb623e682ae40e8f9995554494MD54UNP/1583oai:repositorio.unp.edu.pe:UNP/15832021-08-07 17:00:57.338https://creativecommons.org/licenses/by/4.0/info:eu-repo/semantics/openAccessopen.accesshttps://repositorio.unp.edu.peDSPACE7 UNPdspace-help@myu.edu77u/TGljZW5jaWEgZGUgVXNvCiAKRWwgUmVwb3NpdG9yaW8gSW5zdGl0dWNpb25hbCwgZGlmdW5kZSBtZWRpYW50ZSBsb3MgdHJhYmFqb3MgZGUgaW52ZXN0aWdhY2nDs24gcHJvZHVjaWRvcyBwb3IgbG9zIG1pZW1icm9zIGRlIGxhIHVuaXZlcnNpZGFkLiBFbCBjb250ZW5pZG8gZGUgbG9zIGRvY3VtZW50b3MgZGlnaXRhbGVzIGVzIGRlIGFjY2VzbyBhYmllcnRvIHBhcmEgdG9kYSBwZXJzb25hIGludGVyZXNhZGEuCgpTZSBhY2VwdGEgbGEgZGlmdXNpw7NuIHDDumJsaWNhIGRlIGxhIG9icmEsIHN1IGNvcGlhIHkgZGlzdHJpYnVjacOzbi4gUGFyYSBlc3RvIGVzIG5lY2VzYXJpbyBxdWUgc2UgY3VtcGxhIGNvbiBsYXMgc2lndWllbnRlcyBjb25kaWNpb25lczoKCkVsIG5lY2VzYXJpbyByZWNvbm9jaW1pZW50byBkZSBsYSBhdXRvcsOtYSBkZSBsYSBvYnJhLCBpZGVudGlmaWNhbmRvIG9wb3J0dW5hIHkgY29ycmVjdGFtZW50ZSBhIGxhIHBlcnNvbmEgcXVlIHBvc2VhIGxvcyBkZXJlY2hvcyBkZSBhdXRvci4KCk5vIGVzdMOhIHBlcm1pdGlkbyBlbCB1c28gaW5kZWJpZG8gZGVsIHRyYWJham8gZGUgaW52ZXN0aWdhY2nDs24gY29uIGZpbmVzIGRlIGx1Y3JvIG8gY3VhbHF1aWVyIHRpcG8gZGUgYWN0aXZpZGFkIHF1ZSBwcm9kdXpjYSBnYW5hbmNpYXMgYSBsYXMgcGVyc29uYXMgcXVlIGxvIGRpZnVuZGVuIHNpbiBlbCBjb25zZW50aW1pZW50byBkZWwgYXV0b3IgKGF1dG9yIGxlZ2FsKS4KCkxvcyBkZXJlY2hvcyBtb3JhbGVzIGRlbCBhdXRvciBubyBzb24gYWZlY3RhZG9zIHBvciBsYSBwcmVzZW50ZSBsaWNlbmNpYSBkZSB1c28uCgpEZXJlY2hvcyBkZSBhdXRvcgoKTGEgdW5pdmVyc2lkYWQgbm8gcG9zZWUgbG9zIGRlcmVjaG9zIGRlIHByb3BpZWRhZCBpbnRlbGVjdHVhbC4gTG9zIGRlcmVjaG9zIGRlIGF1dG9yIHNlIGVuY3VlbnRyYW4gcHJvdGVnaWRvcyBwb3IgbGEgbGVnaXNsYWNpw7NuIHBlcnVhbmE6IExleSBzb2JyZSBlbCBEZXJlY2hvIGRlIEF1dG9yIHByb211bGdhZG8gZW4gMTk5NiAoRC5MLiBOwrA4MjIpLCBMZXkgcXVlIG1vZGlmaWNhIGxvcyBhcnTDrWN1bG9zIDE4OMKwIHkgMTg5wrAgZGVsIGRlY3JldG8gbGVnaXNsYXRpdm8gTsKwODIyLCBMZXkgc29icmUgZGVyZWNob3MgZGUgYXV0b3IgcHJvbXVsZ2FkbyBlbiAyMDA1IChMZXkgTsKwMjg1MTcpLCBEZWNyZXRvIExlZ2lzbGF0aXZvIHF1ZSBhcHJ1ZWJhIGxhIG1vZGlmaWNhY2nDs24gZGVsIERlY3JldG8gTGVnaXNsYXRpdm8gTsKwODIyLCBMZXkgc29icmUgZWwgRGVyZWNobyBkZSBBdXRvciBwcm9tdWxnYWRvIGVuIDIwMDggKEQuTC4gTsKwMTA3NikuCg==
score 13.0768795
Nota importante:
La información contenida en este registro es de entera responsabilidad de la institución que gestiona el repositorio institucional donde esta contenido este documento o set de datos. El CONCYTEC no se hace responsable por los contenidos (publicaciones y/o datos) accesibles a través del Repositorio Nacional Digital de Ciencia, Tecnología e Innovación de Acceso Abierto (ALICIA).