Determinación de la mejor Arquitectura de Redes Neuronales Convolucionales: VGG16, ResNet50 ó MobileNet para detección de la Neumonía 2023

Descripción del Articulo

Las Redes Neuronales Convolucionales (CNN) se utilizan para el reconocimiento de imágenes de radiografías y otras aplicaciones. Actualmente, existen trabajos que comparan la eficacia de las arquitecturas CNN, como VGG16, ResNet50 y MobileNet con parámetros de entradas diferentes en sus entrenamiento...

Descripción completa

Detalles Bibliográficos
Autor: Enciso Ortiz, Sergio Elías
Formato: tesis de grado
Fecha de Publicación:2024
Institución:Universidad Nacional Micaela Bastidas de Apurímac
Repositorio:UNAMBA-Institucional
Lenguaje:español
OAI Identifier:oai:172.16.0.151:UNAMBA/1396
Enlace del recurso:http://repositorio.unamba.edu.pe/handle/UNAMBA/1396
Nivel de acceso:acceso abierto
Materia:Arquitecturas de redes neuronales convolucionales
MobileNet
ResNet50
VGG16
https://purl.org/pe-repo/ocde/ford#1.02.00
id UNMB_7b91df620fa0aad66c042bd7c3e90d8a
oai_identifier_str oai:172.16.0.151:UNAMBA/1396
network_acronym_str UNMB
network_name_str UNAMBA-Institucional
repository_id_str .
dc.title.es_PE.fl_str_mv Determinación de la mejor Arquitectura de Redes Neuronales Convolucionales: VGG16, ResNet50 ó MobileNet para detección de la Neumonía 2023
title Determinación de la mejor Arquitectura de Redes Neuronales Convolucionales: VGG16, ResNet50 ó MobileNet para detección de la Neumonía 2023
spellingShingle Determinación de la mejor Arquitectura de Redes Neuronales Convolucionales: VGG16, ResNet50 ó MobileNet para detección de la Neumonía 2023
Enciso Ortiz, Sergio Elías
Arquitecturas de redes neuronales convolucionales
MobileNet
ResNet50
VGG16
https://purl.org/pe-repo/ocde/ford#1.02.00
title_short Determinación de la mejor Arquitectura de Redes Neuronales Convolucionales: VGG16, ResNet50 ó MobileNet para detección de la Neumonía 2023
title_full Determinación de la mejor Arquitectura de Redes Neuronales Convolucionales: VGG16, ResNet50 ó MobileNet para detección de la Neumonía 2023
title_fullStr Determinación de la mejor Arquitectura de Redes Neuronales Convolucionales: VGG16, ResNet50 ó MobileNet para detección de la Neumonía 2023
title_full_unstemmed Determinación de la mejor Arquitectura de Redes Neuronales Convolucionales: VGG16, ResNet50 ó MobileNet para detección de la Neumonía 2023
title_sort Determinación de la mejor Arquitectura de Redes Neuronales Convolucionales: VGG16, ResNet50 ó MobileNet para detección de la Neumonía 2023
author Enciso Ortiz, Sergio Elías
author_facet Enciso Ortiz, Sergio Elías
author_role author
dc.contributor.advisor.fl_str_mv Mamani Vilca, Ecler
Ordoñez Ramos, Erech
dc.contributor.author.fl_str_mv Enciso Ortiz, Sergio Elías
dc.subject.es_PE.fl_str_mv Arquitecturas de redes neuronales convolucionales
MobileNet
ResNet50
VGG16
topic Arquitecturas de redes neuronales convolucionales
MobileNet
ResNet50
VGG16
https://purl.org/pe-repo/ocde/ford#1.02.00
dc.subject.ocde.es_PE.fl_str_mv https://purl.org/pe-repo/ocde/ford#1.02.00
description Las Redes Neuronales Convolucionales (CNN) se utilizan para el reconocimiento de imágenes de radiografías y otras aplicaciones. Actualmente, existen trabajos que comparan la eficacia de las arquitecturas CNN, como VGG16, ResNet50 y MobileNet con parámetros de entradas diferentes en sus entrenamientos, creando incertidumbre entre los desarrolladores de aplicaciones de clasificación de imágenes, nosotros sí aplicamos entradas iguales para el entrenamiento de las CNN en estudio. Para abordar esta falta de información, se utilizó una base de datos de Kaggle que consta de 5856 imágenes. De esa base de datos, se seleccionó una muestra sistemática de 746 imágenes de radiografías de pulmones sanos y con Neumonía. Para asegurar la normalización de las imágenes, se utilizaron las herramientas iloveimg y ReNamer. Además, se utilizó Python con Google Colab y diversas librerías, como tensorflow, matplotlib, numpy, os, cv2 y random, para ejecutar las diferentes arquitecturas. El diseño metodológico se basó en un enfoque cuantitativo, empleando tablas de comparación y las imágenes adquiridas de la base de datos de Kaggle. Los resultados obtenidos indicaron que el porcentaje de exactitud (Accuracy) fue de 80.83% para VGG16, 91.82% para ResNet50 y 78.28% para MobileNet, concluyéndose que ResNet50 es la arquitectura más precisa en este contexto.
publishDate 2024
dc.date.accessioned.none.fl_str_mv 2024-05-15T17:41:49Z
dc.date.available.none.fl_str_mv 2024-05-15T17:41:49Z
dc.date.issued.fl_str_mv 2024-05-15
dc.type.es_PE.fl_str_mv info:eu-repo/semantics/bachelorThesis
format bachelorThesis
dc.identifier.citation.es_PE.fl_str_mv IEEE
dc.identifier.uri.none.fl_str_mv http://repositorio.unamba.edu.pe/handle/UNAMBA/1396
identifier_str_mv IEEE
url http://repositorio.unamba.edu.pe/handle/UNAMBA/1396
dc.language.iso.es_PE.fl_str_mv spa
language spa
dc.relation.ispartof.fl_str_mv SUNEDU
dc.rights.es_PE.fl_str_mv info:eu-repo/semantics/openAccess
dc.rights.*.fl_str_mv Attribution-NonCommercial-ShareAlike 3.0 United States
dc.rights.uri.*.fl_str_mv http://creativecommons.org/licenses/by-nc-sa/3.0/us/
eu_rights_str_mv openAccess
rights_invalid_str_mv Attribution-NonCommercial-ShareAlike 3.0 United States
http://creativecommons.org/licenses/by-nc-sa/3.0/us/
dc.format.es_PE.fl_str_mv application/pdf
dc.publisher.es_PE.fl_str_mv Universidad Nacional Micaela Bastidas de Apurímac
dc.publisher.country.none.fl_str_mv PE
dc.source.es_PE.fl_str_mv Universidad Nacional Micaela Bastidas de Apurímac
UNAMBA
dc.source.none.fl_str_mv reponame:UNAMBA-Institucional
instname:Universidad Nacional Micaela Bastidas de Apurímac
instacron:UNAMBA
instname_str Universidad Nacional Micaela Bastidas de Apurímac
instacron_str UNAMBA
institution UNAMBA
reponame_str UNAMBA-Institucional
collection UNAMBA-Institucional
bitstream.url.fl_str_mv http://172.16.0.151/bitstream/UNAMBA/1396/5/T_1396.pdf.txt
http://172.16.0.151/bitstream/UNAMBA/1396/4/T_1396.pdf
http://172.16.0.151/bitstream/UNAMBA/1396/3/license.txt
http://172.16.0.151/bitstream/UNAMBA/1396/2/license_rdf
bitstream.checksum.fl_str_mv df653ab84b7a0e8c7ddd74b4994c9f4d
a22a474d3a42cecdd831adbc6602ecde
c52066b9c50a8f86be96c82978636682
df76b173e7954a20718100d078b240a8
bitstream.checksumAlgorithm.fl_str_mv MD5
MD5
MD5
MD5
repository.name.fl_str_mv DSpace
repository.mail.fl_str_mv athos2777@gmail.com
_version_ 1813003257267617792
spelling Mamani Vilca, EclerOrdoñez Ramos, ErechEnciso Ortiz, Sergio Elías2024-05-15T17:41:49Z2024-05-15T17:41:49Z2024-05-15IEEEhttp://repositorio.unamba.edu.pe/handle/UNAMBA/1396Las Redes Neuronales Convolucionales (CNN) se utilizan para el reconocimiento de imágenes de radiografías y otras aplicaciones. Actualmente, existen trabajos que comparan la eficacia de las arquitecturas CNN, como VGG16, ResNet50 y MobileNet con parámetros de entradas diferentes en sus entrenamientos, creando incertidumbre entre los desarrolladores de aplicaciones de clasificación de imágenes, nosotros sí aplicamos entradas iguales para el entrenamiento de las CNN en estudio. Para abordar esta falta de información, se utilizó una base de datos de Kaggle que consta de 5856 imágenes. De esa base de datos, se seleccionó una muestra sistemática de 746 imágenes de radiografías de pulmones sanos y con Neumonía. Para asegurar la normalización de las imágenes, se utilizaron las herramientas iloveimg y ReNamer. Además, se utilizó Python con Google Colab y diversas librerías, como tensorflow, matplotlib, numpy, os, cv2 y random, para ejecutar las diferentes arquitecturas. El diseño metodológico se basó en un enfoque cuantitativo, empleando tablas de comparación y las imágenes adquiridas de la base de datos de Kaggle. Los resultados obtenidos indicaron que el porcentaje de exactitud (Accuracy) fue de 80.83% para VGG16, 91.82% para ResNet50 y 78.28% para MobileNet, concluyéndose que ResNet50 es la arquitectura más precisa en este contexto.Submitted by Ecler Mamani (eclervirtual@gmail.com) on 2024-05-15T17:41:49Z No. of bitstreams: 2 license_rdf: 1536 bytes, checksum: df76b173e7954a20718100d078b240a8 (MD5) Enciso Ortiz Sergio Elias Tesis - Sergio Elias Enciso Ortiz.pdf: 2759270 bytes, checksum: a22a474d3a42cecdd831adbc6602ecde (MD5)Made available in DSpace on 2024-05-15T17:41:49Z (GMT). No. of bitstreams: 2 license_rdf: 1536 bytes, checksum: df76b173e7954a20718100d078b240a8 (MD5) Enciso Ortiz Sergio Elias Tesis - Sergio Elias Enciso Ortiz.pdf: 2759270 bytes, checksum: a22a474d3a42cecdd831adbc6602ecde (MD5) Previous issue date: 2024-05-15TesisJuradosapplication/pdfspaUniversidad Nacional Micaela Bastidas de ApurímacPEinfo:eu-repo/semantics/openAccessAttribution-NonCommercial-ShareAlike 3.0 United Stateshttp://creativecommons.org/licenses/by-nc-sa/3.0/us/Universidad Nacional Micaela Bastidas de ApurímacUNAMBAreponame:UNAMBA-Institucionalinstname:Universidad Nacional Micaela Bastidas de Apurímacinstacron:UNAMBAArquitecturas de redes neuronales convolucionalesMobileNetResNet50VGG16https://purl.org/pe-repo/ocde/ford#1.02.00Determinación de la mejor Arquitectura de Redes Neuronales Convolucionales: VGG16, ResNet50 ó MobileNet para detección de la Neumonía 2023info:eu-repo/semantics/bachelorThesisSUNEDUIngeniero Informatico y SistemasIngeniería Informática y SistemasPresencialUniversidad Nacional Micaela Bastidas de Apurímac. Facultad de IngenieríaTítulo Profesionalhttps://orcid.org/0000-0002-5205-366002444053https://purl.org/pe-repo/renati/type#tesishttps://purl.org/pe-repo/renati/level#tituloProfesional612296Aquino Cruz, Mario Rentería Ayquipa, Ronald Alberto Mamani Vilca, Ecler42183684Título ProfesionalTEXTT_1396.pdf.txtT_1396.pdf.txtExtracted texttext/plain56009http://172.16.0.151/bitstream/UNAMBA/1396/5/T_1396.pdf.txtdf653ab84b7a0e8c7ddd74b4994c9f4dMD55ORIGINALT_1396.pdfT_1396.pdfapplication/pdf2759270http://172.16.0.151/bitstream/UNAMBA/1396/4/T_1396.pdfa22a474d3a42cecdd831adbc6602ecdeMD54LICENSElicense.txtlicense.txttext/plain; charset=utf-81327http://172.16.0.151/bitstream/UNAMBA/1396/3/license.txtc52066b9c50a8f86be96c82978636682MD53CC-LICENSElicense_rdflicense_rdfapplication/rdf+xml; charset=utf-81536http://172.16.0.151/bitstream/UNAMBA/1396/2/license_rdfdf76b173e7954a20718100d078b240a8MD52UNAMBA/1396oai:172.16.0.151:UNAMBA/13962024-09-30 10:56:13.081DSpaceathos2777@gmail.com77u/TGljZW5jaWEgZGUgVXNvCiAKRWwgUmVwb3NpdG9yaW8gSW5zdGl0dWNpb25hbCwgZGlmdW5kZSBtZWRpYW50ZSBsb3MgdHJhYmFqb3MgZGUgaW52ZXN0aWdhY2nDs24gcHJvZHVjaWRvcyBwb3IgbG9zIG1pZW1icm9zIGRlIGxhIHVuaXZlcnNpZGFkLiBFbCBjb250ZW5pZG8gZGUgbG9zIGRvY3VtZW50b3MgZGlnaXRhbGVzIGVzIGRlIGFjY2VzbyBhYmllcnRvIHBhcmEgdG9kYSBwZXJzb25hIGludGVyZXNhZGEuCgpTZSBhY2VwdGEgbGEgZGlmdXNpw7NuIHDDumJsaWNhIGRlIGxhIG9icmEsIHN1IGNvcGlhIHkgZGlzdHJpYnVjacOzbi4gUGFyYSBlc3RvIGVzIG5lY2VzYXJpbyBxdWUgc2UgY3VtcGxhIGNvbiBsYXMgc2lndWllbnRlcyBjb25kaWNpb25lczoKCkVsIG5lY2VzYXJpbyByZWNvbm9jaW1pZW50byBkZSBsYSBhdXRvcsOtYSBkZSBsYSBvYnJhLCBpZGVudGlmaWNhbmRvIG9wb3J0dW5hIHkgY29ycmVjdGFtZW50ZSBhIGxhIHBlcnNvbmEgcXVlIHBvc2VhIGxvcyBkZXJlY2hvcyBkZSBhdXRvci4KCk5vIGVzdMOhIHBlcm1pdGlkbyBlbCB1c28gaW5kZWJpZG8gZGVsIHRyYWJham8gZGUgaW52ZXN0aWdhY2nDs24gY29uIGZpbmVzIGRlIGx1Y3JvIG8gY3VhbHF1aWVyIHRpcG8gZGUgYWN0aXZpZGFkIHF1ZSBwcm9kdXpjYSBnYW5hbmNpYXMgYSBsYXMgcGVyc29uYXMgcXVlIGxvIGRpZnVuZGVuIHNpbiBlbCBjb25zZW50aW1pZW50byBkZWwgYXV0b3IgKGF1dG9yIGxlZ2FsKS4KCkxvcyBkZXJlY2hvcyBtb3JhbGVzIGRlbCBhdXRvciBubyBzb24gYWZlY3RhZG9zIHBvciBsYSBwcmVzZW50ZSBsaWNlbmNpYSBkZSB1c28uCgpEZXJlY2hvcyBkZSBhdXRvcgoKTGEgdW5pdmVyc2lkYWQgbm8gcG9zZWUgbG9zIGRlcmVjaG9zIGRlIHByb3BpZWRhZCBpbnRlbGVjdHVhbC4gTG9zIGRlcmVjaG9zIGRlIGF1dG9yIHNlIGVuY3VlbnRyYW4gcHJvdGVnaWRvcyBwb3IgbGEgbGVnaXNsYWNpw7NuIHBlcnVhbmE6IExleSBzb2JyZSBlbCBEZXJlY2hvIGRlIEF1dG9yIHByb211bGdhZG8gZW4gMTk5NiAoRC5MLiBOwrA4MjIpLCBMZXkgcXVlIG1vZGlmaWNhIGxvcyBhcnTDrWN1bG9zIDE4OMKwIHkgMTg5wrAgZGVsIGRlY3JldG8gbGVnaXNsYXRpdm8gTsKwODIyLCBMZXkgc29icmUgZGVyZWNob3MgZGUgYXV0b3IgcHJvbXVsZ2FkbyBlbiAyMDA1IChMZXkgTsKwMjg1MTcpLCBEZWNyZXRvIExlZ2lzbGF0aXZvIHF1ZSBhcHJ1ZWJhIGxhIG1vZGlmaWNhY2nDs24gZGVsIERlY3JldG8gTGVnaXNsYXRpdm8gTsKwODIyLCBMZXkgc29icmUgZWwgRGVyZWNobyBkZSBBdXRvciBwcm9tdWxnYWRvIGVuIDIwMDggKEQuTC4gTsKwMTA3NikuCg==
score 13.95948
Nota importante:
La información contenida en este registro es de entera responsabilidad de la institución que gestiona el repositorio institucional donde esta contenido este documento o set de datos. El CONCYTEC no se hace responsable por los contenidos (publicaciones y/o datos) accesibles a través del Repositorio Nacional Digital de Ciencia, Tecnología e Innovación de Acceso Abierto (ALICIA).