Técnica de explicabilidad basada en GradCam++ para redes neuronales convolucionales: Una revisión sistemática de la literatura

Descripción del Articulo

Esta investigación presentó una revisión sistemática de la literatura sobre el método GradCAM++ en redes neuronales convolucionales (CNN), aplicado al diagnóstico médico. El propósito fue sintetizar los avances recientes, identificar limitaciones y proponer futuras líneas de investigación. La búsque...

Descripción completa

Detalles Bibliográficos
Autores: Huancas Remaycuna, Duberlith, Malhaber Mimbela, Nelson Alberto
Formato: tesis de grado
Fecha de Publicación:2025
Institución:Universidad Señor de Sipan
Repositorio:USS-Institucional
Lenguaje:español
OAI Identifier:oai:repositorio.uss.edu.pe:20.500.12802/15856
Enlace del recurso:https://hdl.handle.net/20.500.12802/15856
Nivel de acceso:acceso abierto
Materia:Grad-CAM++
Redes neuronales convolucionales (CNN)
Explicabilidad en inteligencia artificial (IA)
Diagnóstico médico asistido por computadora
Revisión sistemática
https://purl.org/pe-repo/ocde/ford#2.02.04
Descripción
Sumario:Esta investigación presentó una revisión sistemática de la literatura sobre el método GradCAM++ en redes neuronales convolucionales (CNN), aplicado al diagnóstico médico. El propósito fue sintetizar los avances recientes, identificar limitaciones y proponer futuras líneas de investigación. La búsqueda se realizó en Scopus y Web of Science siguiendo el método PRISMA, empleando ecuaciones de búsqueda diseñadas para identificar artículos publicados entre 2020 y 2025 relacionados con la identificación o diagnóstico médico mediante CNN y Grad-CAM++. De un total de 390 registros iniciales se seleccionaron 51 estudios tras aplicar criterios de inclusión y exclusión. Los resultados mostraron que Grad-CAM++ se utilizó principalmente para identificar regiones críticas en imágenes médicas, corroborar diagnósticos y generar mapas de calor interpretables que contribuyeron a explicar las decisiones de las redes. Estas aportaciones fortalecieron la confianza en los sistemas de inteligencia artificial (IA) sin comprometer el rendimiento respecto de CNN no explicables. No obstante, persistieron desafíos como la ausencia de métricas estandarizadas, la fidelidad de los mapas generados, su integración en entornos clínicos rutinarios y la validación multicéntrica. Finalmente, se recomendó que futuras investigaciones se orientaran hacia la integración multimodal, la optimización de algoritmos para mayor resolución, su aplicación en diagnósticos en tiempo real y la combinación con otros enfoques de explicabilidad.
Nota importante:
La información contenida en este registro es de entera responsabilidad de la institución que gestiona el repositorio institucional donde esta contenido este documento o set de datos. El CONCYTEC no se hace responsable por los contenidos (publicaciones y/o datos) accesibles a través del Repositorio Nacional Digital de Ciencia, Tecnología e Innovación de Acceso Abierto (ALICIA).