Técnica de explicabilidad basada en GradCam++ para redes neuronales convolucionales: Una revisión sistemática de la literatura
Descripción del Articulo
Esta investigación presentó una revisión sistemática de la literatura sobre el método GradCAM++ en redes neuronales convolucionales (CNN), aplicado al diagnóstico médico. El propósito fue sintetizar los avances recientes, identificar limitaciones y proponer futuras líneas de investigación. La búsque...
Autores: | , |
---|---|
Formato: | tesis de grado |
Fecha de Publicación: | 2025 |
Institución: | Universidad Señor de Sipan |
Repositorio: | USS-Institucional |
Lenguaje: | español |
OAI Identifier: | oai:repositorio.uss.edu.pe:20.500.12802/15856 |
Enlace del recurso: | https://hdl.handle.net/20.500.12802/15856 |
Nivel de acceso: | acceso abierto |
Materia: | Grad-CAM++ Redes neuronales convolucionales (CNN) Explicabilidad en inteligencia artificial (IA) Diagnóstico médico asistido por computadora Revisión sistemática https://purl.org/pe-repo/ocde/ford#2.02.04 |
Sumario: | Esta investigación presentó una revisión sistemática de la literatura sobre el método GradCAM++ en redes neuronales convolucionales (CNN), aplicado al diagnóstico médico. El propósito fue sintetizar los avances recientes, identificar limitaciones y proponer futuras líneas de investigación. La búsqueda se realizó en Scopus y Web of Science siguiendo el método PRISMA, empleando ecuaciones de búsqueda diseñadas para identificar artículos publicados entre 2020 y 2025 relacionados con la identificación o diagnóstico médico mediante CNN y Grad-CAM++. De un total de 390 registros iniciales se seleccionaron 51 estudios tras aplicar criterios de inclusión y exclusión. Los resultados mostraron que Grad-CAM++ se utilizó principalmente para identificar regiones críticas en imágenes médicas, corroborar diagnósticos y generar mapas de calor interpretables que contribuyeron a explicar las decisiones de las redes. Estas aportaciones fortalecieron la confianza en los sistemas de inteligencia artificial (IA) sin comprometer el rendimiento respecto de CNN no explicables. No obstante, persistieron desafíos como la ausencia de métricas estandarizadas, la fidelidad de los mapas generados, su integración en entornos clínicos rutinarios y la validación multicéntrica. Finalmente, se recomendó que futuras investigaciones se orientaran hacia la integración multimodal, la optimización de algoritmos para mayor resolución, su aplicación en diagnósticos en tiempo real y la combinación con otros enfoques de explicabilidad. |
---|
Nota importante:
La información contenida en este registro es de entera responsabilidad de la institución que gestiona el repositorio institucional donde esta contenido este documento o set de datos. El CONCYTEC no se hace responsable por los contenidos (publicaciones y/o datos) accesibles a través del Repositorio Nacional Digital de Ciencia, Tecnología e Innovación de Acceso Abierto (ALICIA).
La información contenida en este registro es de entera responsabilidad de la institución que gestiona el repositorio institucional donde esta contenido este documento o set de datos. El CONCYTEC no se hace responsable por los contenidos (publicaciones y/o datos) accesibles a través del Repositorio Nacional Digital de Ciencia, Tecnología e Innovación de Acceso Abierto (ALICIA).