Revisión sistemática de técnicas de explicabilidad visual aplicadas en redes neuronales convolucionales para el diagnóstico de enfermedades a partir de imágenes biomédicas

Descripción del Articulo

Los algoritmos de modelos de redes neuronales convolucionales (CNN) sobresalen por su capacidad de procesar imágenes médicas, detectando patrones que para el ojo humano son imperceptibles, pero estos algoritmos no muestran el proceso del diagnóstico generando desconfianza en su aplicación en el área...

Descripción completa

Detalles Bibliográficos
Autores: Espinoza Seclen, Alba Guadalupe, Vasquez Suarez, Nemias David
Formato: tesis de grado
Fecha de Publicación:2025
Institución:Universidad Señor de Sipan
Repositorio:USS-Institucional
Lenguaje:español
OAI Identifier:oai:repositorio.uss.edu.pe:20.500.12802/16125
Enlace del recurso:https://hdl.handle.net/20.500.12802/16125
Nivel de acceso:acceso abierto
Materia:Explicabilidad visual
Transparencia
Redes neuronales convolucionales
Diagnóstico médico
PRISMA Statement
https://purl.org/pe-repo/ocde/ford#2.02.04
Descripción
Sumario:Los algoritmos de modelos de redes neuronales convolucionales (CNN) sobresalen por su capacidad de procesar imágenes médicas, detectando patrones que para el ojo humano son imperceptibles, pero estos algoritmos no muestran el proceso del diagnóstico generando desconfianza en su aplicación en el área médica, por tal motivo se han desarrollado técnicas de explicabilidad que buscan transparentar el proceso de decisión de estos algoritmos. El objetivo de este estudio es analizar las técnicas de explicabilidad visual que contribuyen a la transparencia de diagnósticos generados por imágenes biomédicas mediante CNN. Para ello, se desarrolló una revisión sistemática bajo la metodología PRISMA, considerando 40 estudios extraídos de bases de datos científicas como Scopus y ScienceDirect, tras aplicar criterios de inclusión y exclusión. La revisión se centró en tres aspectos principales: la selección de técnicas relevantes, la evaluación del nivel de transparencia y la identificación de limitaciones. GRAD-CAM, SHAP y LIME surgen como las técnicas más destacadas por su capacidad para brindar explicaciones detalladas. Sin embargo, se identificaron limitaciones, como la elevada complejidad computacional de SHAP, la dependencia de GRAD-CAM del modelo base y la variabilidad de resultados en LIME, que limitan su implementación en entornos médicos reales. Este estudio también menciona la necesidad de elaborar herramientas más eficientes y accesibles, pudiendo establecer métricas estándar de explicabilidad que permitan una evaluación consistente. Los hallazgos y recomendaciones proporcionan una base sólida para futuras investigaciones orientadas a integrar técnicas de explicabilidad visual en la práctica clínica de manera ética y efectiva.
Nota importante:
La información contenida en este registro es de entera responsabilidad de la institución que gestiona el repositorio institucional donde esta contenido este documento o set de datos. El CONCYTEC no se hace responsable por los contenidos (publicaciones y/o datos) accesibles a través del Repositorio Nacional Digital de Ciencia, Tecnología e Innovación de Acceso Abierto (ALICIA).