Revisión sistemática de técnicas de explicabilidad visual aplicadas en redes neuronales convolucionales para el diagnóstico de enfermedades a partir de imágenes biomédicas
Descripción del Articulo
Los algoritmos de modelos de redes neuronales convolucionales (CNN) sobresalen por su capacidad de procesar imágenes médicas, detectando patrones que para el ojo humano son imperceptibles, pero estos algoritmos no muestran el proceso del diagnóstico generando desconfianza en su aplicación en el área...
| Autores: | , |
|---|---|
| Formato: | tesis de grado |
| Fecha de Publicación: | 2025 |
| Institución: | Universidad Señor de Sipan |
| Repositorio: | USS-Institucional |
| Lenguaje: | español |
| OAI Identifier: | oai:repositorio.uss.edu.pe:20.500.12802/16125 |
| Enlace del recurso: | https://hdl.handle.net/20.500.12802/16125 |
| Nivel de acceso: | acceso abierto |
| Materia: | Explicabilidad visual Transparencia Redes neuronales convolucionales Diagnóstico médico PRISMA Statement https://purl.org/pe-repo/ocde/ford#2.02.04 |
| Sumario: | Los algoritmos de modelos de redes neuronales convolucionales (CNN) sobresalen por su capacidad de procesar imágenes médicas, detectando patrones que para el ojo humano son imperceptibles, pero estos algoritmos no muestran el proceso del diagnóstico generando desconfianza en su aplicación en el área médica, por tal motivo se han desarrollado técnicas de explicabilidad que buscan transparentar el proceso de decisión de estos algoritmos. El objetivo de este estudio es analizar las técnicas de explicabilidad visual que contribuyen a la transparencia de diagnósticos generados por imágenes biomédicas mediante CNN. Para ello, se desarrolló una revisión sistemática bajo la metodología PRISMA, considerando 40 estudios extraídos de bases de datos científicas como Scopus y ScienceDirect, tras aplicar criterios de inclusión y exclusión. La revisión se centró en tres aspectos principales: la selección de técnicas relevantes, la evaluación del nivel de transparencia y la identificación de limitaciones. GRAD-CAM, SHAP y LIME surgen como las técnicas más destacadas por su capacidad para brindar explicaciones detalladas. Sin embargo, se identificaron limitaciones, como la elevada complejidad computacional de SHAP, la dependencia de GRAD-CAM del modelo base y la variabilidad de resultados en LIME, que limitan su implementación en entornos médicos reales. Este estudio también menciona la necesidad de elaborar herramientas más eficientes y accesibles, pudiendo establecer métricas estándar de explicabilidad que permitan una evaluación consistente. Los hallazgos y recomendaciones proporcionan una base sólida para futuras investigaciones orientadas a integrar técnicas de explicabilidad visual en la práctica clínica de manera ética y efectiva. |
|---|
Nota importante:
La información contenida en este registro es de entera responsabilidad de la institución que gestiona el repositorio institucional donde esta contenido este documento o set de datos. El CONCYTEC no se hace responsable por los contenidos (publicaciones y/o datos) accesibles a través del Repositorio Nacional Digital de Ciencia, Tecnología e Innovación de Acceso Abierto (ALICIA).
La información contenida en este registro es de entera responsabilidad de la institución que gestiona el repositorio institucional donde esta contenido este documento o set de datos. El CONCYTEC no se hace responsable por los contenidos (publicaciones y/o datos) accesibles a través del Repositorio Nacional Digital de Ciencia, Tecnología e Innovación de Acceso Abierto (ALICIA).