1
tesis de grado
Publicado 2025
Enlace

La explicabilidad en la aplicación de detección de enfermedades se ha convertido en uno de los pilares fundamentales en la adopción clínica, la necesidad de interpretar las decisiones de los modelos de inteligencia artificial en el ámbito médico ha impulsado el desarrollo de métodos de explicabilidad, especialmente ante el uso creciente de redes neuronales convolucionales (CNN) para la detección de enfermedades. Por ello la presente revisión sistemática tuvo como objetivo identificar, analizar y comparar los métodos de explicabilidad local aplicados en la interpretación de modelos CNN en imágenes médicas. Los hallazgos revelan un uso predominante de técnicas como LIME, Grad-CAM y SHAP en tareas de clasificación de patologías en áreas como dermatología, oftalmología y radiología, aunque su adopción clínica aún es limitada. Se concluye que es necesario el desarrollo...