Métodos de explicabilidad local aplicados en la detección de enfermedades mediante redes neuronales convolucionales: Una revisión sistemática

Descripción del Articulo

La explicabilidad en la aplicación de detección de enfermedades se ha convertido en uno de los pilares fundamentales en la adopción clínica, la necesidad de interpretar las decisiones de los modelos de inteligencia artificial en el ámbito médico ha impulsado el desarrollo de métodos de explicabilida...

Descripción completa

Detalles Bibliográficos
Autores: Bernal Suclupe, David Gabriel, Linares Rubio, Romel
Formato: tesis de grado
Fecha de Publicación:2025
Institución:Universidad Señor de Sipan
Repositorio:USS-Institucional
Lenguaje:español
OAI Identifier:oai:repositorio.uss.edu.pe:20.500.12802/15793
Enlace del recurso:https://hdl.handle.net/20.500.12802/15793
Nivel de acceso:acceso abierto
Materia:Aprendizaje automático
Declaración PRISMA
Métodos de explicabilidad local
Redes neuronales convolucionales (CNN)
SHAP
Gradientes integrados
https://purl.org/pe-repo/ocde/ford#2.02.04
Descripción
Sumario:La explicabilidad en la aplicación de detección de enfermedades se ha convertido en uno de los pilares fundamentales en la adopción clínica, la necesidad de interpretar las decisiones de los modelos de inteligencia artificial en el ámbito médico ha impulsado el desarrollo de métodos de explicabilidad, especialmente ante el uso creciente de redes neuronales convolucionales (CNN) para la detección de enfermedades. Por ello la presente revisión sistemática tuvo como objetivo identificar, analizar y comparar los métodos de explicabilidad local aplicados en la interpretación de modelos CNN en imágenes médicas. Los hallazgos revelan un uso predominante de técnicas como LIME, Grad-CAM y SHAP en tareas de clasificación de patologías en áreas como dermatología, oftalmología y radiología, aunque su adopción clínica aún es limitada. Se concluye que es necesario el desarrollo de modelos más interpretables, validados clínicamente y con datasets más robustos, a fin de fortalecer la confianza y utilidad de la inteligencia artificial en contextos médicos reales
Nota importante:
La información contenida en este registro es de entera responsabilidad de la institución que gestiona el repositorio institucional donde esta contenido este documento o set de datos. El CONCYTEC no se hace responsable por los contenidos (publicaciones y/o datos) accesibles a través del Repositorio Nacional Digital de Ciencia, Tecnología e Innovación de Acceso Abierto (ALICIA).