Técnica de explicabilidad basada en Integrated Gradients para redes neuronales convolucionales: Una revisión sistemática de la literatura

Descripción del Articulo

En los últimos años, la necesidad de modelos de inteligencia artificial explicable (XAI) ha cobrado especial relevancia, especialmente en dominios críticos como la medicina, donde las decisiones automatizadas deben ser interpretables. En este contexto, la técnica Integrated Gradients (IG) ha emergid...

Descripción completa

Detalles Bibliográficos
Autores: Rosillo Chinchay Kevin Brayan, Sosa Paz Luis Alonso
Formato: tesis de grado
Fecha de Publicación:2025
Institución:Universidad Señor de Sipan
Repositorio:USS-Institucional
Lenguaje:español
OAI Identifier:oai:repositorio.uss.edu.pe:20.500.12802/16133
Enlace del recurso:https://hdl.handle.net/20.500.12802/16133
Nivel de acceso:acceso abierto
Materia:Explicabilidad
Integrated Gradients
Redes neuronales convolucionales
Inteligencia artificial explicable
Interpretación de modelos
https://purl.org/pe-repo/ocde/ford#2.02.04
Descripción
Sumario:En los últimos años, la necesidad de modelos de inteligencia artificial explicable (XAI) ha cobrado especial relevancia, especialmente en dominios críticos como la medicina, donde las decisiones automatizadas deben ser interpretables. En este contexto, la técnica Integrated Gradients (IG) ha emergido como una herramienta efectiva para asignar importancia a las características de entrada en redes neuronales convolucionales (CNN). Esta investigación presenta una revisión sistemática de la literatura sobre el uso de IG como método de explicabilidad en CNN, con el objetivo de identificar sus aplicaciones, beneficios y limitaciones. A través del enfoque PRISMA, se analizaron 30 estudios seleccionados de bases de datos especializadas como IEEE Xplore, Scopus y Science Direct. Los hallazgos revelan que IG ha sido ampliamente adoptado en sectores como salud, finanzas, visión por computadora y educación, proporcionando interpretaciones visuales claras que mejoran la trazabilidad y confianza en los modelos. No obstante, se identifican desafíos como la dependencia del punto base baseline y la sensibilidad al ruido. Se concluye que IG representa un avance significativo en el campo de la IA explicable, aunque su implementación óptima requiere mayores estándares metodológicos. Este estudio proporciona una base sólida para futuras investigaciones orientadas a mejorar la transparencia en modelos de aprendizaje profundo.
Nota importante:
La información contenida en este registro es de entera responsabilidad de la institución que gestiona el repositorio institucional donde esta contenido este documento o set de datos. El CONCYTEC no se hace responsable por los contenidos (publicaciones y/o datos) accesibles a través del Repositorio Nacional Digital de Ciencia, Tecnología e Innovación de Acceso Abierto (ALICIA).