Técnica de explicabilidad basada en Integrated Gradients para redes neuronales convolucionales: Una revisión sistemática de la literatura
Descripción del Articulo
En los últimos años, la necesidad de modelos de inteligencia artificial explicable (XAI) ha cobrado especial relevancia, especialmente en dominios críticos como la medicina, donde las decisiones automatizadas deben ser interpretables. En este contexto, la técnica Integrated Gradients (IG) ha emergid...
| Autores: | , |
|---|---|
| Formato: | tesis de grado |
| Fecha de Publicación: | 2025 |
| Institución: | Universidad Señor de Sipan |
| Repositorio: | USS-Institucional |
| Lenguaje: | español |
| OAI Identifier: | oai:repositorio.uss.edu.pe:20.500.12802/16133 |
| Enlace del recurso: | https://hdl.handle.net/20.500.12802/16133 |
| Nivel de acceso: | acceso abierto |
| Materia: | Explicabilidad Integrated Gradients Redes neuronales convolucionales Inteligencia artificial explicable Interpretación de modelos https://purl.org/pe-repo/ocde/ford#2.02.04 |
| Sumario: | En los últimos años, la necesidad de modelos de inteligencia artificial explicable (XAI) ha cobrado especial relevancia, especialmente en dominios críticos como la medicina, donde las decisiones automatizadas deben ser interpretables. En este contexto, la técnica Integrated Gradients (IG) ha emergido como una herramienta efectiva para asignar importancia a las características de entrada en redes neuronales convolucionales (CNN). Esta investigación presenta una revisión sistemática de la literatura sobre el uso de IG como método de explicabilidad en CNN, con el objetivo de identificar sus aplicaciones, beneficios y limitaciones. A través del enfoque PRISMA, se analizaron 30 estudios seleccionados de bases de datos especializadas como IEEE Xplore, Scopus y Science Direct. Los hallazgos revelan que IG ha sido ampliamente adoptado en sectores como salud, finanzas, visión por computadora y educación, proporcionando interpretaciones visuales claras que mejoran la trazabilidad y confianza en los modelos. No obstante, se identifican desafíos como la dependencia del punto base baseline y la sensibilidad al ruido. Se concluye que IG representa un avance significativo en el campo de la IA explicable, aunque su implementación óptima requiere mayores estándares metodológicos. Este estudio proporciona una base sólida para futuras investigaciones orientadas a mejorar la transparencia en modelos de aprendizaje profundo. |
|---|
Nota importante:
La información contenida en este registro es de entera responsabilidad de la institución que gestiona el repositorio institucional donde esta contenido este documento o set de datos. El CONCYTEC no se hace responsable por los contenidos (publicaciones y/o datos) accesibles a través del Repositorio Nacional Digital de Ciencia, Tecnología e Innovación de Acceso Abierto (ALICIA).
La información contenida en este registro es de entera responsabilidad de la institución que gestiona el repositorio institucional donde esta contenido este documento o set de datos. El CONCYTEC no se hace responsable por los contenidos (publicaciones y/o datos) accesibles a través del Repositorio Nacional Digital de Ciencia, Tecnología e Innovación de Acceso Abierto (ALICIA).