Revisión sistemática de métodos de explicabilidad basado en Based-Rules aplicadas a redes neuronales convoluciones para la detección de enfermedades
Descripción del Articulo
El presente estudio realiza una revisión sistemática de la literatura sobre métodos de explicabilidad basados en reglas aplicados a redes neuronales convolucionales (CNN) en el diagnóstico médico, con el objetivo de sintetizar enfoques, identificar limitaciones y proponer líneas de investigación fut...
Autores: | , |
---|---|
Formato: | tesis de grado |
Fecha de Publicación: | 2025 |
Institución: | Universidad Señor de Sipan |
Repositorio: | USS-Institucional |
Lenguaje: | español |
OAI Identifier: | oai:repositorio.uss.edu.pe:20.500.12802/15776 |
Enlace del recurso: | https://hdl.handle.net/20.500.12802/15776 |
Nivel de acceso: | acceso abierto |
Materia: | Explicabilidad basada en reglas Redes neuronales convolucionales Diagnóstico médico Inteligencia artificial explicable Revisión sistemática https://purl.org/pe-repo/ocde/ford#2.02.04 |
Sumario: | El presente estudio realiza una revisión sistemática de la literatura sobre métodos de explicabilidad basados en reglas aplicados a redes neuronales convolucionales (CNN) en el diagnóstico médico, con el objetivo de sintetizar enfoques, identificar limitaciones y proponer líneas de investigación futuras. La búsqueda bibliográfica se realizó en las bases de datos Scopus y Web of Science, siguiendo la metodología PRISMA, con ecuaciones diseñadas para recuperar artículos publicados entre 2001 y 2024, centrados en la detección o diagnóstico médico mediante CNN con explicabilidad basada en reglas. De un total de 406 registros iniciales, se aplicaron criterios de inclusión y exclusión, seleccionándose 62 estudios para el análisis. Los resultados muestran que los enfoques más frecuentes son modelos híbridos CNN+árboles de decisión o Random Forest, CNN+redes Bayesianas, técnicas con lógica difusa y frameworks end-to-end con módulos explicativos adaptados al usuario. Estos métodos presentan ventajas en interpretabilidad y, en varios casos, mantienen o mejoran el rendimiento diagnóstico respecto a CNN sin explicabilidad, aunque enfrentan desafíos como la fidelidad del modelo explicativo, la escalabilidad de las reglas, la integración con el flujo clínico y la validación en entornos reales. Se identifican como líneas de investigación futura la integración end-to-end de la generación de reglas, el uso de explicabilidad multimodal, la optimización de la complejidad de reglas y la adopción de lógicas avanzadas. Los hallazgos confirman que la explicabilidad basada en reglas es una alternativa prometedora para incrementar la transparencia y confiabilidad de las CNN en la práctica, siempre que se aborden sus limitaciones actuales. |
---|
Nota importante:
La información contenida en este registro es de entera responsabilidad de la institución que gestiona el repositorio institucional donde esta contenido este documento o set de datos. El CONCYTEC no se hace responsable por los contenidos (publicaciones y/o datos) accesibles a través del Repositorio Nacional Digital de Ciencia, Tecnología e Innovación de Acceso Abierto (ALICIA).
La información contenida en este registro es de entera responsabilidad de la institución que gestiona el repositorio institucional donde esta contenido este documento o set de datos. El CONCYTEC no se hace responsable por los contenidos (publicaciones y/o datos) accesibles a través del Repositorio Nacional Digital de Ciencia, Tecnología e Innovación de Acceso Abierto (ALICIA).