Exportación Completada — 

Revisión sistemática de métodos de explicabilidad basado en Based-Rules aplicadas a redes neuronales convoluciones para la detección de enfermedades

Descripción del Articulo

El presente estudio realiza una revisión sistemática de la literatura sobre métodos de explicabilidad basados en reglas aplicados a redes neuronales convolucionales (CNN) en el diagnóstico médico, con el objetivo de sintetizar enfoques, identificar limitaciones y proponer líneas de investigación fut...

Descripción completa

Detalles Bibliográficos
Autores: Maza Huaman, Jorge Alexander, Rodas Vigo, Manuel Oswaldo
Formato: tesis de grado
Fecha de Publicación:2025
Institución:Universidad Señor de Sipan
Repositorio:USS-Institucional
Lenguaje:español
OAI Identifier:oai:repositorio.uss.edu.pe:20.500.12802/15776
Enlace del recurso:https://hdl.handle.net/20.500.12802/15776
Nivel de acceso:acceso abierto
Materia:Explicabilidad basada en reglas
Redes neuronales convolucionales
Diagnóstico médico
Inteligencia artificial explicable
Revisión sistemática
https://purl.org/pe-repo/ocde/ford#2.02.04
Descripción
Sumario:El presente estudio realiza una revisión sistemática de la literatura sobre métodos de explicabilidad basados en reglas aplicados a redes neuronales convolucionales (CNN) en el diagnóstico médico, con el objetivo de sintetizar enfoques, identificar limitaciones y proponer líneas de investigación futuras. La búsqueda bibliográfica se realizó en las bases de datos Scopus y Web of Science, siguiendo la metodología PRISMA, con ecuaciones diseñadas para recuperar artículos publicados entre 2001 y 2024, centrados en la detección o diagnóstico médico mediante CNN con explicabilidad basada en reglas. De un total de 406 registros iniciales, se aplicaron criterios de inclusión y exclusión, seleccionándose 62 estudios para el análisis. Los resultados muestran que los enfoques más frecuentes son modelos híbridos CNN+árboles de decisión o Random Forest, CNN+redes Bayesianas, técnicas con lógica difusa y frameworks end-to-end con módulos explicativos adaptados al usuario. Estos métodos presentan ventajas en interpretabilidad y, en varios casos, mantienen o mejoran el rendimiento diagnóstico respecto a CNN sin explicabilidad, aunque enfrentan desafíos como la fidelidad del modelo explicativo, la escalabilidad de las reglas, la integración con el flujo clínico y la validación en entornos reales. Se identifican como líneas de investigación futura la integración end-to-end de la generación de reglas, el uso de explicabilidad multimodal, la optimización de la complejidad de reglas y la adopción de lógicas avanzadas. Los hallazgos confirman que la explicabilidad basada en reglas es una alternativa prometedora para incrementar la transparencia y confiabilidad de las CNN en la práctica, siempre que se aborden sus limitaciones actuales.
Nota importante:
La información contenida en este registro es de entera responsabilidad de la institución que gestiona el repositorio institucional donde esta contenido este documento o set de datos. El CONCYTEC no se hace responsable por los contenidos (publicaciones y/o datos) accesibles a través del Repositorio Nacional Digital de Ciencia, Tecnología e Innovación de Acceso Abierto (ALICIA).