Comparación de métodos de explicación del comportamiento de modelos de aprendizaje profundo en el procesamiento de imágenes digitales
Descripción del Articulo
Este estudio tuvo como objetivo comparar diferentes métodos de explicación del comportamiento de modelos de aprendizaje profundo en el procesamiento de imágenes digitales. Se implementaron tres métodos ampliamente reconocidos: Grad-CAM, LIME y Occlusion Sensitivity, aplicándolos a tres datasets dist...
Autores: | , |
---|---|
Formato: | tesis de grado |
Fecha de Publicación: | 2024 |
Institución: | Universidad Señor de Sipan |
Repositorio: | USS-Institucional |
Lenguaje: | español |
OAI Identifier: | oai:repositorio.uss.edu.pe:20.500.12802/13648 |
Enlace del recurso: | https://hdl.handle.net/20.500.12802/13648 |
Nivel de acceso: | acceso abierto |
Materia: | Aprendizaje profundo Explicabilidad de IA Procesamiento de imágenes Redes neuronales convolucionales Interpretabilidad de modelos https://purl.org/pe-repo/ocde/ford#2.02.04 |
Sumario: | Este estudio tuvo como objetivo comparar diferentes métodos de explicación del comportamiento de modelos de aprendizaje profundo en el procesamiento de imágenes digitales. Se implementaron tres métodos ampliamente reconocidos: Grad-CAM, LIME y Occlusion Sensitivity, aplicándolos a tres datasets distintos: Reusimat_USS_Dataset, Brain Tumor MRI Dataset y Pistachio Dataset. Los modelos de aprendizaje profundo utilizados fueron ResNet50, EfficientNetV2B0 y MobileNetV2. La efectividad de los métodos de explicación se evaluó mediante las métricas de fidelidad, monotonía y robustez. Los resultados mostraron que EfficientNetV2B0 alcanzó la mayor precisión (99%) en los datasets de tumores cerebrales y pistachos. Grad-CAM demostró alta monotonía en todos los datasets, mientras que LIME obtuvo la mayor fidelidad en el dataset Reusimat_USS. Occlusion Sensitivity mostró un rendimiento excepcional en los datasets de tumores cerebrales y pistachos, con alta fidelidad y robustez. Se concluyó que la efectividad de los métodos de explicación varía significativamente según el contexto y las características de los datos, subrayando la importancia de un enfoque adaptativo en la selección de métodos de explicación. Este estudio contribuye al avance de la explicabilidad en inteligencia artificial y sienta las bases para futuras investigaciones que busquen equilibrar el rendimiento de los modelos con su interpretabilidad. |
---|
Nota importante:
La información contenida en este registro es de entera responsabilidad de la institución que gestiona el repositorio institucional donde esta contenido este documento o set de datos. El CONCYTEC no se hace responsable por los contenidos (publicaciones y/o datos) accesibles a través del Repositorio Nacional Digital de Ciencia, Tecnología e Innovación de Acceso Abierto (ALICIA).
La información contenida en este registro es de entera responsabilidad de la institución que gestiona el repositorio institucional donde esta contenido este documento o set de datos. El CONCYTEC no se hace responsable por los contenidos (publicaciones y/o datos) accesibles a través del Repositorio Nacional Digital de Ciencia, Tecnología e Innovación de Acceso Abierto (ALICIA).