Estudio comparativo de métodos de explicabilidad en modelos de clasificación de decisiones en apelaciones judiciales en INDECOPI

Descripción del Articulo

El presente estudio explora la implementación de modelos de Inteligencia Artificial Explicable (XAI) para mejorar la eficiencia y transparencia en la resolución de apelaciones en el Instituto Nacional de Defensa de la Competencia y de la Protección de la Propiedad Intelectual (INDECOPI). Actualmente...

Descripción completa

Detalles Bibliográficos
Autor: Tito Lavi, Martín Flavio
Formato: tesis de maestría
Fecha de Publicación:2024
Institución:Universidad de Ingeniería y tecnología
Repositorio:UTEC-Institucional
Lenguaje:español
OAI Identifier:oai:repositorio.utec.edu.pe:20.500.12815/526
Enlace del recurso:https://hdl.handle.net/20.500.12815/526
Nivel de acceso:acceso abierto
Materia:Inteligencia artificial
Administración pública
Procesamiento del lenguaje natural
Toma de decisiones
Artificial Intelligence
Public administration
Natural language processing
Decision making
https://purl.org/pe-repo/ocde/ford#1.02.02
Descripción
Sumario:El presente estudio explora la implementación de modelos de Inteligencia Artificial Explicable (XAI) para mejorar la eficiencia y transparencia en la resolución de apelaciones en el Instituto Nacional de Defensa de la Competencia y de la Protección de la Propiedad Intelectual (INDECOPI). Actualmente, el proceso manual de revisión de apelaciones en INDECOPI es lento y enfrenta una alta carga procesal. Con el fin de optimizar el tiempo de respuesta y mantener la confianza en las decisiones automatizadas, este estudio propone un sistema de clasificación explicable que permite reducir el tiempo de resolución en segunda instancia, asegurando además la claridad en la interpretación de los resultados. Se desarrollaron e implementaron modelos de clasificación que emplean técnicas avanzadas de procesamiento de lenguaje natural (NLP) y de XAI, permitiendo interpretar las decisiones de los algoritmos y evaluar métricas de precisión, recall y calidad de la explicación. Los resultados muestran que la adopción de este sistema puede acelerar considerablemente el tiempo de resolución de apelaciones en comparación con el proceso manual, manteniendo la transparencia en cada decisión. Este trabajo demuestra cómo la IA explicable puede ser aplicada en la gestión pública para mejorar la eficiencia en procesos críticos y fomentar la aceptación de sistemas de IA en la administración de justicia.
Nota importante:
La información contenida en este registro es de entera responsabilidad de la institución que gestiona el repositorio institucional donde esta contenido este documento o set de datos. El CONCYTEC no se hace responsable por los contenidos (publicaciones y/o datos) accesibles a través del Repositorio Nacional Digital de Ciencia, Tecnología e Innovación de Acceso Abierto (ALICIA).