Estudio comparativo de métodos de explicabilidad en modelos de clasificación de decisiones en apelaciones judiciales en INDECOPI
Descripción del Articulo
El presente estudio explora la implementación de modelos de Inteligencia Artificial Explicable (XAI) para mejorar la eficiencia y transparencia en la resolución de apelaciones en el Instituto Nacional de Defensa de la Competencia y de la Protección de la Propiedad Intelectual (INDECOPI). Actualmente...
| Autor: | |
|---|---|
| Formato: | tesis de maestría |
| Fecha de Publicación: | 2024 |
| Institución: | Universidad de Ingeniería y tecnología |
| Repositorio: | UTEC-Institucional |
| Lenguaje: | español |
| OAI Identifier: | oai:repositorio.utec.edu.pe:20.500.12815/526 |
| Enlace del recurso: | https://hdl.handle.net/20.500.12815/526 |
| Nivel de acceso: | acceso abierto |
| Materia: | Inteligencia artificial Administración pública Procesamiento del lenguaje natural Toma de decisiones Artificial Intelligence Public administration Natural language processing Decision making https://purl.org/pe-repo/ocde/ford#1.02.02 |
| Sumario: | El presente estudio explora la implementación de modelos de Inteligencia Artificial Explicable (XAI) para mejorar la eficiencia y transparencia en la resolución de apelaciones en el Instituto Nacional de Defensa de la Competencia y de la Protección de la Propiedad Intelectual (INDECOPI). Actualmente, el proceso manual de revisión de apelaciones en INDECOPI es lento y enfrenta una alta carga procesal. Con el fin de optimizar el tiempo de respuesta y mantener la confianza en las decisiones automatizadas, este estudio propone un sistema de clasificación explicable que permite reducir el tiempo de resolución en segunda instancia, asegurando además la claridad en la interpretación de los resultados. Se desarrollaron e implementaron modelos de clasificación que emplean técnicas avanzadas de procesamiento de lenguaje natural (NLP) y de XAI, permitiendo interpretar las decisiones de los algoritmos y evaluar métricas de precisión, recall y calidad de la explicación. Los resultados muestran que la adopción de este sistema puede acelerar considerablemente el tiempo de resolución de apelaciones en comparación con el proceso manual, manteniendo la transparencia en cada decisión. Este trabajo demuestra cómo la IA explicable puede ser aplicada en la gestión pública para mejorar la eficiencia en procesos críticos y fomentar la aceptación de sistemas de IA en la administración de justicia. |
|---|
Nota importante:
La información contenida en este registro es de entera responsabilidad de la institución que gestiona el repositorio institucional donde esta contenido este documento o set de datos. El CONCYTEC no se hace responsable por los contenidos (publicaciones y/o datos) accesibles a través del Repositorio Nacional Digital de Ciencia, Tecnología e Innovación de Acceso Abierto (ALICIA).
La información contenida en este registro es de entera responsabilidad de la institución que gestiona el repositorio institucional donde esta contenido este documento o set de datos. El CONCYTEC no se hace responsable por los contenidos (publicaciones y/o datos) accesibles a través del Repositorio Nacional Digital de Ciencia, Tecnología e Innovación de Acceso Abierto (ALICIA).