Precisión de grandes modelos de lenguaje de inteligencia artificial (IA) al resolver el Examen Nacional de Odontología ENAO 2024
Descripción del Articulo
Introducción: La inteligencia artificial (IA) ha revolucionado diversas disciplinas, incluida la odontología. Los Grandes Modelos de Lenguaje han demostrado potencial en el procesamiento de información, pero su precisión en evaluaciones estandarizadas como el Examen Nacional de Odontología (ENAO) en...
Autor: | |
---|---|
Formato: | tesis de grado |
Fecha de Publicación: | 2025 |
Institución: | Universidad Peruana Cayetano Heredia |
Repositorio: | UPCH-Institucional |
Lenguaje: | español |
OAI Identifier: | oai:repositorio.upch.edu.pe:20.500.12866/17067 |
Enlace del recurso: | https://hdl.handle.net/20.500.12866/17067 |
Nivel de acceso: | acceso abierto |
Materia: | AI Perplexity Copilot Educación Dental ChatGPT Claude http://purl.org/pe-repo/ocde/ford#1.02.00 http://purl.org/pe-repo/ocde/ford#3.02.14 |
Sumario: | Introducción: La inteligencia artificial (IA) ha revolucionado diversas disciplinas, incluida la odontología. Los Grandes Modelos de Lenguaje han demostrado potencial en el procesamiento de información, pero su precisión en evaluaciones estandarizadas como el Examen Nacional de Odontología (ENAO) en Perú no ha sido ampliamente estudiada. Objetivo: Comparar la precisión de los modelos de IA Claude 3.5 Sonnet, ChatGPT-4o, Perplexity y Copilot en la resolución de preguntas del ENAO 2024. Métodos y Materiales: Estudio transversal. Fue realizado basado en 200 preguntas del solucionario oficial del ENAO 2024. Se incluyeron preguntas con redacción clara y única alternativa correcta, excluyendo aquellas incompletas o con errores. Las variables analizadas fueron los modelos de IA, áreas temáticas del ENAO 2024 y las preguntas del examen. Las respuestas generadas por los modelos de IA se compararon con el solucionario oficial del examen. Se utilizó la prueba Chi-cuadrado (p < 0.001). Resultados: ChatGPT-4o obtuvo la mayor precisión (93.5 %), seguido de Claude 3.5 Sonnet (89.5 %). Perplexity y Copilot alcanzaron un desempeño inferior y similar (77 %). La mayor precisión se observó en especialidades como Investigación y Gerencia de Servicios de Salud, mientras que la menor se registró en Endodoncia y Rehabilitación Oral. Conclusión: Los modelos de IA lograron aprobar el ENAO 2024, destacando en preguntas teóricas, pero con menor precisión en áreas clínicas. ChatGPT-4o y Claude 3.5 Sonnet demostraron mejor desempeño, lo que sugiere su potencial como herramientas complementarias en la educación odontológica. |
---|
Nota importante:
La información contenida en este registro es de entera responsabilidad de la institución que gestiona el repositorio institucional donde esta contenido este documento o set de datos. El CONCYTEC no se hace responsable por los contenidos (publicaciones y/o datos) accesibles a través del Repositorio Nacional Digital de Ciencia, Tecnología e Innovación de Acceso Abierto (ALICIA).
La información contenida en este registro es de entera responsabilidad de la institución que gestiona el repositorio institucional donde esta contenido este documento o set de datos. El CONCYTEC no se hace responsable por los contenidos (publicaciones y/o datos) accesibles a través del Repositorio Nacional Digital de Ciencia, Tecnología e Innovación de Acceso Abierto (ALICIA).