Análisis del algoritmo FISTA orientado a mejorar la velocidad de convergencia

Descripción del Articulo

Los problemas lineales inversos existen en numerosas ramas de la ciencia e ingeniería, lo cual genera la necesidad de definir algoritmos de solución e cientes, que requieran poco costo computacional y converjan en el menor número de iteraciones. Se desea recuperar información original a la cual no s...

Descripción completa

Detalles Bibliográficos
Autor: Rámirez Orihuela, Gabriel
Formato: tesis de grado
Fecha de Publicación:2022
Institución:Pontificia Universidad Católica del Perú
Repositorio:PUCP-Tesis
Lenguaje:español
OAI Identifier:oai:tesis.pucp.edu.pe:20.500.12404/21767
Enlace del recurso:http://hdl.handle.net/20.500.12404/21767
Nivel de acceso:acceso abierto
Materia:Algoritmos
Procesamiento de datos
Procesamiento de imágenes
https://purl.org/pe-repo/ocde/ford#2.02.01
Descripción
Sumario:Los problemas lineales inversos existen en numerosas ramas de la ciencia e ingeniería, lo cual genera la necesidad de definir algoritmos de solución e cientes, que requieran poco costo computacional y converjan en el menor número de iteraciones. Se desea recuperar información original a la cual no se tiene acceso lo más similarmente posible y con dimensiones reducidas, produciendo así una disminución en el uso de recursos computacionales y por ende en el tiempo de ejecución. Esto es de particular importancia debido a que el tamaño de las señales se encuentra en constante aumento y su manipulación puede resultar muy costosa. Se estudia el algoritmo de optimización de primer orden FISTA (Fast Iterative Shrinkage-Thresholding Algorithm), el cual es utilizado en problemas inversos cuya solución se resume a la minimización de funciones convexas empleando información de la gradiente y de iteraciones previas. En este contexto, se analizan métodos que buscan la optimización del algoritmo por medio de tamaños de paso adaptativos para delimitar el paso de la gradiente y una mejor solución inicial mediante la reducción de dimensiones a través de las técnicas conocidas como Screening y Warm Start, produciendo así datos más sparse. Además, se comprueba la e cacia de los métodos desarrollados por medio de un algoritmo generalizado, en el cual son evaluados datos aleatorios generados sintéticamente e imágenes, con el n de obtener la mejor tasa de convergencia.
Nota importante:
La información contenida en este registro es de entera responsabilidad de la institución que gestiona el repositorio institucional donde esta contenido este documento o set de datos. El CONCYTEC no se hace responsable por los contenidos (publicaciones y/o datos) accesibles a través del Repositorio Nacional Digital de Ciencia, Tecnología e Innovación de Acceso Abierto (ALICIA).