Métodos de regularización LASSO y LARS para el modelo de regresión lineal general

Descripción del Articulo

Frecuentemente, existen muchas variables predictoras en el modelo de regresión lineal general, esto debido a que en la actualidad se almacena grandes cantidades de datos gracias a los avances tecnológicos, entonces surge el problema común de elegir las variables a incluir en el modelo de forma adecu...

Descripción completa

Detalles Bibliográficos
Autor: Mamani Ccalla, Maria Elena
Formato: tesis de grado
Fecha de Publicación:2022
Institución:Universidad Nacional de San Agustín
Repositorio:UNSA-Institucional
Lenguaje:español
OAI Identifier:oai:repositorio.unsa.edu.pe:20.500.12773/14717
Enlace del recurso:http://hdl.handle.net/20.500.12773/14717
Nivel de acceso:acceso abierto
Materia:Selección de variables
Regularización Ridge y LASSO
Método LARS
https://purl.org/pe-repo/ocde/ford#1.01.03
id UNSA_88024ce1c68a7b83e0fb64fe690acb4e
oai_identifier_str oai:repositorio.unsa.edu.pe:20.500.12773/14717
network_acronym_str UNSA
network_name_str UNSA-Institucional
repository_id_str 4847
dc.title.es_PE.fl_str_mv Métodos de regularización LASSO y LARS para el modelo de regresión lineal general
title Métodos de regularización LASSO y LARS para el modelo de regresión lineal general
spellingShingle Métodos de regularización LASSO y LARS para el modelo de regresión lineal general
Mamani Ccalla, Maria Elena
Selección de variables
Regularización Ridge y LASSO
Método LARS
https://purl.org/pe-repo/ocde/ford#1.01.03
title_short Métodos de regularización LASSO y LARS para el modelo de regresión lineal general
title_full Métodos de regularización LASSO y LARS para el modelo de regresión lineal general
title_fullStr Métodos de regularización LASSO y LARS para el modelo de regresión lineal general
title_full_unstemmed Métodos de regularización LASSO y LARS para el modelo de regresión lineal general
title_sort Métodos de regularización LASSO y LARS para el modelo de regresión lineal general
author Mamani Ccalla, Maria Elena
author_facet Mamani Ccalla, Maria Elena
author_role author
dc.contributor.advisor.fl_str_mv Bernedo Gonzales, Jhon Franky
dc.contributor.author.fl_str_mv Mamani Ccalla, Maria Elena
dc.subject.es_PE.fl_str_mv Selección de variables
Regularización Ridge y LASSO
Método LARS
topic Selección de variables
Regularización Ridge y LASSO
Método LARS
https://purl.org/pe-repo/ocde/ford#1.01.03
dc.subject.ocde.es_PE.fl_str_mv https://purl.org/pe-repo/ocde/ford#1.01.03
description Frecuentemente, existen muchas variables predictoras en el modelo de regresión lineal general, esto debido a que en la actualidad se almacena grandes cantidades de datos gracias a los avances tecnológicos, entonces surge el problema común de elegir las variables a incluir en el modelo de forma adecuada. Por eso el presente trabajo tiene como objetivo analizar los métodos de selección y regularización de variables en el modelo de regresión lineal general n y luego aplicarlos a dos casos particulares en la cantidad de observaciones en el número de variables p disponibles con la ayuda del software R Studio. Los métodos de selección tales como, selección del mejor subconjunto (BSS), selección hacia adelante (forward) y selección hacia atrás (backward) se basan en reducir el número de variables que interviene en el modelo de manera secuencial, incluyendo o excluyendo una variable en cada paso de acuerdo algún criterio establecido. Mientras que los métodos de regularización Ridge y LASSO se basan en reducir el número de variables imponiendo una restricción o penalización sobre los coeficientes de regresión, que obligará a que estos se contraigan a cero o incluso algunos coeficientes sean cero. Esta penalización hace que estos métodos se comporten como un problema de optimización, a diferencia del método Ridge que presenta una solución explicita, para resolver el problema de optimización LASSO (Operador de selección y contracción de mínimo absoluto) se presenta dos métodos, el método de descenso coordenado cíclico y el método LARS (Regresión de ángulo mínimo), el cual permite resolver el problema LASSO de una manera más simple haciendo que el coste computacional sea menor que el del método LASSO. Por último, se realiza una comparación de todos los modelos según el MSE de cada uno, obtenido mediante la validación cruzada para comprobar su validez predictiva.
publishDate 2022
dc.date.accessioned.none.fl_str_mv 2022-09-15T15:02:44Z
dc.date.available.none.fl_str_mv 2022-09-15T15:02:44Z
dc.date.issued.fl_str_mv 2022
dc.type.es_PE.fl_str_mv info:eu-repo/semantics/bachelorThesis
format bachelorThesis
dc.identifier.uri.none.fl_str_mv http://hdl.handle.net/20.500.12773/14717
url http://hdl.handle.net/20.500.12773/14717
dc.language.iso.es_PE.fl_str_mv spa
language spa
dc.relation.ispartof.fl_str_mv SUNEDU
dc.rights.es_PE.fl_str_mv info:eu-repo/semantics/openAccess
dc.rights.uri.es_PE.fl_str_mv http://creativecommons.org/licenses/by-nc-nd/4.0/
eu_rights_str_mv openAccess
rights_invalid_str_mv http://creativecommons.org/licenses/by-nc-nd/4.0/
dc.format.es_PE.fl_str_mv application/pdf
dc.publisher.es_PE.fl_str_mv Universidad Nacional de San Agustín de Arequipa
dc.publisher.country.es_PE.fl_str_mv PE
dc.source.es_PE.fl_str_mv Universidad Nacional de San Agustín de Arequipa
Repositorio Institucional - UNSA
dc.source.none.fl_str_mv reponame:UNSA-Institucional
instname:Universidad Nacional de San Agustín
instacron:UNSA
instname_str Universidad Nacional de San Agustín
instacron_str UNSA
institution UNSA
reponame_str UNSA-Institucional
collection UNSA-Institucional
bitstream.url.fl_str_mv https://repositorio.unsa.edu.pe/bitstreams/aa3d67f5-68ea-43fc-8539-3bdacd7a4d0d/download
https://repositorio.unsa.edu.pe/bitstreams/e25cf534-c068-4e70-916e-173ad2e60c2e/download
https://repositorio.unsa.edu.pe/bitstreams/d79cc84b-5603-43ea-a749-e2fe676cc550/download
bitstream.checksum.fl_str_mv c52066b9c50a8f86be96c82978636682
1442e91fbce757938c63537b47954ac3
58f6fe804d998c648b270142eae71e54
bitstream.checksumAlgorithm.fl_str_mv MD5
MD5
MD5
repository.name.fl_str_mv Repositorio Institucional UNSA
repository.mail.fl_str_mv repositorio@unsa.edu.pe
_version_ 1828763091999916032
spelling Bernedo Gonzales, Jhon FrankyMamani Ccalla, Maria Elena2022-09-15T15:02:44Z2022-09-15T15:02:44Z2022Frecuentemente, existen muchas variables predictoras en el modelo de regresión lineal general, esto debido a que en la actualidad se almacena grandes cantidades de datos gracias a los avances tecnológicos, entonces surge el problema común de elegir las variables a incluir en el modelo de forma adecuada. Por eso el presente trabajo tiene como objetivo analizar los métodos de selección y regularización de variables en el modelo de regresión lineal general n y luego aplicarlos a dos casos particulares en la cantidad de observaciones en el número de variables p disponibles con la ayuda del software R Studio. Los métodos de selección tales como, selección del mejor subconjunto (BSS), selección hacia adelante (forward) y selección hacia atrás (backward) se basan en reducir el número de variables que interviene en el modelo de manera secuencial, incluyendo o excluyendo una variable en cada paso de acuerdo algún criterio establecido. Mientras que los métodos de regularización Ridge y LASSO se basan en reducir el número de variables imponiendo una restricción o penalización sobre los coeficientes de regresión, que obligará a que estos se contraigan a cero o incluso algunos coeficientes sean cero. Esta penalización hace que estos métodos se comporten como un problema de optimización, a diferencia del método Ridge que presenta una solución explicita, para resolver el problema de optimización LASSO (Operador de selección y contracción de mínimo absoluto) se presenta dos métodos, el método de descenso coordenado cíclico y el método LARS (Regresión de ángulo mínimo), el cual permite resolver el problema LASSO de una manera más simple haciendo que el coste computacional sea menor que el del método LASSO. Por último, se realiza una comparación de todos los modelos según el MSE de cada uno, obtenido mediante la validación cruzada para comprobar su validez predictiva.application/pdfhttp://hdl.handle.net/20.500.12773/14717spaUniversidad Nacional de San Agustín de ArequipaPEinfo:eu-repo/semantics/openAccesshttp://creativecommons.org/licenses/by-nc-nd/4.0/Universidad Nacional de San Agustín de ArequipaRepositorio Institucional - UNSAreponame:UNSA-Institucionalinstname:Universidad Nacional de San Agustíninstacron:UNSASelección de variablesRegularización Ridge y LASSOMétodo LARShttps://purl.org/pe-repo/ocde/ford#1.01.03Métodos de regularización LASSO y LARS para el modelo de regresión lineal generalinfo:eu-repo/semantics/bachelorThesisSUNEDU41254968https://orcid.org/0000-0001-7527-825975025499541026Antoine Souche, Marie FrancisRoque Roque, Daniel OctavioBernedo Gonzales, Jhon Frankyhttp://purl.org/pe-repo/renati/level#tituloProfesionalhttp://purl.org/pe-repo/renati/type#tesisMatemáticasUniversidad Nacional de San Agustín de Arequipa.Facultad de Ciencias Naturales y FormalesLicenciada en MatemáticasLICENSElicense.txtlicense.txttext/plain; charset=utf-81327https://repositorio.unsa.edu.pe/bitstreams/aa3d67f5-68ea-43fc-8539-3bdacd7a4d0d/downloadc52066b9c50a8f86be96c82978636682MD52ORIGINALMAmaccme1.pdfMAmaccme1.pdfapplication/pdf2788819https://repositorio.unsa.edu.pe/bitstreams/e25cf534-c068-4e70-916e-173ad2e60c2e/download1442e91fbce757938c63537b47954ac3MD53TEXTMAmaccme1.pdf.txtMAmaccme1.pdf.txtExtracted texttext/plain215369https://repositorio.unsa.edu.pe/bitstreams/d79cc84b-5603-43ea-a749-e2fe676cc550/download58f6fe804d998c648b270142eae71e54MD5420.500.12773/14717oai:repositorio.unsa.edu.pe:20.500.12773/147172022-10-17 03:00:51.575http://creativecommons.org/licenses/by-nc-nd/4.0/info:eu-repo/semantics/openAccesshttps://repositorio.unsa.edu.peRepositorio Institucional UNSArepositorio@unsa.edu.pe77u/TGljZW5jaWEgZGUgVXNvCiAKRWwgUmVwb3NpdG9yaW8gSW5zdGl0dWNpb25hbCwgZGlmdW5kZSBtZWRpYW50ZSBsb3MgdHJhYmFqb3MgZGUgaW52ZXN0aWdhY2nDs24gcHJvZHVjaWRvcyBwb3IgbG9zIG1pZW1icm9zIGRlIGxhIHVuaXZlcnNpZGFkLiBFbCBjb250ZW5pZG8gZGUgbG9zIGRvY3VtZW50b3MgZGlnaXRhbGVzIGVzIGRlIGFjY2VzbyBhYmllcnRvIHBhcmEgdG9kYSBwZXJzb25hIGludGVyZXNhZGEuCgpTZSBhY2VwdGEgbGEgZGlmdXNpw7NuIHDDumJsaWNhIGRlIGxhIG9icmEsIHN1IGNvcGlhIHkgZGlzdHJpYnVjacOzbi4gUGFyYSBlc3RvIGVzIG5lY2VzYXJpbyBxdWUgc2UgY3VtcGxhIGNvbiBsYXMgc2lndWllbnRlcyBjb25kaWNpb25lczoKCkVsIG5lY2VzYXJpbyByZWNvbm9jaW1pZW50byBkZSBsYSBhdXRvcsOtYSBkZSBsYSBvYnJhLCBpZGVudGlmaWNhbmRvIG9wb3J0dW5hIHkgY29ycmVjdGFtZW50ZSBhIGxhIHBlcnNvbmEgcXVlIHBvc2VhIGxvcyBkZXJlY2hvcyBkZSBhdXRvci4KCk5vIGVzdMOhIHBlcm1pdGlkbyBlbCB1c28gaW5kZWJpZG8gZGVsIHRyYWJham8gZGUgaW52ZXN0aWdhY2nDs24gY29uIGZpbmVzIGRlIGx1Y3JvIG8gY3VhbHF1aWVyIHRpcG8gZGUgYWN0aXZpZGFkIHF1ZSBwcm9kdXpjYSBnYW5hbmNpYXMgYSBsYXMgcGVyc29uYXMgcXVlIGxvIGRpZnVuZGVuIHNpbiBlbCBjb25zZW50aW1pZW50byBkZWwgYXV0b3IgKGF1dG9yIGxlZ2FsKS4KCkxvcyBkZXJlY2hvcyBtb3JhbGVzIGRlbCBhdXRvciBubyBzb24gYWZlY3RhZG9zIHBvciBsYSBwcmVzZW50ZSBsaWNlbmNpYSBkZSB1c28uCgpEZXJlY2hvcyBkZSBhdXRvcgoKTGEgdW5pdmVyc2lkYWQgbm8gcG9zZWUgbG9zIGRlcmVjaG9zIGRlIHByb3BpZWRhZCBpbnRlbGVjdHVhbC4gTG9zIGRlcmVjaG9zIGRlIGF1dG9yIHNlIGVuY3VlbnRyYW4gcHJvdGVnaWRvcyBwb3IgbGEgbGVnaXNsYWNpw7NuIHBlcnVhbmE6IExleSBzb2JyZSBlbCBEZXJlY2hvIGRlIEF1dG9yIHByb211bGdhZG8gZW4gMTk5NiAoRC5MLiBOwrA4MjIpLCBMZXkgcXVlIG1vZGlmaWNhIGxvcyBhcnTDrWN1bG9zIDE4OMKwIHkgMTg5wrAgZGVsIGRlY3JldG8gbGVnaXNsYXRpdm8gTsKwODIyLCBMZXkgc29icmUgZGVyZWNob3MgZGUgYXV0b3IgcHJvbXVsZ2FkbyBlbiAyMDA1IChMZXkgTsKwMjg1MTcpLCBEZWNyZXRvIExlZ2lzbGF0aXZvIHF1ZSBhcHJ1ZWJhIGxhIG1vZGlmaWNhY2nDs24gZGVsIERlY3JldG8gTGVnaXNsYXRpdm8gTsKwODIyLCBMZXkgc29icmUgZWwgRGVyZWNobyBkZSBBdXRvciBwcm9tdWxnYWRvIGVuIDIwMDggKEQuTC4gTsKwMTA3NikuCg==
score 13.958958
Nota importante:
La información contenida en este registro es de entera responsabilidad de la institución que gestiona el repositorio institucional donde esta contenido este documento o set de datos. El CONCYTEC no se hace responsable por los contenidos (publicaciones y/o datos) accesibles a través del Repositorio Nacional Digital de Ciencia, Tecnología e Innovación de Acceso Abierto (ALICIA).