Tópicos Sugeridos dentro de su búsqueda.
Tópicos Sugeridos dentro de su búsqueda.
Buscar alternativas:
para data » para dama (Expander búsqueda), para damas (Expander búsqueda), para datos (Expander búsqueda)
lake » make (Expander búsqueda), like (Expander búsqueda), take (Expander búsqueda)
para data » para dama (Expander búsqueda), para damas (Expander búsqueda), para datos (Expander búsqueda)
lake » make (Expander búsqueda), like (Expander búsqueda), take (Expander búsqueda)
1
tesis de grado
Publicado 2022
Enlace
Enlace
Describe el proyecto de implementación de un data lake en la empresa Belcorp, el principal objetivo de la implementación es la centralización de los datos para la creación de una vista holística de toda la data de la empresa y de sus clientes con el fin de tener los datos homologados y estandarizados, ya que hasta en ese momento la data de los diferentes sistemas que manejaba la empresa se encontraban aislados causando duplicidad y desactualización en los datos haciendo que se cree barreras para el intercambio de información y la colaboración entre las distintas áreas de la empresa. La implementación de esta plataforma significó un gran pilar para convertir a Belcorp en una empresa data driven, ya que la data procesada serviría como input para los diferentes equipos analíticos que crearían métricas y modelos de predicción, los cuales ayudarían a la mejor toma de decision...
2
tesis de grado
Describe el proyecto de implementación de un Data Lake en una empresa del sector Asegurador, como una solución analítica de Big Data. Debido al gran aumento de clientes y datos, se tuvieron dificultades dentro de las Bases de Datos de la entidad. Tales como lentitud de procesos, bloqueo de tablas productivas por los tiempos de procesamiento, y la generación de reportes poco confiables. A la vez que se requería ofrecer campañas 100% personalizadas para los clientes, y para esto debía de integrarse la información del cliente que se encontraba dispersa en los múltiples aplicativos y tablas de la entidad Aseguradora. Es por ello que se optó por implementar un repositorio único de datos que será utilizado como una fuente de cálculo del CLV (Customer Lifetime Value1), obteniendo el valor de vida de cada cliente, de esta manera poder ofrecer productos específicos y/o promociones p...
3
tesis de grado
Publicado 2024
Enlace
Enlace
Los datos son actualmente parte fundamental para la toma de decisiones en las organizaciones, y su análisis eficiente proporciona una ventaja competitiva. Las universidades, al igual que muchas otras organizaciones, generan y procesan conjuntos de datos amplios y diversos procedentes de diversas fuentes. Los sistemas tradicionales de gestión de datos ya no son suficientes para manejar este volumen y diversidad de datos. La universidad reconoció la necesidad de mejora, ya que los sistemas de bases de datos locales y los procesos luchan por hacerle frente a la diversidad de información en constante aumento. Los retrasos, los bloqueos del sistema y las limitaciones de almacenamiento se volvieron habituales. Además, los datos a menudo permanecían aislados, limitando su utilidad. Para abordar estos desafíos, se optó por implementar un Data Lake en la nube de AWS, que transformará a l...
4
tesis de maestría
Publicado 2024
Enlace
Enlace
La investigación actual busca implementar un Data Lake para el análisis comparativo de estados financieros en Distrilógico S.A. y sus filiales. Se propone una solución tecnológica que permita la integración, almacenamiento y análisis de grandes cantidades de datos financieros provenientes múltiples fuentes, con el fin de obtener insights estratégicos cruciales. Esta metodología empleada incluye la selección y configuración de las herramientas tecnológicas adecuadas para la implementación del Data Lake, además de recolectar y analizar datos financieros relevantes. Se desarrolla un marco conceptual para el análisis comparativo de estados financieros, ajustado según las particularidades y requerimientos específicos de la empresa. Como resumen, este estudio ofrece una contribución significativa al ámbito del manejo de tecnología de la información, al tiempo que proporci...
5
tesis de grado
Publicado 2023
Enlace
Enlace
Aborda sobre el diseño e implementación de un Data Lake, en una entidad del rubro de microfinanzas, a fin de disponer de una fuente de datos confiable para la obtención de conocimiento de negocio mediante la aplicación de modelos analíticos. La implementación se realiza en la nube pública de Microsoft Azure. Se emplean recursos como Azure Databricks, Data Factory, Data Lake Storage Gen2 para el frente de infraestructura. La lógica de procesamiento se desarrolla en el lenguaje Scala sobre el framework de Apache Spark. Así mismo, el Unity Catalog de Databricks para la gestión de metadatos y control de acceso. Como resultado, se obtiene un Data Lake conformado por cuatro capas: LandingLayer, IngestionLayer, ProcessLayer y FunctionLayer. En cada una de las capas se realiza un tratamiento específico, de manera secuencial, a la data. Cara al usuario final se dispone de un modelo de ...
6
tesis de maestría
Publicado 2023
Enlace
Enlace
En este trabajo se propone una solución para un caso de análisis de información generada en las plataformas de un Homecenter del área de marketing, que actualmente tiene como repositorio de datos a un data warehouse y base de datos con información solo estructurada, esta solución incorpora tecnologías de big data en cloud, mediante el diseño e implementación de una arquitectura de data lake en Google cloud con sus servicios para cubrir las fases del ciclo de vida del dato mediante la metodología Mambo, con el fin de procesar, almacenar, disponibilizar la información y generar visualizaciones para la posterior toma de decisiones, logrando consolidar, integrar y actualizar la data para los procesos que tiene un Homecenter. A su vez, se identifica como problemática la falta de acceso, centralización, e integración de información que impacta en el proceso de medición de enví...
7
tesis de grado
Publicado 2025
Enlace
Enlace
En el sector turismo, muchas empresas enfrentan dificultades para gestionar eficientemente la información de ventas debido a la dispersión de datos en múltiples sistemas y a la falta de automatización en sus procesos analíticos. Esta situación genera demoras en la entrega de reportes, duplicidad de información y escasa trazabilidad, lo que limita la capacidad de las áreas comerciales para tomar decisiones basadas en datos confiables y oportunos. En respuesta a esta problemática, el presente trabajo propone la implementación de una plataforma analítica moderna que optimice el proceso de seguimiento de ventas del negocio emisivo mediante la arquitectura Databricks Lakehouse. La solución integra servicios de Azure Data Lake, Azure DevOps , Unity Catalog y Delta Lake, permitiendo automatizar la ingesta, transformación y publicación de datos provenientes de fuentes Oracle y arch...
8
artículo
This study investigates the spatial and temporal variation of the rainy season on the slopes of Lake Titicaca by analyzing rainfall series extracted from the gridded database PISCOp V2.1 and 18 meteorological stations within the study area. The onset and end of the wet season from 1981 to 2012 were evaluated using gridded data, which were then validated with recorded rainfall data and performance statistical indicators. This methodology allowed the determination of the onset and end of the rainy season for each hydrological year of the study period, and the calculation of metrics such as rainy days, wet season rainfall, and rainfall intensity. The resulting time series were subjected to trend analysis, revealing that, in general, they did not exhibit statistically significant trends. This conclusion was also supported by the trend analysis of the series derived from the gridded data. The...
9
tesis de grado
Publicado 2022
Enlace
Enlace
Comprende el proceso de migración de los datos de canales digitales hacia un repositorio Data Lake en una entidad bancaria, pasando por los procesos de cuadre, aplicación de reglas de carga, validaciones de calidad y algoritmos de protección para la data de alta criticidad. La arquitectura de este proyecto se apoyó en tecnologías de Big Data como Apache Hadoop, Apache Spark y Hive para el almacenamiento y procesamiento de los datos. Además, se trabajó con un enfoque de metodologías ágiles, siendo Scrum la metodología elegida por ser un estándar dentro de la organización, con lo cual se pudo recibir una constante retroalimentación de los avances mediante reuniones con el negocio al finalizar cada sprint, buscando que los resultados garanticen la satisfacción del usuario y aporten valor a su día a día. Como resultado de esto, se logró realizar la migración y así brindar ...
10
artículo
Publicado 2014
Enlace
Enlace
Original abstract: This paper presents a new and easily repeatable method for assessing the susceptibility of glacial lakes to outburst floods (GLOFs) within the Peruvian region of the Cordillera Blanca. The presented method was designed to: (a) be repeatable (from the point of view of the demands on input data), (b) be reproducible (to provide an instructive guide for different assessors), (c) provide multiple results for different GLOF scenarios and (d) be regionally focused on the lakes of the Cordillera Blanca. Based on the input data gained from remotely sensed images and digital terrain models/topographical maps, the susceptibility of glacial lakes to outburst floods is assessed using a combination of decision trees for clarity and numerical calculation for repeatability and reproducibility. A total of seventeen assessed characteristics are used, of which seven have not been used i...
11
artículo
Publicado 2023
Enlace
Enlace
The increasing formation of glacial lakes and their expansion in recent years increases the risk of alluviums due to glacial lakes outburst floods in high tropical mountains, such as the one that destroyed part of the city of Huaraz in 1941 in the Cordillera Blanca, of the central Andes of Peru. Given the danger faced by the more than 130,000 people who inhabit the alluvial fan of Quilcay River, were analyzed the interannual variation of the surface of the Palcacocha Lake, the glacial surface of its micro-basin and the variation of the surrounding climate between the years 1984 and 2022, to determine the relationships that would exist between these variables, as an indicator of the risk of flooding due to overflow of the lake. For this, the surface of the lakes and the area of the glacier were calculated with multispectral Landsat images and compared with the result of the processing of ...
12
tesis de grado
Publicado 2021
Enlace
Enlace
Describe el desarrollo de una solución de Big Data en una entidad bancaria para refactorizar sus procesos de migración y toma de decisiones. Presentando una propuesta de solución que permite resolver los problemas actuales que presenta la organización como son las lentitudes de procesamiento, inconsistencia de los datos y la necesidad de contar con datos que aporten valor al negocio. La metodología utilizada para este proyecto fue SCRUM, la cual ha permitido a la organización agilizar las actividades y adoptar progresivamente nuevas tecnologías en el entorno Data Lake utilizando buenas prácticas de Big Data, lo cual ha permitido mejorar los procesos actuales brindándole: Procesamiento distribuido, Almacenamiento distribuido, Alta disponibilidad, Encriptación de datos y Gobierno de datos. Finalmente, se tiene como resultados esperados la creación de un modelo de solución para ...
13
artículo
Publicado 2022
Enlace
Enlace
There is a great variety and amount of sensitive and valuable healthcare information that could be used to benefit people, but is not exploited due to limited access to data. This article aims to determine factors influencing data accessibility in private and public organizations through a literature review. Of the 300 related articles identified, 23 were included in this review. Among the resulting factors influencing information accessibility, the following stood out: open governments, health information systems, personal data protection laws, ethics in the use of medical information, and data lakes. Making health data more accessible would improve services and treatment plans, save state resources and promote education and research.
14
artículo
Publicado 2022
Enlace
Enlace
There is a great variety and amount of sensitive and valuable healthcare information that could be used to benefit people, but is not exploited due to limited access to data. This article aims to determine factors influencing data accessibility in private and public organizations through a literature review. Of the 300 related articles identified, 23 were included in this review. Among the resulting factors influencing information accessibility, the following stood out: open governments, health information systems, personal data protection laws, ethics in the use of medical information, and data lakes. Making health data more accessible would improve services and treatment plans, save state resources and promote education and research.
15
tesis de grado
Publicado 2026
Enlace
Enlace
En el presente trabajo de investigación se aplica un conjunto de técnicas de Big Data: Data Lake, Web Scraping, ETL (Extracción, Transformación y Carga de datos) y de Inteligencia Artificial (particularmente Machine Learning) con el propósito de mejorar la capacidad analítica de la Gerencia Comercial de EGEMSA. El problema principal radica en la ineficiencia de la recolección de datos del mercado eléctrico peruano, la deficiente consolidación y organización de estos datos y la limitada aplicación de herramientas avanzadas que permitan identificar patrones. Para abordar la problemática, se propone una arquitectura basada en Data Lake con capas Bronce, Plata y Oro, a fin de optimizar el flujo de la información su organización y posterior análisis. Además, se emplean algoritmos de clústeres(segmentación) para categorizar a los clientes de EGEMSA y facilitar la toma de deci...
16
tesis de grado
Publicado 2024
Enlace
Enlace
Comprende la implementación de una solución big data que posibilite el procesamiento distribuido en el proceso de generación de los reportes contables usando Spark, debido a que la volumetría de los datos usada para su generación está en constante crecimiento, se necesitó realizar procesos como: análisis funcional, elaboración de diccionario de datos, despliegue de esquemas, ingesta de datos, procesamiento de datos, aplicación de reglas de calidad, orquestación de pipelines. La arquitectura del proyecto se basó en tecnologías de Big Data como Apache Hadoop para el almacenamiento de datos en Data Lake basados en HDFS, Apache Spark para el procesamiento de datos distribuidos y Control-M para la orquestación del flujo de trabajo de datos para su ejecución automática y periódica. Para la gestión del proyecto se trabaja con la metodología ágil Scrum por ser el estándar de...
17
tesis de grado
Publicado 2011
Enlace
Enlace
The present work of investigation was carried out in the city of Lamas, in the horticultural farm house The Hope. The work was carried out in 2 stages: First it was realised in the field, where a pursuit to a parcel became of lettuce culture Great Lakes variety, this in order to evaluate the agronomic workings that realize, symptoms of the disease was described, collected the samples of ill plants, evaluated the incidence and severity of the disease of leaf spot, using the method of Stover modified by Gauhl and With the collected data of severity, the curve of progress of the disease was realised, using 3 mathematical models epidemiologists: Logistic, Monomolecular and Gompertz. The second stage was developed in the vegetal medical laboratory of the National University of San Martin - Tarapoto, where it evaluated the test of phatogenicid, characterization of the fitophatógen and test of...
18
tesis de grado
Publicado 2021
Enlace
Enlace
Luego de egresar de la carrera de Ingeniería Informática de la Pontificia Universidad Católica en 1998 ingrese a trabajar en el área de sistemas del Banco de Crédito del Perú en diferentes roles Programador, Analista y finalmente Arquitecto de Sistemas, luego de ello pase por otras de negocio del mencionado Banco para finalmente estar a cargo de la creación del Área de Data dentro del grupo Credicorp. En Enero del 2015 el Banco de Crédito del Perú empezó a delinear la creación del Área de Data y Analytics debido a la necesidad de contar con la información necesaria para poder cumplir con su principal objetivo “Transformar sueños en realidad”, antes de la creación de esta área, los datos no eran gobernados por una única entidad y estaba dispersa en las diferentes áreas de negocio y tecnología lo que llevaba a tener diversos problemas de disponibilidad, integridad y...
19
tesis de grado
Publicado 2021
Enlace
Enlace
Luego de egresar de la carrera de Ingeniería Informática de la Pontificia Universidad Católica en 1998 ingrese a trabajar en el área de sistemas del Banco de Crédito del Perú en diferentes roles Programador, Analista y finalmente Arquitecto de Sistemas, luego de ello pase por otras de negocio del mencionado Banco para finalmente estar a cargo de la creación del Área de Data dentro del grupo Credicorp. En Enero del 2015 el Banco de Crédito del Perú empezó a delinear la creación del Área de Data y Analytics debido a la necesidad de contar con la información necesaria para poder cumplir con su principal objetivo “Transformar sueños en realidad”, antes de la creación de esta área, los datos no eran gobernados por una única entidad y estaba dispersa en las diferentes áreas de negocio y tecnología lo que llevaba a tener diversos problemas de disponibilidad, integridad y...
20
tesis de grado
Publicado 2021
Enlace
Enlace
Propone la migración del Modelo de Portafolio de la unidad de negocio de Soluciones de Pago desde una plataforma tradicional como Oracle hacia una plataforma Big Data para la gestión de la cartera morosa de una entidad financiera. La implementación propuesta utiliza una metodología propia del squad SDP que está dividido en 4 etapas que son el análisis, diseño, implementación y despliegue. Cada una de estas etapas interactúa con distintos roles como arquitectos de datos, seguridad de información, analistas de negocio, modelador de datos y gobierno de datos. A nivel de herramientas utiliza Oracle para crear las tablas de paso en el esquema SDS, DataStage para crear flujos de integración en donde se migren los datos desde Oracle hacia la capa DDV del Data Lake en formato avro, PySpark para crear los procesos que incluyen lógica de negocio y aprovechar todos los recursos de la pl...