Tópicos Sugeridos dentro de su búsqueda.
Tópicos Sugeridos dentro de su búsqueda.
https://purl.org/pe-repo/ocde/ford#2.01.01
601
https://purl.org/pe-repo/ocde/ford#5.02.04
571
https://purl.org/pe-repo/ocde/ford#5.06.02
437
https://purl.org/pe-repo/ocde/ford#2.02.04
349
https://purl.org/pe-repo/ocde/ford#2.11.04
258
https://purl.org/pe-repo/ocde/ford#6.04.08
195
https://purl.org/pe-repo/ocde/ford#5.03.01
175
más ...
Buscar alternativas:
datos proyectos » dos proyectos (Expander búsqueda), das proyectos (Expander búsqueda), los proyectos (Expander búsqueda)
para datos » para damas (Expander búsqueda)
datos proyectos » dos proyectos (Expander búsqueda), das proyectos (Expander búsqueda), los proyectos (Expander búsqueda)
para datos » para damas (Expander búsqueda)
1
tesis de grado
Manejo del software QGIS para gestionar datos de redes de distribución de agua en la Urb. Miraflores
Publicado 2019
Enlace
Enlace
La tesis tiene como objetivo implementar con Quantum GIS (QGIS), software libre de Sistema de Información Geográfica (SIG), un catastro de redes de distribución de agua potable dinámico para la gestión de la información. En tal sentido, se toma como área de estudio la urbanización Miraflores (ciudad de Piura, Perú), lo que permitirá brindar conocimientos técnicos para el manejo de sistemas de información geográfica en proyectos de catastro. Con tal fin, se adquiere información en formato AutoCAD, PDF y SHAPE para la correcta georreferenciación de información planimétrica proveniente de variadas fuentes como lo son: la Municipalidad de Castilla y la EPS Grau S.A. Adicionalmente, se diseña una base de datos espacial, la cual será alimentada con información que ha sido extraída del catastro técnico. Se introducen, asimismo, tecnologías de información como QGIS 2.8.4,...
2
objeto de conferencia
Publicado 2023
Enlace
Enlace
El desarrollo científico y tecnológico ha favorecido el acceso a más y mejor información. La disponibilidad de dispositivos tecnológicos hace posible medir múltiples variables en tiempo real y procesar grandes volúmenes de información mediante algoritmos computacionales para facilitar la toma de decisiones. Todo este fenómeno se conoce como “Big Data”. Por su parte, la ciencia de datos o “data science”, se ocupa de analizar, simular, crear modelos y patrones para comprender el comportamiento de fenómenos complejos, mediante el uso de diversas herramientas matemáticas y estadísticas. De esta forma, el Big Data transforma los datos en información y Data Science transforma la información en conocimiento. La aplicación combinada de estas técnicas favorece el desarrollo de esta disciplina en diversos campos: permite comprender el comportamiento de diversos fenómenos y...
3
tesis doctoral
Publicado 2021
Enlace
Enlace
Actualmente, en diferentes contextos, en mayor o menor grado, los productos de software tienen acceso a bases de datos, siendo necesario considerar las pruebas de regresión para productos de software, tales como los sistemas de información. Esta tesis presenta dos aportes de investigación que permiten motivar e introducir una nueva técnica/método para pruebas de regresión por selección para software con acceso a datos. El primer aporte establece los aspectos y factores considerados hasta el año 2020, que evidencia la escasa aplicabilidad de las investigaciones de la academia en la industria. El segundo aporte es el diseño de un método para pruebas de regresión que realiza una combinación de técnicas de clusterización probabilística no supervisada con valores de centroide aleatorios y pruebas unitarias, que juntamente con el esquema de la base de datos, determinar los casos...
4
tesis de maestría
El desarrollo de proyectos de analítica de datos en las organizaciones requiere de procesos bien definidos para su éxito. Existen procesos estándar de analítica de datos, como CRISP-DM, que han tenido una amplia adopción en las últimas décadas. Sin embargo, mediante una búsqueda sistemática de la literatura se ha podido evidenciar que muchas de las organizaciones a menudo no aplican CRISP-DM o procesos similares, como SEMMA y KDD, tal como están, sino que muchos de ellas adaptan estos marcos de trabajo para abordar requerimientos específicos en diversos contextos de la industria. Además, según estos estudios se evidencia que un grupo considerable de empresas emplea Scrum u otros marcos de trabajo para el desarrollo de software con el fin de llevar a cabo sus proyectos de analítica de datos, lo cual no es correcto pues estos marcos de trabajo no abordan las particularidades ...
5
tesis de maestría
El desarrollo de proyectos de analítica de datos en las organizaciones requiere de procesos bien definidos para su éxito. Existen procesos estándar de analítica de datos, como CRISP-DM, que han tenido una amplia adopción en las últimas décadas. Sin embargo, mediante una búsqueda sistemática de la literatura se ha podido evidenciar que muchas de las organizaciones a menudo no aplican CRISP-DM o procesos similares, como SEMMA y KDD, tal como están, sino que muchos de ellas adaptan estos marcos de trabajo para abordar requerimientos específicos en diversos contextos de la industria. Además, según estos estudios se evidencia que un grupo considerable de empresas emplea Scrum u otros marcos de trabajo para el desarrollo de software con el fin de llevar a cabo sus proyectos de analítica de datos, lo cual no es correcto pues estos marcos de trabajo no abordan las particularidades ...
6
informe técnico
Publicado 2021
Enlace
Enlace
El curso ISC SQL básico para ciencia de datos está orientado para aquellos estudiantes sin experiencia previa en codificación que busquen desarrollar la fluidez de las consultas SQL. Este curso está compuesto por cuatro micro cursos donde el estudiante desarrollará cuatro proyectos SQL progresivamente más complejos con aplicaciones de ciencia de datos. Se cubrirán temas como conceptos básicos de SQL, data wrangling, análisis de SQL, pruebas AB, computación distribuida con Apache Spark, Delta Lake y más. Estos temas prepararán al estudiante para aplicar SQL de manera creativa para analizar y explorar datos; demostrar eficiencia en la redacción de consultas; crear conjuntos de datos de análisis de datos; realizar ingeniería de características, usar SQL con otros conjuntos de herramientas de análisis de datos y aprendizaje automático; y utilizar SQL con conjuntos de datos ...
7
informe técnico
Publicado 2023
Enlace
Enlace
El curso ISC SQL básico para ciencia de datos está orientado para aquellos estudiantes sin experiencia previa en codificación que busquen desarrollar la fluidez de las consultas SQL. Este curso está compuesto por cuatro micro cursos donde el estudiante desarrollará cuatro proyectos SQL progresivamente más complejos con aplicaciones de ciencia de datos. Se cubrirán temas como conceptos básicos de SQL, data wrangling, análisis de SQL, pruebas AB, computación distribuida con Apache Spark, Delta Lake y más. Estos temas prepararán al estudiante para aplicar SQL de manera creativa para analizar y explorar datos; demostrar eficiencia en la redacción de consultas; crear conjuntos de datos de análisis de datos; realizar ingeniería de características, usar SQL con otros conjuntos de herramientas de análisis de datos y aprendizaje automático; y utilizar SQL con conjuntos de datos ...
8
informe técnico
Publicado 2023
Enlace
Enlace
El curso ISC SQL básico para ciencia de datos está orientado para aquellos estudiantes sin experiencia previa en codificación que busquen desarrollar la fluidez de las consultas SQL. Este curso está compuesto por cuatro micro cursos donde el estudiante desarrollará cuatro proyectos SQL progresivamente más complejos con aplicaciones de ciencia de datos. Se cubrirán temas como conceptos básicos de SQL, data wrangling, análisis de SQL, pruebas AB, computación distribuida con Apache Spark, Delta Lake y más. Estos temas prepararán al estudiante para aplicar SQL de manera creativa para analizar y explorar datos; demostrar eficiencia en la redacción de consultas; crear conjuntos de datos de análisis de datos; realizar ingeniería de características, usar SQL con otros conjuntos de herramientas de análisis de datos y aprendizaje automático; y utilizar SQL con conjuntos de datos ...
9
informe técnico
Publicado 2023
Enlace
Enlace
El curso ISC SQL básico para ciencia de datos está orientado para aquellos estudiantes sin experiencia previa en codificación que busquen desarrollar la fluidez de las consultas SQL. Este curso está compuesto por cuatro micro cursos donde el estudiante desarrollará cuatro proyectos SQL progresivamente más complejos con aplicaciones de ciencia de datos. Se cubrirán temas como conceptos básicos de SQL, data wrangling, análisis de SQL, pruebas AB, computación distribuida con Apache Spark, Delta Lake y más. Estos temas prepararán al estudiante para aplicar SQL de manera creativa para analizar y explorar datos; demostrar eficiencia en la redacción de consultas; crear conjuntos de datos de análisis de datos; realizar ingeniería de características, usar SQL con otros conjuntos de herramientas de análisis de datos y aprendizaje automático; y utilizar SQL con conjuntos de datos ...
10
informe técnico
Publicado 2023
Enlace
Enlace
El curso ISC SQL básico para ciencia de datos está orientado para aquellos estudiantes sin experiencia previa en codificación que busquen desarrollar la fluidez de las consultas SQL. Este curso está compuesto por cuatro micro cursos donde el estudiante desarrollará cuatro proyectos SQL progresivamente más complejos con aplicaciones de ciencia de datos. Se cubrirán temas como conceptos básicos de SQL, data wrangling, análisis de SQL, pruebas AB, computación distribuida con Apache Spark, Delta Lake y más. Estos temas prepararán al estudiante para aplicar SQL de manera creativa para analizar y explorar datos; demostrar eficiencia en la redacción de consultas; crear conjuntos de datos de análisis de datos; realizar ingeniería de características, usar SQL con otros conjuntos de herramientas de análisis de datos y aprendizaje automático; y utilizar SQL con conjuntos de datos ...
11
informe técnico
Publicado 2023
Enlace
Enlace
El curso ISC SQL básico para ciencia de datos está orientado para aquellos estudiantes sin experiencia previa en codificación que busquen desarrollar la fluidez de las consultas SQL. Este curso está compuesto por cuatro micro cursos donde el estudiante desarrollará cuatro proyectos SQL progresivamente más complejos con aplicaciones de ciencia de datos. Se cubrirán temas como conceptos básicos de SQL, data wrangling, análisis de SQL, pruebas AB, computación distribuida con Apache Spark, Delta Lake y más. Estos temas prepararán al estudiante para aplicar SQL de manera creativa para analizar y explorar datos; demostrar eficiencia en la redacción de consultas; crear conjuntos de datos de análisis de datos; realizar ingeniería de características, usar SQL con otros conjuntos de herramientas de análisis de datos y aprendizaje automático; y utilizar SQL con conjuntos de datos ...
12
objeto de conferencia
Páginas 930-933.
13
artículo
Las poligonales son generadas por diferentes tipos de proyectos, tanto de investigación arqueológica como de evaluación de territorios para actividades mineras, de instalación de infraestructura de telecomunicaciones, de transporte de energía y de catastros para propósitos de titulación y regulación de la propiedad.
14
artículo
Publicado 2017
Enlace
Enlace
Hoy en día, las empresas necesitan tomar decisiones de forma más rápida y soportadas por la tecnología de la información. El presente proyecto, que se efectuó en el Banco de Crédito del Perú (BCP) se desplegó a partir del 2015; consistió en la evaluación e implementación de un enfoque metodológico ágil para el desarrollo de los proyectos del data warehouse, usando la metodología Scrum. El trabajo se inició con una consultoría para identificar qué mejoras y cambios se tendrían que realizar a través de un nuevo modelo de atención. Con las propuestas de mejora se ejecutó un piloto para comprobar la efectividad de la metodología ágil; los beneficios fueron los siguientes: reducción del time to market, reducción del tiempo de ejecución y cumplimiento de plazos en la etapa de desarrollo, disponibilidad para atención de más requerimientos, garantía de la calidad de...
15
tesis doctoral
Publicado 2019
Enlace
Enlace
La presente investigación ha partido de dos situaciones problemáticas: la mala gestión del proceso de minería de datos y la definición detallada de los entregables de cada etapa del proceso. Además de la inexistencia de un modelo de aplicación de Minería de datos en el entorno académico en las universidades peruanas. Para desarrollar el Nuevo Modelo se revisaron metodologías robustas y modernas como: CRISP-DM, SEMMA, CATALYS, KDD y los aportes del investigador. Se hizo un análisis comparativo de las metodologías y se identificó que unos de os principales problemas en todas es la gestión en si del proyecto por ende se utilizó el PMBOOK para mejorar esta etapa. El nuevo modelo propuesto y aplicado consta de 2 subprocesos: Subproceso de Gestión de Proyecto, Subproceso de Aplicación de Minería de Datos. Así se logró la finalidad primordial que es Elaborar y aplicar el Mod...
16
tesis de grado
Publicado 2017
Enlace
Enlace
La Empresa SODIMAC es una empresa Latinoamericana dedicada a la distribución de materiales de construcción y productos para el mejoramiento del hogar. Su objetivo principal es ser la empresa líder en proyectos de construcción, reparación, equipamiento y decoración del hogar, mejorando la calidad de vida de las familias a través de un servicio de excelencia y los mejores precios del mercado. En los últimos años el avance de la tecnología ha puesto de manifiesto la importancia de la información veraz y oportuna, es por esto que las empresas deben recurrir a las soluciones que mejoren el soporte a la toma de decisiones como son los proyectos en Data Warehouse, Data Mart, así como BI. La empresa SODIMAC no quiere permanecer ajena al uso de estas herramientas, ya que tiene la necesidad de información confiable y oportuna que permita a la gerencia tomar mejores decisiones, para el...
17
tesis de grado
Publicado 2022
Enlace
Enlace
En la actualidad se habla constantemente de la importancia de los datos y de su uso masivo para la toma de decisiones en diferentes ámbitos educativos, de gobierno y empresariales, sin embargo, poco se habla sobre le gestión integral de los datos en donde existen procesos, políticas y estrategias que buscan asegurar el correcto uso de estos datos, esto brinda una perspectiva más amplia a la que contempla solo un enfoque tecnológico que es el que muchas veces predomina en los proyectos de BI y Big Data y que como consecuencia inclinan a convertir un proyecto estratégico en un proyecto tecnológico creando el riesgo de perder el rumbo de un proceso gobernado de gestión de datos y por ende el ciclo de vida del dato. En este sentido la presente investigación tuvo como objetivo desarrollar para la empresa Telefónica HISPAM la propuesta de un marco de trabajo que permita adoptar e imp...
18
tesis de grado
Publicado 2014
Enlace
Enlace
El proyecto "Servicio de implementación de Red de Datos para interconectar los Establecimientos Penitenciarios del Perú" que CLARO plantea es una solución integral, robusta y de valor agregado, esta involucra la integración de diversos servicios para poder atender el requerimiento: Enlaces microondas, enlaces MPLS-Red Privada Virtual, Solución de Seguridad, Gestión y Monitoreo de Redes, Post venta. Los cuales en su conjunto permitirán brindar servicios de comunicación de Datos a los diferentes Penales del Perú distribuidos en todas las regiones y que se comunicarán con una oficina administrativa en Lima, que en el transcurso de esta propuesta serán detallados. El objetivo de esta solución integral es brindar un mejor servicio y un soporte sólido en infraestructura de comunicaciones a los CENTROS PENITENCIARIOS para que sirva de base en el desarrollo de futuros proyectos y cr...
19
tesis de grado
Publicado 2024
Enlace
Enlace
La presente investigación tiene como objetivo elaborar una metodología que use una base de datos que tiene que ser analizada estadísticamente, para generar nuevos presupuestos preliminares con intervalos de confianza de 95% para edificios multifamiliares en Lima. Para efectos de la estructura de la base de datos, se optó por usar el formato Uniformat II de la ASTM, esto debido a que es un formato estandarizado. Se escogieron los edificios multifamiliares en Lima como población de la investigación debido al déficit de vivienda que afecta al Perú y por consiguiente a Lima, su ciudad más poblada. Se manejó una muestra de 11 proyectos que encajan dentro de características de similitud que permitían la evaluación. Adicionalmente, se verificó que no existen investigaciones similares a la planteada en esta investigación. El precio unitario promedio de la muestra analizada estadí...
20
tesis de maestría
Publicado 2018
Enlace
Enlace
La investigación plantea como objetivo determinar los patrones de predicción mediante el uso de minería de datos del consumo de medicamentos de Redes Puno, mediante los árboles de decisión, para asi tener la información disponible, mediante el proceso KDD, finalmente aplicar WEKA como algoritmos de minería de datos, para obtener los arboles de decisión y clasificación, para extraer conocimiento. La metodología se basa en las etapas del Knowledge Discovery in Databases (KDD), implementadas de acuerdo a la metodología CRISP-DM, la cual es usada para el desarrollo de proyectos de minería de datos. Inicialmente se hizo un diagnóstico de la situación actual de los Establecimientos de Salud. Luego, se seleccionaron y procesaron las fuentes de datos para el estudio de forma automática, almacenando las variables en un repositorio multidimensional (DataMart), reduciendo el tiempo d...