3,723 research outputs found

    Banco de dados hidrometeorológicos do projeto HidroJipa.

    Get PDF
    O projeto ?Modelagem hidrológica e sensores orbitais para estudos de impactos de mudança de uso e cobertura das terras sobre a disponibilidade hídrica na Bacia do Rio Ji-Paraná (RO)? (HidroJipa) visa avaliar a utilização de dados oriundos de sensores remotos orbitais como fonte de dados para modelos hidrológicos de grandes bacias. O projeto em questão objetiva aplicar o MGB-PIH (Modelo de Grandes Bacias do Instituto de Pesquisas Hidráulicas) à Bacia do Rio Ji-Paraná, RObitstream/item/56788/1/021-11.pd

    Servicio web de Geocodificación para Cartociudad

    Get PDF
    El trabajo presenta las adaptaciones y los desarrollos realizados para implementar un Servicio Web de Procesamiento (WPS) que ofrezca un algoritmo de geocodificación para CartoCiudad basándose en proyectos Open Source (52North WPS y Geocoder-TIGER PostGIS). CartoCiudad se materializa en una Base de Datos Oficial de la red viaria, con estructura topológica de SIG, que permite la navegación continua por todo el territorio español que además contiene la división administrativa censal y postal en polígonos. Un Geocoder es una aplicación que utiliza su base de datos con la finalidad de geocodificar es decir devolver uno o varios juegos de coordenadas a partir de una dirección. El desarrollo se basa en el código abierto, escrito en PL/PgSQL para el Sistema Gestor de Bases de Datos (SGBD) PostgreSQL que utiliza las funciones del módulo PostGIS, para geocodificar la base de datos TIGER del U.S. Bureau. La metodología empleada en la adaptación de TIGER a CartoCiudad, parte del análisis del modelo de datos de ambas bases de datos, la identificación de las entidades equivalentes y, la traducción de dichas equivalencias al lenguaje procedural PL/PgSQL. La siguiente fase, consiste en la traducción de las funciones en PLpg/SQL para PostGIS, al lenguaje de programación PL/SQL para Oracle. En este paso, se identifican las diferencias entre ambos lenguajes, y se aplica su traducción. Asimismo, se identifican las funciones espaciales para PostGIS y se busca su equivalencia para Oracle spatial. En todo el proceso se toma como referencia la documentación aportada por ambos SGBD (PostgreSQL y Oracle). Una vez adaptados los desarrollos se ha abordado la optimización de la velocidad de respuesta, indexando adecuadamente los atributos utilizados en la geocodificación. También se ha asociado los viales con los códigos postales mediante una relación N:M, dado que el modelo de datos CartoCiudad no proporciona ésta relación y las funciones espaciales son costosas en tiempo de ejecución. Con la inclusión de la relación N:M entre código postal y vial, se propone un modelo de datos sin normalizar, justificado debidamente, para optimizar las búsquedas. El algoritmo de geocodificación, busca maximizar el porcentaje de acierto en las respuestas, proporcionando tolerancia a errores tipográficos en los valores de entrada y dotando de capacidad para resolver ambigüedades en ciertas búsquedas. Para ello, se emplea una búsqueda difusa con función heurística de calidad, de tal modo que en caso de no poder satisfacer una búsqueda exacta, proporciona al usuario una lista de posiciones asociadas a una dirección, ordenadas decrecientemente por el grado de coincidencia informado por la función heurística, junto a la correspondiente dirección normalizada. En la búsqueda difusa se emplea un algoritmo fonético, de modo que alternativamente se buscarán direcciones similares por su pronunciación. Para facilitar la utilización en un entorno IDE (interoperabilidad), se ha integrado el desarrollo basado fundamentalmente en los SGBD, en un WPS conforme con OGC. En la implementación de esta capa se utiliza el framework desarrollado en Java por 52°North

    Manual para la administración de información de clientes usando Excel y Access, orientado al área de mercadeo de las empresas pymes

    Get PDF
    Muchas de las empresas que existen hoy en día están necesitando un apoyo o guía en cuanto a la administración de la información de su clientela, pues muchas de ellas poseen gran cantidad de datos pero no saben cómo sacar el máximo provecho de ello. A través de esta investigación surgió la respuesta a la siguiente pregunta: ¿cómo se debe administrar adecuadamente en una empresa las bases de datos con el fin de generar efectos positivos en su área de mercadeo?, ahora las personas u organizaciones interesadas tienen la oportunidad de hacer un proceso organizado y orientado para el manejo de las bases de datos. Cuando se habla de manejo de bases de datos es preciso reconocer sus características principales que las identifican, como lo es independencia lógica y física de los datos, redundancia mínima, acceso concurrente por parte de múltiples usuarios, integridad de los datos y seguridad de acceso y auditoría. Para obtener la mayor cobertura posible con la presente investigación, el manual para la administración de las bases de datos está hecho para trabajar con dos programas a los cuales la mayoría de las personas tienen un acceso relativamente fácil: Excel y Access, pues estos dos programas por sus características de realizar operaciones matemáticas y estadísticas de todo tipo permitiendo la creación de tablas, gráficos, marcos y la manipulación de bases de datos, cuentan con las herramientas suficientes para ser el soporte de una buena administración de la información. Para la manipulación de una base de datos, en el caso de Excel existen tres comandos básicos y las diferentes fórmulas que están relacionadas con mercadeo: filtrar, ordenar y tablas dinámicas, que permiten organizar y limpiar la información, y en el caso de Access se identifican cuatro componentes: tablas, consultas, formularios e informes. A la hora de enriquecer una base de datos existen varios métodos que le permiten a los agentes de mercadeo de las empresas obtener ese recurso tan importante como lo es la información de sus clientes, entre los medios de intercambio de información más comunes se encuentra información para participación en sorteos, información a cambio de descuentos, información en encuestas de satisfacción, información en inscripciones por páginas web e información por compra de productos o servicios; todo el intercambio de información entre clientes y empresas está protegido por la Ley General de Protección de Datos la cual le brinda a las personas la tranquilidad de que a la información que proporcionen no se le dará un uso inadecuado.At this time there are a lot of companies which are needing a support about their customer’s management information, because many of that companies have important material but they don’t know how use that information. Through of this investigation was born the answer for the next question: ¿what is the best way to manage the information in a company to get a good marketing benefit? , now people and enterprises can do an organized process to manage databases. It’s important recognize the principal characteristics about databases: logical independence, minimum redundancy, busy access from different users and information security. This manual had been doing to work with two programs which have access easily for the users: Excel and Access, these programs allow make mathematics operations and all kind of statistics; it helps to create tables, graphics and databases manipulation. Excel has three kind of basic commands and different formules which have relation with marketing: filter, order and dynamic tables, what allow organize and clean the information; on the another hand, Access has four important components: tables, consultations, forms and reports. There are some ways to get information from customers; here are some of the most important: information from sweepstakes, information from discount, information from satisfaction survey, information from website’s registration and information from shopping of products and services. The customer’s information is protected by General Law on Data Protection which gives information’s security to people. Finally it’s convenient recognize the channels which companies use to keep in contact with their customers, with the object of advertising, satisfaction survey and update data; the most popular methods are: telephone call, mobile call, text message, email marketing, social networks and websites

    La implementación de una arquitectura para inteligencia de negocios con aplicaciones comunitarias (estudio de caso: Hospital de la Amistad, Santa Rosa de Piura)

    Get PDF
    Poco a poco son más las organizaciones que perfilan sus estrategias y proyecciones a largo plazo, basando su crecimiento no solo en elementos tangibles como los estados financieros, sino que han implementado elementos como el nivel de la capacidad de sus trabajadores, eficiencia y eficacia de sus procesos, la satisfacción de sus clientes hacia sus servicios o productos. El Balanced Scorecard es una herramienta que permite medir aquellos indicadores financieros y no financieros de la organización, orientando todos sus esfuerzos al logro de objetivos, ya que su función primordial es traducir la visión y la estrategia de la organización en un conjunto de indicadores que informen de la consecución de los objetivos. Esta metodología constituye una de las herramientas más eficaces para implementar y llevar a la práctica el plan estratégico de la compañía o institución. Uno de los factores y el más importante para las instituciones son los que afectan de manera relevante, como el que los funcionarios no cuentan con una herramienta que les permita monitorear, controlar y dirigir el cumplimiento y avance del plan estratégico. Especial parte débil de una institución mixta,desde la perspectiva administrativa

    Integración y explotación de datos ambientales y socieconómicos a escala europea

    Get PDF
    Dentro del proyecto Land and Ecosystem Accounting (LEAC) que se realiza en el contexto de trabajo de la Agencia Europea de Medio Ambiente, se ha desarrollado una metodología y posterior implementación de una herramienta que permite analizar los usos del suelo, sus cambios y tendencias para diferentes años. Además, esta herramienta permite la integración no sólo de datos medioambientales sino también la incorporación de otro tipo de datos como son los socio-económicos a través de diferentes metodologías; como por ejemplo: el Producto Interior Bruto, la población activa o zonas de influencia urbana. Esta integración de datos de diferentes temáticas permite realizar un análisis de la información disponible desde una perspectiva mucho más holística. En el presente artículo se describe la naturaleza de los datos, así como los distintos procesos que se llevan acabo con los datos espaciales y temáticos mediante el uso de diferentes programas de Sistemas de Información Geográfica (SIG), su introducción en una base de datos relacional y finalmente, mediante el uso de la tecnología Online Analytical Processing (OLAP), la generación de una pequeña base de datos, denominada “cubo” en terminología OLAP, que contiene todas las combinaciones y posibles agregaciones de la información de partida. El usuario final es capaz de realizar una gran multitud de consultas espaciales de forma inmediata, sin la necesidad de utilizar ningún programa SIG utilizando para ello simples paquetes de ofimática, como por ejemplo Excel que ofrece la posibilidad de generar tablas y gráficos. Sin embargo, el futuro de dicha herramienta pasa por el desarrollo de una plataforma Web que permita la explotación y análisis de estos cubos en forma de gráficos, tablas y mapas interactivos. Es por este motivo que en el contexto del proyecto LEAC se desarrollará un prototipo de herramienta Web, que facilite el uso y acceso universal a la información con la funcionalidad anteriormente descrita. Palabras Clave: OLAP, Integración de datos, Sistemas de Información Geográfica, Datos ambientales y socioeconómicos.Within the Land and Ecosystem Accounting (LEAC) project developed in the context of work of the European Agency of Environment, it has been developed a methodology, which was then implemented into a tool that allows to analyze the uses of the land, its changes and tendencies for different years in Europe. In addition, this tool allows the integration not only of environmental data but also the incorporation of others types of data, as for example the socio-economic information, through different methodologies. Example of variables could be the Gross Domestic Product, active population or zones of urban influence. This integration of different thematic data allows undertaking an analysis of the available information available from a holistic perspective. In the present article the nature of the data is described, as well as the different processes to involve spatial and thematic data by means of the use of different Geographic Information System (GIS) tools ,its introduction in a relational database and finally, by means of the use of the technology On-line Analytical Processing (OLAP), the generation of a small data base, denominated “cube” using the OLAP terminology which contains all the possible combinations and aggregations of the information included in the cube. In this way, the end user is able to analyze of space consultations of immediate form, without the necessity to use any GIS program, instead of that using common software packages, like a spreadsheet, Excel in example, offers the users the possibility of generating tables and graphs. Nevertheless, the future of this tool goes through the development of a Spatial Web platform which will allows in the future the analysis of the cubes generating graphs, interactive tables and coropleth maps. This is the reason why in the context of the LEAC project a prototype of this tool has been planned to be developed, tool that will facilitate the exploratory analysis of the results through maps, charts and tables and a will also bring an universal access to the information and functionality due to it will be based in the Web2.0 technology

    Datamart basado en la metodología de Ralph Kimball para el soporte de la toma de decisiones del área de atención al asegurado de la UDR Callao del Seguro Integral de Salud

    Get PDF
    La presente investigación comprende el desarrollo e implementación de un Datamart, como una solución para aplicar Inteligencia de Negocios en la UDR Callao del Seguro Integral de Salud, que ayudara como soporte a la toma de decisiones a nivel gerencial y operativo en los procesos de seguimiento de afiliación de asegurados SIS de la región Callao. La UDR Callao del Seguro Integral de Salud, es una institución del estado que gestiona fondos de cobertura de atención de salud para todos los peruanos que no cuentan con algún tipo de seguro de salud. Donde toda información registrada sobre las atenciones y afiliaciones realizada por las Instituciones Prestadoras de Salud (IPRESS), requieren ser explotadas y así brindar una información confiable para realizar un análisis de seguimiento de los indicadores de tasa de cobertura de asegurados y nivel de servicio en la UDR Callao. Se tiene como objetivo determinar la influencia de un datamart en el proceso de toma de decisiones del área de atención al asegurado de la UDR Callao del Seguro Integral de Salud. Para el desarrollo del datamart se aplicó la metodología de Ralph Kimball, usando gestor de base datos Microsoft SQL Server 2017 y complemento de Visual Studio para la arquitectura técnica de diseño, cuya implementación se realizó a través de Power BI Desktop, donde la investigación es tipo aplicada – experimental y diseño pre-experimental. Se concluye que, una adecuada implementación de un datamart, permite obtener mejores resultados y tomar decisiones adecuadas sobre seguimiento de cobertura de asegurados SIS y nivel de servicio de atención en la UDR Callao, como resultad se incrementó en un 28.08% y 14.79% respectivamente por cada indicador

    Uma proposta para execução de consultas complexas em uma grande base de dados de imagens horizontalmente fragmentada

    Get PDF
    Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico, Programa de Pós-Graduação em Ciência da Computação, Florianópolis, 2014.Sistemas de recuperação de informação têm se tornado cada vez mais populares e eficientes. Porém, a recuperação de objetos complexos (e.g., imagens, vídeos, séries temporais) ainda apresenta enormes desafios, principalmente quando envolve similaridade de conteúdo. O problema se torna ainda mais intrincado se as condições de busca incluem predicados convencionais conectados logicamente à predicados baseados em similaridade. A otimização de tais consultas é um problema em aberto hoje em dia. Este trabalho valida uma proposta para melhorar o desempenho de consultas que podem ser expressas por conjunções de predicados convencionais e baseados em similaridade. Tal proposta utiliza fragmentação de dados, segundo predicados diversos e compatíveis com predicados utilizados em consultas. A validação da proposta é feita sobre uma grande base de dados chamada CoPhIR a respeito de imagens, com dados convencionais a elas relacionados. Esta base é manipulada em um sistema de banco de dados relacional com extensões para o tratamento de predicados baseados em similaridade, caracterizada segundo a distribuição do seu conteúdo, fragmentada e indexada, com métodos de acesso convencionais e métricos. Verificou-se um melhor desempenho na execução de algumas consultas com cláusulas conjuntivas para filtragem de dados utilizando os fragmentos propostos do que sobre a base completa.Abstract : Information retrieval systems are growing in popularity and efficiency. However, the retrieval of complex data (e.g., images, video, temporal series) presents huge challenges yet, particularly when it involves content similarity. The problem becomes even more intricate if the search condition includes conventional predicates logically connected to similarity-based predicates. The optimization of such queries is an open problem nowadays. This work validates a proposal for improving the performance of queries that can be expressed by conjunctions of conventional predicates and similarity-based predicates. This proposal employs data fragmentation, according to diverse predicates, that are compatible with the predicates used in queries. The validation of this proposal is done on a large image database, named CoPhIR with conventional data associated with the images. This database is handled in a relational database system with extensions for coping with similarity-based predicates, characterized according to contents distribution, fragmented and indexed, for efficient access with conventional methods and metric methods. The result of the experiments shows that for some queries with conjunctive filtering clauses were executed more efficiently on fragments than by accessing the complete database

    Sistema electrónico de control y trazabilidad de medicamentos usando Hardware Arduino con tecnología RFID-RC522

    Get PDF
    El proyecto se realizó con la finalidad de llevar el control y trazabilidad de medicamentos de control especial (MCE) o alto costo y la reducción de eventos adversos por errores de medicación con pacientes hospitalizados, esta herramienta permitirá que el personal técnico del Instituto Prestador de Salud (IPS) cuente con un aplicativo fácil y optimo que permita consultas y ayude a sus labores al momento de la dispensación de medicamentos y minimizar los errores humanos, ya que este procedimiento está definido en forma manual por el personal técnico. Esta aplicación realiza la automatización del proceso de la manipulación de medicamentos MCE o alto costo y brinda a la institución un mejor control de estos medicamentos por fuera de la farmacia. El proyecto está dividido en tres partes fundamentales: primero, implementación de hardware ARDUINO UNO con módulo RFID-C522 que consta con un sistema de modulación y demodulación para todo tipo de dispositivos pasivos de 13.56Mhz, y una conexión serial hacia la aplicación, segundo, un aplicativo en la plataforma QT Creator firmware C++ que permite la interacción del usuario-servidor y por último una base de datos MARIADB en MYSQL para el registro de datos

    Desarrollo De Un Datamart Bajo El Enfoque De Inteligencia De Negocios Para Mejorar La Toma De Decisiones En La Gerencia Comercial De La Corporación Radial Del Perú

    Get PDF
    El presente trabajo de suficiencia profesional evidencia la experiencia y los conocimientos ganados al desarrollar un Datamart bajo el enfoque de Inteligencia de Negocios en el Área Comercial de la Corporación Radial del Perú (CRP). CRP contaba con la necesidad de poder controlar, estandarizar, procesar los datos y acceder de forma rápida y oportuna a la información generada. CRP contaba con un analista que consolidaba y descargaba de forma diaria los datos de las diversas fuentes manualmente (WO, vTiger e IBOPE), los validaba, corregía y recargaba la data final a una base de datos consolidada. En esta base de datos consolidada los usuarios realizan consultas AD HOC para la obtención de diversos reportes requeridos por el área comercial. El analista se encargaba de homologar los clientes en las diferentes fuentes incurriendo en tiempo excesivos por los volúmenes de datos que manejan y sujetos a error.Trabajo de suficiencia profesiona
    corecore