28 research outputs found

    Sistemas de información turística: implementación de una API experimental y prueba de conceptos para cliente móvil

    Get PDF
    203 p.Cuando alguien decide promover un lugar turístico, se tiene la difícil tarea de convencer a otros a visitar un destino determinado en base a información cercana del lugar. Lo anterior realza la conexión existente entre la industria del turismo y la ciencia de la información. Pero esta relación no se limita sólo a “vender” un destino en particular. Por el contrario, la ciencia de la información y las tecnologías asociadas ayudan en muchos aspectos de los llamados Sistemas de Información Turística (SITs). Los SITs corresponden a una familia de sistemas especialmente diseñados para gestionar la información relativa al turismo y que permite a la gente aprender, planificar, compartir y evaluar un destino turístico a través de un computador de escritorio o un dispositivo móvil. Este manuscrito presenta una comparación sistemática de SITs incluidos en el estado del arte. El objetivo es determinar qué aspectos de los SITs son más relevantes y deben ser considerados al diseñar uno nuevo. Adicionalmente, se presenta el diseño y la implementación de una Interfaz de Programación de Aplicación (API) - interfaz que permite la comunicación con otras aplicaciones – para un SIT en Chile, así como la respectiva prueba de concepto (PdC) para dispositivos móviles, el cual permite verificar el funcionamiento de la API respectiva

    Modelo predictivo de los rasgos fenotípicos del trigo: una metodología sistemática

    Get PDF
    97 p.El cambio climático y la creciente población mundial plantean la necesidad de adaptar cultivos a diferentes condiciones. Hoy en día, los científicos y las empresas se enfrentan a un reto importante en el aumento de la productividad del suelo con el fin de obtener más alimentos. Uno de los cereales más utilizados es el trigo debido a sus propiedades nutricionales deseables. Científicos en Chile están llevando a cabo experimentos con diferentes variaciones del gen del trigo para encontrar uno que sea más rico y nutritivo. El proceso tradicional consiste en cultivar diferentes tipos de trigo y observar a través del tiempo su rendimiento. Sin embargo, esta tarea es costosa, ya que requiere mano de obra especializada y equipos costosos. El objetivo de esta investigación es estimar analíticamente el rendimiento del trigo sobre la base de información estadística. Esto se logra construyendo un modelo de regresión que sea capaz de predecir la capacidad de producción basada en mediciones de la reflectancia espectral de los individuos. Diseñamos un modelo de regresión basado en datos de reflectancia espectral para predecir el rendimiento del trigo. Como parte de la metodología, procesamos previamente los datos, eliminando las instancias con datos incompletos, encontrando valores atípicos, reduciendo la dimensionalidad de los datos y construyendo los regresores. Esta metodología se explica de la manera más genérica posible, con la esperanza de que sea un recurso útil para futuros investigadores que quieran reproducir nuestro método para estimar el rendimiento del trigo o cualquier otro tipo de planta. /Abstract: Climate change and the increasing world population bring about the need of adapting crops to different conditions. Nowadays, scientists and companies face a major challenge in increasing the productivity of the soil so as to obtain more food. One of the most widely used cereals is wheat, due to its desirable nutrition properties. Scientist in Chile are carrying out experiments using different variation of the wheat gene, in order to find a strain that is wealthier and more nutritious. The traditional process consists in growing different types of wheat and observe its performance over a lengthy time span. This task is costly, since it necessitates specialized labor and expensive equipment. The goal of this research is to analytically estimate the performance of wheat based on statistical information. This is achieved by constructing a regression model that is able to predict the production capacity based on measurements of the spectral reflectance of the individuals. We propose a regression model based on spectral reflectance data which allows to predict the performance of the wheat. As part of the methodology, we pre-process the data, removing incomplete data, finding outliers, reducing the dimensionality of the data, and building the regressors. This methodology is explained as generic as possible, in hopes that it will be used as a useful resource for future researchers that want to reproduce our method for estimating the performance of wheat or any other type of plant

    Utilización de Naive Bayes para predicción de victorias en jugadores de la Asociación de Tenistas Profesionales

    Get PDF
    86 p.La predicción de juegos deportivos es un tema de interés para el mundo de las apuestas, ya sea para beneficiar a los apostadoros o maximizar las ganancias de las casas de apuestas. Las distintas asociaciones de deportes han almacenado información detallada respecto al desempeño de jugadores, incluyendo resultados de enfrentamientos contra adversarios y detalles del desempeño individual, etc. Frecuentemente,mucha de esta información se encuentra públicamente disponible en los respectivos sitios web de las asociaciones deportivas.El problema a resolver consiste en utilizar esta información histórica para predecir el resultado mal de un encuentro de tenis entre dos oponentes.Para lograr el objetivo propuesto, se obtuvieron datos disponibles públicamente desde el sitio web de la Asociación de Tenistas Profesionales (ATP)1. Estos datos contienen información estadística respecto a encuentros individuales entre dos oponentes e información cuantitativa del desempeño de un jugador durante una temporada. Estos datos fueron debidamente transformados y posteriormente utilizados para construir un modelo de clasificación. Se entrenó el modelo con datos de la temporada 2012, identificando que es posible predecir dependiendo del contexto, hasta con un 80% de efectividad, quién obtendrá la victoria en juegos de una misma temporada. Adicionalmente, se detectó que la superficie en la que se juega, es determinante en el proceso de predicción. Otro conjunto de experimento, consideró utilizar el modelo de aprendizaje generado a partir de datos de la temporada 2012 para predecir las temporadas 2013 y 2014. En este caso obtuvimos precisiones del orden del 65 %, lo que es superior a una predicción puramente aleatoria. En opinión de este autor, estos resultados hacen evidente el potencial de la minería de datos para anticipar resultados de eventos deportivos. Este caso se enfoca particularmente en el tenis, pero se estima que la metodología expuesta en el presente documento es suficientemente genérica para ser aplicada en otros contextos

    Estimación de la calidad del aire en la ciudad de Talca utilizando algoritmos de aprendizaje automático

    Get PDF
    58 p.Actualmente, muchas ciudades del centro y sur de Chile presentan un problema estacional (otoñoinvierno) de contaminación del aire por material particulado, asociado a las características meteorológicas de los emplazamientos, y por otra parte, a altas emisiones de calefactores domiciliarios a leña. Sin embargo, los estudios de predicción de la calidad del aire se han concentrado en la ciudad de Santiago de Chile, observándose sólo dos estudios en ciudades de tamaño medio del centro y sur (Saide, Mena-Carrasco, et al. 2016). El presente trabajo se ha enfocado en generar un modelo de predicción de la calidad del aire en la ciudad de Talca (35°26'S; 71°44'W), ciudad de tamaño medio, localizada en la zona central de Chile. El objetivo del estudio es predecir con un día de anticipación el material particulado de diámetro igual o menor a 2.5 micrómetros (MP2,5), para lo cual hemos utilizando tres modelos de aprendizaje automático: Perceptrón Multicapa (MLP), redes neuronales semisupervisadas basado en Selforganizing map (SOM) y Random Forest (RF). Los modelos utilizan una base de datos construida a partir de los registros históricos de calidad del aire, además de registros meteorológicos de velocidad del viento y temperatura en tres estaciones de medición de la ciudad. En tanto, los procesos de modelación consideran una búsqueda exhaustiva de parámetros. Nuestros resultados comprueban la alta capacidad de Random Forest como algoritmo predictor de episodios de emergencia ambiental en las tres estaciones de monitoreo de la ciudad, superando a los algoritmos de redes neuronales artificiales, reportados con los mejores resultados en la bibliografía. El modelo es una alternativa para las autoridades locales de la ciudad, ya que permitiría mejorar el sistema actual de pronósticos de calidad del aire./ ABSTRACT. At present, many cities in central and southern Chile have a seasonal (autumn-winter) problem of air pollution by particulate matter, associated with the meteorological characteristics of the sites and high emissions of domestic wood-burning stoves. However, air quality forecasts studies have been concentrated in Santiago-Chile, observing only two studies in medium-sized cities in the center and south from Chile (Saide, Mena-Carrasco, et al. 2016). The present paper has focused on generating a model of air quality forecasts in the city of Talca (35°26'S; 71°44'W), medium-sized city, located in the central zone from Chile. The aim of the study is to predict one-day-ahead particulate matter with a diameter equal to or less than 2.5 micrometers (PM2.5), for which we have used three models of machine learning: Multi-layer Perceptron (MLP), semisupervised neural networks based on Self-organizing map (SOM) and Random Forest (RF). The models use a database constructed from the historical air quality records and meteorological records (wind speed and temperature) in three measurement stations of the city. Modeling processes consider a comprehensive search for parameters. Our results verify the high capacity of Random Forest as an algorithm predictor of environmental emergency episodes in the three monitoring stations of the city, surpassing the algorithms artificial neural networks, reported with the best results in the literature. The model is an alternative for local authorities in the city, as it would improve the current system of air quality forecasts

    Diseño de una interfaz gráfica para búsqueda de patrones estructurales en el Protein Data Bank

    Get PDF
    114 p.La estructura que posee la materia define sus propiedades y funciones. En las últimas décadas, gracias a los avances de la ciencia y la tecnología, investigadores han utilizado variadas técnicas para determinar la estructura de macromoléculas tales como proteínas, ADN y ARN. La información conseguida es útil para describir las interacciones que se dan entre moléculas, y así poder entender las estructuras y funciones que permiten muchos procesos biológicos importantes. El volumen de información de macromoléculas que se maneja hoy en día es muy grande. Por esto se han creado bancos de datos que intentan unificar y mantener accesible la información a nivel global. Este es el caso del Protein Data Bank (PDB). Sin embargo, poder analizar los datos almacenados es una tarea difícil, que solo se lleva a cabo mediante herramientas de software especializadas. La mayor a de las herramientas disponibles actualmente poseen interfaces estándar y se limitan a realizar búsquedas a través de formularios, con los cuales no se pueden elaborar consultas avanzadas que entreguen datos realmente trabajados. Para efectuar una consulta compleja, las herramientas ofrecen confeccionarlas y ejecutarlas directamente, por ejemplo, en código SQL o a través de lenguajes de programación. Este proyecto se enfoca en entregar una solución práctica para un problema específico, la búsqueda de patrones estructurales a nivel de interacción entre un ligando y los aminoácidos que lo rodean, en su sitio de unión en las macromoléculas. La solución consiste en el diseño de una interfaz gráfica que permita dar forma a un patrón estructural basado en elementos de grafo, y que luego tal patrón sea transformado en una consulta SQL para buscar coincidencias dentro de una base de datos relacional que contiene la información de PDB. Respecto a las contribuciones, en este proyecto se implementó un prototipo funcional que satisface las necesidades originadas por el problema abordado, el prototipo fue validado, y evaluado positivamente por un grupo de usuarios cualificados. Además, en el proceso se desarrolló un método que permite transformar asociaciones de pares de componentes gráficos en consultas SQL, y que al unirlas pueden representar patrones estructurales de alta complejidad. Por último, el aporte a la comunidad científica es facilitar el estudio de estructuras por medio de una interfaz comprensible y fácil de usar, que revoluciona el modo de interacción habitual.Palabras clave : Patrones estructurales , Interacciones proteína-ligado , Interfaz gráfi ca de usuario ,Sitio de unión, PD

    Prototipo de visualización de datos en altas dimensiones en el contexto educacional

    Get PDF
    137 p.La visualización es un proceso primordial en minera de datos. Se considera parte de la fase conocida como análisis exploratorio de Datos, propuesto por Tukey [32]. La ventaja de este método es el utilizar la capacidad innata del ser humano para reconocer patrones, lo que ayuda a tomar decisiones en etapas tempranas cuando se realiza minera de datos. Este trabajo consiste en la construcción de un prototipo de visualización web para realizar análisis exploratorio de datos. La contribución principal del trabajo es la visualización multidimensional para la familia de redes neuronales conocida como Tree-Based Topology Oriented Self-Organizing Maps (TTOSOM). Esta familia de algoritmos actualmente es útil para resolver problemas de clustering, clasificación y regresión. Los detalles de este método ha sido reportado en diversos trabajos científicos [3].A pesar que los códigos fuente de estas redes neuronales ya se encuentran disponibles públicamente en diversos repositorios de código libre, el uso de estos requiere un conocimiento previo en programación. Este trabajo proporciona una capa de fácil uso enfocado a personas sin habilidades en programación, pero entrenados en la interpretación del algoritmo inteligente. Estos usuarios pueden utilizar los métodos para establecer conclusiones respecto a los datos analizados. Este framework, única las técnicas de clustering, clasificación y regresión basadas en TTOSOM a través de una interfaz web de acceso público. Adicionalmente, se presenta una aplicación del algoritmo TTOSOM en el contexto educacional. Específicamente se toman datos obtenidos del SIMCE (Sistema Sistema de Medición de la Calidad de la Educación) para visualizar tanto los datos como los arboles neuronales. Un beneficio extra que se ha incorporado en este trabajo, es su naturaleza genérica. A pesar que la implementación de este prototipo se limita al entrenamiento y visualización de la familia TTOSOM, se diseño el sistema de manera modular

    Cuantización vectorial utilizando árboles k-Dimensionales

    Get PDF
    62 p.En computación, la compresión de datos se refiere a la capacidad de reducir el volumen de datos, representando de forma sucinta los datos originales, con el fin de optimizar el espacio empleado para guardar estos valores o mejorar la velocidad de comunicación. Existen dos familias de métodos para realizar este trabajo, LOSSLESS en la cual se almacena íntegramente la información y LOSSY en la que se pierde parte de la información original. Cuantización vectorial (VQ) es un algoritmo de compresión de datos perteneciente a la familia LOSSY. VQ ha sido aplicado con éxito en gran número de aplicaciones en los campos de compresión y transmisión de datos multimedia, reconocimiento del habla, marca de agua digital, recuperación de imágenes y audio entre otros, ya que posee un ratio de compresión sumamente alto, entregando grandes beneficios al mundo de la ingeniería. Pero este algoritmo posee una dificultad, la cual radica en su alto tiempo de codificación y decodificación al procesar grandes volúmenes de información. En este documento se presenta el desarrollo de una variante del algoritmo VQ, el cual es un algoritmo híbrido, que utiliza las migraciones de los vectores como se realiza en VQ y se estructura estos valores migrados en un árbol k-dimensional (KDTREE- VQ). Este último, con la finalidad de disminuir la complejidad de ejecución de VQ, mejorando los tiempo de codificación y decodificación al procesar volúmenes grandes de información. Con la finalidad de verificar si el nuevo algoritmo KD-TREE-VQ logra mejorar la complejidad temporal, se realizaron pruebas con archivos de distintos tamaños, comparando el tiempo de codificación, decodificación y la calidad de la respuesta entregada, llegando a la siguiente conclusión: El tiempo de decodificación empleado en el algoritmo KD-TREE-VQ es mejor que en VQ, por otro lado, KD-TREE-VQ logra tener una calidad de respuesta muy cercana a la de VQ y fiesta la entrega en un tiempo de ejecución menor que VQ. Logrando así mejorar la complejidad temporal del algoritmo VQ en forma experimental. Cuantización Vectorial, árbol, kd-tree, Compresión de datos, VQ

    Desarrollo de un Sistema de Control y Digitalización de Pruebas Psicotécnicas para GNEX Gabinete Psicotécnico

    Get PDF
    138 p.En nuestro país, como en cualquier parte del mundo el conducir un vehículo moto-rizado conlleva una enorme responsabilidad, por ello se hace indispensable demostrar que se está capacitado para dicho ejercicio. Para obtener un permiso de conducción se debe acreditar un adecuado estado moral, psíquico y físico, además de contar con los conocimientos teóricos y prácticos de conducción enmarcados dentro de las dis- posiciones legales y reglamentarias dispuestas por la legislación vigente. Dentro del contexto psíquico y físico los municipios realizan evaluaciones psicosen-sométricas con un equipo de evaluación que mide la concentración, la velocidad de reacción y el nivel de visión entre otras habilidades, este equipo se conoce como gabinete psicotécnico [1]. Este proyecto tiene como objetivo el desarrollo de un sistema de software para el control de un gabinete psicotécnico denominado Gnex, desarrollado por la empresa Exceed Ltda. Este software tiene como finalidad el control centralizado de las distintas pruebas que conforman el gabinete y la administración de datos emanados de cada evaluación, permitiendo entre otras cosas: Evitar el falseo de resultado por parte de los evaluadores en perjuicio o beneficio de quien está siendo evaluado. La idea es que los resultados de las interacciones del evaluado con las pruebas sean leídas y registradas por el software y no dependan del juicio de quien está realizando la evaluación, mejorando de esta forma la veracidad de los resultados. Dar mayor confianza del resultado de los exámenes psíquicos a los evaluados; reemplazando las pruebas mecánicas por pruebas virtuales, las cuales permiten visualizar de forma gráfica e inequívoca los errores y/o aciertos cometidos. Tener un registro histórico de los resultados de las evaluaciones realizadas. Permitir el control de pruebas y la obtención de resultados desde otras aplicaciones, (comúnmente usadas para la gestión de licencias de conducir) mediante el uso de una interfaz de interoperabilidad./ABSTRACT: In our country as elsewhere in the world to drive a motor vehicle carries enormous responsibility, so it is essential to demonstrate to be qualified for that practice.To obtain a driving license you must demonstrate an adequate moral, mental and physical status, in addition you need to have a theoretical and practical knowledge of driving according to the laws and regulations set by the legislation. In the context of physical and psychological the municipalities made psychometric evaluations, with an equipement that measures the concentration, the reaction rate and the level of vision, among other skills, this equipement is known as psycho cabinet [1]. This project aims to develop a software system for controlling a psycho cabinet called GNEX, developed by Exceed Company Ltd. This software objetive is the centralized control of various tests that are part of cabinet and management data obtained from each test, allowing among other things: Avoid falsified results by evaluator in aid or benefit of who are being evaluated. The idea is that the interactions results of evaluated with tests are read and recorded by the software does not depend on the judgment of who is making the evaluation, thereby improving the accuracy of the results. Give greater confidence psychic test results for evaluated, replacing mechani- cal testing for virtual testing, allowing graphical display of mistakes and / or successes done. To have a historical record of evaluations results. Allow the control and obtaining of testing results from another applications (commonly used for managing drivers licenses) through an interoperability interface .

    Evaluación de modelos de confianza y reputación en un entorno de computación distribuida Grid sobre AliEn middleware

    Get PDF
    137 p.La creciente demanda de recursos computacionales y de almacenamiento han hecho de la computación distribuida un recurso necesario para la investigación cientí ca. Una de sus últimas formas es la computación Grid. Grid es una infraestructura que agrupa recursos computacionales desde distintas ubicaciones con un objetivo común. Por estas características la colaboración ALICE del CERN utiliza esta infraestructura en sus experimentos. Con el n de dar acceso a los recursos que provee Grid, ALICE ha desarrollado el Middleware AliEn. Una forma de medir la calidad de los miembros pertenecientes a un Grid es obtener la Con anza y Reputación que demuestran. La Con anza y Reputación son conceptos subjetivos por lo que distintos modelos han sido creados para poder medirlos de una forma más objetiva. Estos modelos miden la cantidad de éxitos y fracasos que presentan al realizar trabajos, por una parte, los usuarios que envían estos trabajos para ser procesados y por otra, los sitios que los reciben y los procesan. Como una forma de apoyar a esta colaboración, la Universidad de Talca ha propone utilizar un Modelo de Con anza y Reputación dentro de AliEn con el fi n de mejorar la cantidad de trabajos exitosos que se procesan dentro del Grid. En esta memoria se estudian distintos modelos y se escogen los que mejor se adaptan a AliEn para una futura implementación. Los modelos son implementados fuera de AliEn y se comparan utilizando datos obtenidos desde MonALISA, el monitor de AliEn./ABSTRACT: The increasing demand for computational resources and storage has made distributed computing a necessary resource for scienti c research. One of its latest forms is Grid computing. Grid is an infrastructure that collects computer resources from multiple locations to reach a common goal. For these characteristics the ALICE collaboration at CERN uses this infrastructure in their experiments. In order to provide access to the resources that Grid provides, ALICE has developed AliEn Middleware.A way to measure the quality of members belonging to a Grid is to get the Trust and Reputation they demonstrate. Trust and Reputation are subjective concepts so di erent models were created to measure them in a more objective manner. These models measure the quantity of successes and failures that occur when jobs are executed, on one hand, users who send these jobs to be processed, on the other hand, sites that receive and process them. To support this collaboration, the University of Talca has proposed to use a Trust and Reputation Model in AliEn in order to improve the number of successful jobs that are processed within the Grid. In this thesis, di erent models are studied and the best suited to AliEn are chosen for future implementation. The models are implemented outside AliEn and compared using data acquired from MonALISA, the monitor of AliEn

    Metodología para detección del cambio en modelos de regresión logística aplicado al problema de Credit Scoring

    Get PDF
    110 p.En industrias altamente competitivas, como la industria financiera, es necesario contar con modelos de Credit Scoring que sean eficientes y objetivos para evaluar el mérito del postulante para recibir un crédito. Dentro de las limitaciones de estos modelos se puede mencionar que son estáticos, y no considera que los patrones que definen la relación entre la variable objetivo y las variables explicativas cambien a través del tiempo (Concept Drift), debido a que la distribución asumida en la construcción del modelo es estacionaria. Esto tendrá como consecuencia que el modelo pierda su poder discriminador en las nuevas observaciones y deba ser constantemente re-calibrado.El objetivo de esta tesis tiene por finalidad proponer una metodología que permita detectar de manera temprana si las variables involucradas en la calibración de los modelos de regresión logística aplicados al problema de Credit Scoring, sufrieron un cambio estadísticamente significativo a medida que trascurre el tiempo.En primer lugar se desarrolló un modelo de Credit Scoring bajo la metodología de descubrimiento de conocimiento en bases de datos (KDD) utilizando información de una institución financiera real. La técnica estadística utilizada fue la regresión logística, ya que posee buen desempeño en la tarea de clasificación, facilidad de aplicación e interpretación y por calcular directamente las probabilidades de no pago. Se aplicó la metodología de detección del cambio propuesta en esta tesis sobre una muestra de 5.207 observaciones que busca detectar los cuatro posibles tipos de cambio, siendo éstos: cambio en la estabilidad de parámetros, en la capacidad discriminante de las variables, distribución de las variables y un cambio global en el modelo.Se determinó que hubo cambio estadísticamente significativo en las variables del modelo, corroborando que existe una consistencia importante entre el test de estabilidad de parámetros, los test no paramétricos Chi-cuadrado de Pearson y Kolmogorov – Smirnov y la divergencia de Kullback – Leibler, los cuales coinciden en la determinación de las variables más críticas. La capacidad predictiva del modelo disminuyó a un 68,7% en referencia al 84,7% de acierto global que tenía el modelo original al momento de ser calibrado.Para determinar si un modelo deber ser re-calibrado, las Instituciones Financieras deben definir el apetito de riesgo con el objeto de delimitar de forma sintética y explícita, los niveles y tipologías de riesgo que la entidad está dispuesta a asumir en el desarrollo de su actividad
    corecore