21 research outputs found

    Soluciones alternativas para disminuir el spread bancario. Análisis económico.

    Get PDF
    Los últimos informes de competitividad global confirman que en Chile el spread de las tasas de interés bancarias es bastante alto en relación a sus vecinos y los demás países relativamente desarrollados. Como respuesta, gran parte de los medios y la opinión popular culpan de ello a un mercado bancario chileno poco competitivo, exigiendo reformas a un sistema estratégico, en extremo sensible y regulado. El presente estudio tiene por objeto demostrar cuán razonable es cuestionar aquella exigencia –dada las características del mercado, la función social y económica que cumple, y el peligro de intervenirlo forzosamente a fin de hacerlo más competitivo-  y considerar que existen soluciones más eficientes, más pacíficas, y menos riesgosas. Se propone el concepto de costo de no pago como variable determinante en la estructura de costos del interés bancario, y por consiguiente, su disminución como una alternativa viable de regulación

    Determination of the Soiling Impact on Photovoltaic Modules at the Coastal Area of the Atacama Desert

    Get PDF
    With an elevation of 1000 m above sea level, once the coastal mountain range is crossed, the Atacama Desert receives the highest levels of solar radiation in the world. Global horizontal irradiations over 2500 kWh/(m2 year) and a cloudiness index below 3% were determined. However, this index rises to 45% in the coastal area, where the influence of the Pacific Ocean exists with a large presence of marine aerosols. It is on the coastal area that residential photovoltaic (PV) applications are concentrated. This work presents a study of the soiling impact on PV modules at the coastline of Atacama Desert. The current–voltage characteristics of two multicrystalline PV modules exposed to outdoor conditions were compared, while one of them was cleaned daily. Asymptotic behavior was observed in the accumulated surface dust density, over 6 months. This behavior was explained by the fact that as the glass became soiled, the probability of glass-to-particle interaction decreased in favor of a more likely particle-to-particle interaction. The surface dust density was at most 0.17 mg·cm−2 per month. Dust on the module led to current losses in the range of 19% after four months, which in turn produced a reduction of 13.5%rel in efficiency

    Knowledge Graphs Evolution and Preservation -- A Technical Report from ISWS 2019

    Get PDF
    One of the grand challenges discussed during the Dagstuhl Seminar "Knowledge Graphs: New Directions for Knowledge Representation on the Semantic Web" and described in its report is that of a: "Public FAIR Knowledge Graph of Everything: We increasingly see the creation of knowledge graphs that capture information about the entirety of a class of entities. [...] This grand challenge extends this further by asking if we can create a knowledge graph of "everything" ranging from common sense concepts to location based entities. This knowledge graph should be "open to the public" in a FAIR manner democratizing this mass amount of knowledge." Although linked open data (LOD) is one knowledge graph, it is the closest realisation (and probably the only one) to a public FAIR Knowledge Graph (KG) of everything. Surely, LOD provides a unique testbed for experimenting and evaluating research hypotheses on open and FAIR KG. One of the most neglected FAIR issues about KGs is their ongoing evolution and long term preservation. We want to investigate this problem, that is to understand what preserving and supporting the evolution of KGs means and how these problems can be addressed. Clearly, the problem can be approached from different perspectives and may require the development of different approaches, including new theories, ontologies, metrics, strategies, procedures, etc. This document reports a collaborative effort performed by 9 teams of students, each guided by a senior researcher as their mentor, attending the International Semantic Web Research School (ISWS 2019). Each team provides a different perspective to the problem of knowledge graph evolution substantiated by a set of research questions as the main subject of their investigation. In addition, they provide their working definition for KG preservation and evolution

    Estrategias para desarrollar competencias genéricas en docentes con estudiantes que presentan trastornos específicos del lenguaje en la educación superior

    No full text
    Tesis (Magíster en Docencia para la Educación Superior)Cuando hablamos de educación inclusiva nos referimos a incluir en todo ámbito a los alumnos que presenten o no necesidades educativas especiales (NEE). Los establecimientos educaciones superiores dicen realizar educación inclusiva, pero la realidad es otra, siendo los niveles primarios y secundarios los que llevan la delantera sobre el tema. Es importante destacar, que nos encontramos en la era donde la inclusión esta presente en todo ámbito, por lo que se hace imprescindible realizar este proyecto de investigación, con el fin de dejar plasmado lo poco o nada que los docentes que imparten clases en el nivel superior saben o manejan de inclusión educacional. El proyecto fue aplicado en docentes de nivel superior de distintos planteles de educación superior del país durante el segundo período del año 2015. El objetivo de la investigación fue identificar que competencias genéricas manejan los docentes y si están o se sienten capaces de llevar a término a alumnos con NEE, especialmente a alumnos que presentan Trastornos Específicos del Lenguaje (TEL). Para ellos, aplicaron dos instrumentos de recolección de datos: Una encuesta sobre docencia en educación superior y una entrevista sobre docencia en educación superior, para recoger de forma cuantitativa y cualitativa los datos deseados. Para mayor validez de las metodologías se desarrolló el análisis de los datos usando metodología mixta. Para finalizar se desarrolló una propuesta donde se establece la creación de un departamento de educación inclusiva, el cual dependería de la facultad de educación de la Universidad Andrés Bello. Los resultados que arrojó el análisis de los datos indican que los docentes de los planteles superiores de educación, no cuentan con las competencias para atender las necesidades educativas de alumnos con TEL

    Mejora de la generalización de clasificadores convolucionales ya entrenados, usando feedback visual de usuario

    No full text
    Tesis para optar al grado de Magíster en Ciencias, Mención ComputaciónMemoria para optar al título de Ingeniero Civil en ComputaciónDentro de los métodos de Machine Learning, las redes neuronales convolucionales han logrado sorprendentes resultados en los últimos años. Sin embargo, es difícil identificar cómo funcionan y cómo corregir errores puntuales en modelos ya entrenados. El presente trabajo busca corregir modelos ya entrenados sin agregar más datos o cambiar la arquitectura subyacente. Esto es posible a través de establecer una comunicación entre el modelo y el usuario experto que permita mejorar el desempeño del modelo. Por un lado se generan visualizaciones de lo que el modelo considera relevante en la imagen de entrada, y por el otro, el usuario puede indicar si estas áreas son o no relevantes. Con este contraste se espera agregar información, aumentando la generalización del modelo, lo que se ve traducido en mejoras en la clasificación. Para entregar tal información al modelo se estudian dos métodos. El primer método corresponde a editar las áreas seleccionadas con modelos generativos de imágenes (image inpainting), de forma de rellenar las áreas seleccionadas con patrones distintos. El segundo método corresponde a plantear funciones de pérdida, las cuales castigan al modelo cuando este genere altas activaciones en las áreas consideradas como irrelevantes. Como resultado de la evaluación del trabajo, se observa que los métodos de reemplazo resultan no ser los indicados, ya que tienen problemas para ajustarse a las áreas irrelevantes dado la arquitectura requerida por el algoritmo de visualización CAM (Class Activation Mapping). Por tal motivo, se plantea una segunda propuesta basada en adaptar una función de pérdida. Aquí es necesario considerar las diversas variables de forma de balancear el objetivo de clasificación con el objetivo de eliminar activaciones irrelevantes. Tal proceso concluye con la creación de PASA (Pérdida por Activación Selectiva Ajustada). Se estudia el comportamiento del modelo en diversos conjuntos de datos. Los resultados indican que el método PASA logra cambiar las activaciones de forma satisfactoria, a la vez que corrige clasificaciones en las imágenes seleccionadas. Lamentablemente, la propuesta no logra producir cambios significativos en métricas de clasificación en el conjunto de prueba. Al analizar las suposiciones iniciales se determina que el modelo estudiado si bien presenta características irrelevantes, estas no son del tipo que genera confusión en el conjunto de prueba. Lo que existe es una gran redundancia de características. También se logró determinar que es posible encontrar las características irrelevantes de forma visual, pero no a través de la propuesta CAM, sino a través de observar directamente las activaciones. Por otro lado, si se conocen las características irrelevantes a priori, el método propuesto puede generar efectos positivos como se demuestra en el dataset X-RAY, sobre el que se logra una mejora significativa en las métricas de clasificación

    IMGPEDIA: A large-scale knowledge-base to perform visuo-semantic queries over Wikimedia Commons images

    No full text
    Magíster en Ciencias, Mención ComputaciónMotivación. Los estándares de la Web Semántica son útiles para poder organizar la información de la Web de forma que los computadores puedan procesarla y comprenderla de mejor manera, pudiendo así los usuarios realizar búsquedas más sofisticadas y contar con un lenguaje más expresivo para realizarlas. Sin embargo, la mayoría de las bases de conocimiento disponibles utilizan solamente la información textual en desmedro del contenido multimedia, el cual ha aumentado enormemente los últimos años y ya es parte fundamental de la Web. Objetivo. Dado lo anterior, nuestro objetivo en este trabajo es construir una base de conocimientos que nos permita combinar consultas semánticas con consultas sobre el contenido visual de las imágenes de la Web, que llamaremos IMGpedia. Concretamente, se trabajará utilizando las imágenes de Wikimedia Commons. Contribución. Una vez completado, este trabajo pretende ser un puente entre el mundo del análisis multimedia y el de la Web de Datos. En este sentido, todas las rutinas de descripción de contenido visual serán publicadas como implementaciones de referencia en diferentes lenguajes de programación. Además, la base de conocimientos será una fuente de Datos Enlazados Abiertos de alta calidad, puesto que proveerá enlaces a diferentes fuentes de conocimiento para proveer contexto. Finalmente, estos datos podrán ser consultados a través del SPARQL endpoint público provisto para tal efecto. Esta base de conocimientos es pionera en combinar información del contenido visual de imágenes de la Web con datos semánticos extraídos de DBpedia. Metodología. Se propone y desarrolla una metodología, dadas las 15 millones de imágenes extraídas de Wikimedia Commons, estas se analicen y procesen para formar una completa base de conocimiento. Primeramente, se calculan sus descriptores visuales; luego se computan sus vecinos más cercanos para establecer enlaces de similitud entre ellas; posteriormente, se propone una estrategia para enlazar las imágenes con recursos de DBpedia si es que las imágenes son utilizadas en el respectivo artículo de Wikipedia; y, finalmente, los datos se publican como un grafo RDF, listos para ser consultados a través de un terminal de consulta SPARQL. Valor. El valor de este trabajo está en que es el inicio de un proyecto a largo plazo, el cual busca incluir el contenido multimedia dentro de la Web de Datos de una forma automatizada, sin necesidad de etiquetar los medios manualmente, sino que los hechos puedan ser extraídos de fuentes complementarias. De esta forma se hace que el hecho de realizar consultas sobre similitud visual e incluyendo filtros semánticos sea una tarea cada vez más común.Este trabajo ha sido parcialmente financiado por el Núcleo Milenio Centro de Investigación para la Web Semántic

    IMGpedia Dataset

    No full text
    IMGpedia is a large-scale linked dataset that incorporates visual information of the images from the Wikimedia Commons dataset: it brings together descriptors of the visual content of 15 million images, 450 million visual-similarity relations between those images, links to image metadata from DBpedia Commons, and links to the DBpedia resources associated with the images

    Answering visuo-semantic queries with IMGpedia

    No full text
    IMGpedia is a linked dataset that provides a public SPARQL endpoint where users can answer queries that combine the visual similarity of images from Wikimedia Commons and semantic information from existing knowledge-bases. Our demo will show example queries that capture the potential of the current data stored in IMGpedia. We also plan to discuss potential use-cases for the dataset and ways in which we can improve the quality of the information it captures and the expressiveness of its queries

    A simple, efficient, parallelizable algorithm for approximated nearest neighbors

    No full text
    The use of the join operator in metric spaces leads to what is known as a similarity join, where objects of two datasets are paired if they are somehow similar. We propose an heuristic that solves the 1-NN selfsimilarity join, that is, a similarity join of a dataset with itself, that brings together each element with its nearest neighbor within the same dataset. Solving the problem using a simple brute-force algorithm requires O(n 2 ) distance calculations, since it requires to compare every element against all others. We propose a simple divide-and-conquer algorithm that gives an approximated solution for the self-similarity join that computes only O(n 3 2 ) distances. We show how the algorithm can be easily modified in order to improve the precision up to 31% (i.e., the percentage of correctly found 1-NNs) and such that 79% of the results are within the 10-NN, with no significant extra distance computations. We present how the algorithm can be executed in parallel and prove that using Θ( √ n) processors, the total execution takes linear time. We end discussing ways in which the algorithm can be improved in the future
    corecore