158 research outputs found

    Diagnosis applied CSP based on models

    Get PDF
    En las ´ultimas d´ecadas, parte de la comunidad cient´ıfica ha dedicado sus esfuerzos al desarrollo de una metodolog´ıa para la diagnosis de sistemas desde el campo de la Inteligencia Artificial. Dicha metodolog´ıa se denomina diagnosis basada en modelos, y cubre un amplio abanico de posibilidades. Se parte de un modelo expl´ıcito del sistema a diagnosticar y a partir de ´el se razona sobre la identificaci´on de los subsistemas que generan fallos, utilizando para ello los valores de las entradas proporcionadas y las salidas captadas del sistema. En cualquier proceso de producci´on o desarrollo es importante tener un control sobre los fallos en componentes o procesos. La diagnosis permite controlar estas irregularidades, lo que conlleva a los sistemas que la incorporan una mayor seguridad y reducci´on de costos. Algunos modelos utilizados en ingenier´ıa se han basado en la programaci´on l´ogica con restricciones (CLP) para obtener la diagnosis de un sistema. En este art´ıculo proponemos la metodolog´ıa necesaria para poder plantear la diagnosis de un sistema como un problema de satisfacci´on de restricciones (CSP). De esta forma, ser´a posible incorporar al proceso de generaci´on de la diagnosis de un sistema, los avances y optimizaciones que se han alcanzado en el campo de la b´usqueda de soluciones para problemas CSP. Plantear un problema de diagnosis de esta forma abre tambi´en la posibilidad de aplicar la diagnosis a otros campos, como por ejemplo la diagnosis del software. La diagnosis del software permite identificar y localizar el origen de los errores de un desarrollo software. Un programa tendr´a un error si no existe concordancia entre los resultados especificados como correctos y los resultados observados tras la ejecuci´on.In the last decades, model-based diagnosis has been an active research topic for the Artificial Intelligence community. It uses the explicit model of a system, the system inputs and the measured system outputs, in order to identify the subsystems that can generate faults. The system or the process that incorporates diagnosis may reduce costs and provide more security. Some models used in engineering are based on constraint logic programming (CLP) in order to obtain the system diagnosis. In this paper we propose a methodology for the system diagnosis as a constraint satisfaction problem (CSP). Using this methodology it is possible to incorporate, the advances and optimizations achieved for the search of solutions in CSP. This methodology also offers the possibility of applying diagnosis to other areas, such as software diagnosis. Software diagnosis allows the identification of the program bugs. A bug occurs when there is not matching between the specified results and the observed results after a program execution.Ministerio de Ciencia y Tecnología DPI2000-0666-C02-0

    CyberSPL: Plataforma para la verificación del cumplimiento de políticas de ciberseguridad en configuraciones de sistemas usando modelos de caracterısticas

    Get PDF
    Los ataques de ciberseguridad se han convertido en un factor muy relevante que pueden contravenir el cumplimiento de las políticas de ciberseguridad de las empresas y organizaciones. Dichos ataques pueden estar provocados en gran medida por una ausencia de configuraciones de seguridad o de valores por defecto en la configuración de productos y sistemas. La complejidad en la configuración de productos y sistemas es un reto en la industria del software. En este artículo proponemos una plataforma, Cybersecurity Software Product Line (CyberSPL), basado en la metodología de diseño de líneas de productos de tal manera que a través de la definición de modelos de características podamos agrupar patrones de configuraciones de aplicaciones y sistemas relacionados con la ciberseguridad. Mediante el análisis automatizado de estos modelos permitiríamos la diagnosis de los posibles problemas en las configuraciones de seguridad y por tanto evitarlos. Como soporte para dicha plataforma se ha implementado una solución multiusario y multiplataforma que permite definir un catálogo de modelos de características público o privado. Además se han integrado mecanismos para determinar todas las configuraciones de un modelo, detectar si una configuración es correcta o no, además de diagnosticar las causas de fallos dada una configuración determinada. Para validar la propuesta se usará un escenario real donde se plantea la configuración de un canal seguro de transmisión mediante el protocolo SSL/TLS, aplicado a un servidor de aplicaciones. En dicho escenario se analizaran dos modelos de características, se validarán diferentes configuraciones, y se diagnosticarán varias configuraciones con problemas.Ministerio de Ciencia y Tecnología RTI2018-094283-B-C3

    A Constraint-based Job-Shop Scheduling Model for Software Development Planning

    Get PDF
    This paper proposes a constraint-based model for the Job Shop Scheduling Problem to be solved using local search techniques. The model can be used to represent a multiple software process planning problem when the different (activities of) projects compete for limited sta®. The main aspects of the model are: the use of integer variables which represent the relative order of the operations to be scheduled, and two global constraints, all different and increasing, for ensuring feasibility. An interesting property of the model is that cycle detection in the sched- ules is implicit in the satisfaction of the constraints. In order to test the proposed model, a parameterized local search algorithm has been used, with a neighborhood similar to the Nowicki and Smutnicki one, which has been adapted in order to be suitable for the proposed model.Ministerio de Educación y Ciencia DIP2006-15476-C02-0

    Evaluación espacial de la vulnerabilidad al cambio climático en la cuenca del río Blanco ubicado en el departamento de Nariño

    Get PDF
    El objetivo general de este trabajo es proponer una estrategia metodológica para evaluar espacialmente la vulnerabilidad al Cambio Climático (CC). Como eje principal de la estrategia metodológica se utilizó el modelo conceptual de riesgo y vulnerabilidad sugerido por el IPCC (2014), del cual se desarrolló un índice compuesto basado en un sistema difuso denominado Índice de Vulnerabilidad al Cambio Climático (IVUCC). También, se desarrolló una propuesta de subdivisión de zonas para espacializar la vulnerabilidad, denominada Áreas Homogéneamente Vulnerables (AHV), las cuales se utilizaron para subdividir la cuenca hidrográfica del río Blanco y generar datos de vulnerabilidad distribuidos resultantes del índice IVUCC. Adicionalmente, se realizó la exploración de evaluación del riesgo representando las amenazas mediante modelos morfométricos e interpolación de datos hidrometeorológicos. Posteriormente, se operaron los resultados espacializados generados con el índice IVUCC y las amenazas de anomalías climáticas, inundación y deslizamiento de tierra. Como resultado de este trabajo, se generó un índice de evaluación de vulnerabilidad para la cuenca del río Blanco el cual puede ser distribuido utilizando las AHV y diferenciar tres niveles de vulnerabilidad (alto, medio y bajo). La aplicación del índice muestra los patrones de distribución de la vulnerabilidad en la cuenca del río Blanco. La incorporación del riesgo a este trabajo permitió ver la facilidad de articular el índice propuesto con otros indicadores que representan amenazas exacerbadas por el CCAbstract: The general objective of this work is to propose a methodological strategy to spatially assess vulnerability to Climate Change (CC). The conceptual model of risk and vulnerability suggested by the IPCC (2014) was used as the main axis of the methodological strategy, from which a composite index based on a diffuse system called the Climate Change Vulnerability Index (IVUCC) was developed. Also, a proposal was developed for the subdivision of zones to spatialize the vulnerability, called Homogeneously Vulnerable Areas (AHV), which were used to subdivide the river basin of the Blanco River and generate distributed vulnerability data resulting from the IVUCC index. Additionally, the risk assessment exploration was carried out, representing the threats using morphometric models and interpolation of hydrometeorological data. Subsequently, the spatialized results generated with the IVUCC index and the threats of climatic anomalies, flood and landslide were operated. As a result of this work, a vulnerability assessment index was generated for the Blanco river basin, which can be distributed using AHVs and differentiate three levels of vulnerability (high, medium and low). The application of the index shows the distribution patterns of vulnerability in the Blanco River basin. The incorporation of risk into this work allowed us to see the ease of articulating the proposed index with other indicators that represent threats exacerbated by the CCMaestrí

    Particionamiento y resolución distribuida multivariable de problemas de satisfacción de restricciones

    Full text link
    Hoy en día, muchos problemas reales pueden modelarse como problemas de satisfacción de restricciones (CSPs) y se resuelven usando técnicas específicas de satisfacción de restricciones. Estos problemas pertenecen a áreas tales como Inteligencia Artificial, investigación operativa, sistemas de información, bases de datos, etc. La mayoría de estos problemas pueden modelarse de forma natural mediante CSPs. Sin embargo, algunos de estos problemas son de naturaleza distribuida, bien por motivos de seguridad, por requerimientos de privacidad, o por restricciones espaciales. Ello requiere que este tipo de problemas sean modelados como problemas de satisfacción de restricciones distribuidos (DCSPs), donde el conjunto de variables y restricciones del problema está distribuido entre un conjunto de agentes que se encargan de resolver su propio sub-problema y deben coordinarse con el resto de agentes para alcanzar una solución al problema global. En la literatura de satisfacción de restricciones, la necesidad de manejar DCSP comenzó a tratarse a principios de los 90. No obstante, la mayoría de los investigadores que trabajan en este campo centran su atención en algoritmos en los que cada agente maneja una única variable. Estos algoritmos pueden ser transformados para que cada agente maneje múltiples variables. Sin embargo, los algoritmos resultantes no son escalables para manejar grandes sub-problemas locales debido tanto a requerimientos espaciales como a su coste computacional. Por lo tanto, la resolución de problemas reales mediante este tipo de algoritmos resulta prácticamente inviable. En esta tesis presentamos nuevos algoritmos para la resolución de problemas de satisfacción de restricciones distribuidos capaces de manejar multiples variables por agente. Estos algoritmos realizan un manejo eficiente de la información obtenida mediante la comunicación entre los agentes, consiguiendo con ello una mayor eficiencia durante el proceso de resolución. Además, sus requerimientosAbril López, M. (2007). Particionamiento y resolución distribuida multivariable de problemas de satisfacción de restricciones [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/1946Palanci

    Aprendizaje de particiones difusas para razonamiento inductivo

    Get PDF
    Existe consenso entre los investigadores en que se pueden obtener sistemas más inteligentes por medio de la hibridación de metodologías de Soft Computing haciendo de este modo que las debilidades de unos sistemas se compensen con las bondades de otros. Los Sistemas Neurodifusos (SNDs) y los Sistemas Difusos Evolutivos (SDEs) constituyen la más notoria representatividad. Un Sistema Difuso Evolutivo es básicamente un sistema difuso robustecido por un proceso de aprendizaje basado en un Algoritmo Evolutivo (AE), en particular los Algoritmos Genéticos (AGs), los cuales están considerados actualmente como la técnica de búsqueda global más conocida y empleada. Este tipo de algoritmos presentan la capacidad de explorar y explotar espacios de búsqueda complejos, lo que les permite obtener soluciones muy próximas a la óptima. Además, la codificación genética que emplean les permite incorporar conocimiento a priori de una forma muy sencilla y aprovecharlo para guiar la búsqueda.En la presente tesis doctoral se proponen SDEs que tienen como objetivo principal el aprendizaje automático de particiones difusas para mejorar una técnica de modelado y simulación denominada Razonamiento Inductivo Difuso (FIR). Se persigue aprovechar las potencialidades de los AGs para aprender los parámetros de discretización de la metodología FIR, es decir, el número de clases por variable (granularidad) y las funciones de pertenencia (landmarks) que definen su semántica. Debido al hecho que es una metodología basada en lógica difusa, la eficiencia en el modelado y predicción de FIR está influenciada de forma directa por estos parámetros de discretización. Es así como, la determinación automática de parámetros adecuados de discretización en la metodología FIR surge como una alternativa de gran interés y utilidad al uso de valores heurísticos y/o por defecto. Más aún, automatizar la selección de los valores adecuados para estos parámetros permite el uso de la metodología FIR a usuarios no expertos en modelado de sistemas ni en lógica difusa garantizándoles el mejor rendimiento de esta metodología.Se presentan tres métodos evolutivos de aprendizaje automático de las particiones difusas: a) El aprendizaje de la granularidad con las funciones de pertenencia uniformes (AG1+EFP), b) El ajuste local de las funciones de pertenencia con un número fijo de clases para cada variable (AG1+AG2), y c) El aprendizaje en conjunto de la granularidad y de las funciones de pertenencia asociadas que definen su semántica (AG3). Dichos métodos han sido implementados en la herramienta de programación Matlab y sirven tanto para entornos Windows como para Linux.Los resultados obtenidos por los SDEs desarrollados han sido muy buenos en las cuatro aplicaciones estudiadas: sistema nervioso central humano, línea de media tensión en núcleos urbanos, estimación a corto plazo de concentraciones de ozono en Austria y estimación a largo plazo de concentraciones de ozono en México. Nuestros métodos evolutivos son los que presentan mayor eficiencia en el proceso de predicción si los comparamos con los obtenidos por otras metodologías en trabajos previos, por FIR usando valores por defecto y también, cosa no esperada, por FIR cuando los parámetros de fusificación han sido definidos por expertos en el área. En general, el AG3 y la combinación AG1+AG2, en ese orden, son los que han mostrado mejores resultados en todas las aplicaciones, seguidos por el AG1+EFP. Sin embargo el AG3 es el que presenta mayor costo computacional. Por lo tanto como conclusión general, debemos decir que los SDEs diseñados e implementados en esta tesis consiguen buenos resultados para la tarea que les ha sido encomendada en el entorno de la metodología FIR. Es pues el usuario quien debe decidir qué SDE resulta más conveniente para la aplicación que tiene entre manos, en función de las necesidades temporales y de precisión.It is commonly established that more intelligent systems can be obtained by the hybridization of Soft Computing methodologies, in order that the weaknesses of some systems be compensated with the strengths of others. Neural Fuzzy Systems (NFSs) and Evolutionary Fuzzy Systems (EFSs) are the most notorious representatives of these hybrid systems.An Evolutionary Fuzzy System is basically a fuzzy system augmented by a learning process based on an evolutionary algorithm (EA), particularly Genetic Algorithms (GAs), which are currently considered as the most well-known employed global search technique. This kind of algorithms have the ability to explore and to exploit complex search spaces, which allows the obtaining of solutions very close to the optimal ones within these spaces. Besides, the genetic codification employed allows to incorporate a priori knowledge in a very simple way and to use it to guide the search.In this PhD. thesis, we propose EFSs that improves a modeling and simulation technique the Fuzzy Inductive Reasoning (FIR). The main goal of the EFSs is to take advantage of the potentialities of GAs to learn the fuzzification parameters of FIR, i.e. the number of classes per variable (granularity) and the membership functions (landmarks) that define its semantics. Due to the fact that it is a methodology based on fuzzy logic, FIR modeling and prediction performance is directly influenced by these discretization parameters. Therefore, the automatic determination of precise fuzzification parameters in the FIR methodology is an interesting and useful alternative to the use of heuristics and/or default values. Moreover, it is expected that the automatic selection of adequate values for these parameters will open up the FIR methodology to new users, with no experience neither in systems modeling nor in fuzzy logic, guaranteeing the best performance of this methodology.Three evolutionary methods of automatic learning of fuzzy partitions are presented: a) The learning of the granularity with uniform membership functions (GA1+EFP), b) The local tuning of the membership functions with a fixed number of classes per variable (GA1+GA2), and c) The learning at the same time of the granularity and the membership functions associated that define its semantics (GA3). The evolutionary methods have been implemented in Matlab and they run in both Windows and Linux environments.The results obtained by the EFSs developed in the four applications studied, i.e. human central nervous system, maintenance costs of electrical medium line in Spanish towns, short-term estimation of ozone concentration in Austria and long-term estimation of ozone concentration in Mexico, were very good. The results obtained by our evolutionary methods have presented higher efficiency in the prediction process than those obtained by other methodologies in previous works, by FIR using default values and, even, by FIR when the fuzzification parameters have been defined by experts in the area. In general, the GA3 and the combination GA1+GA2, in that order, are the ones that have shown better results in all the applications, followed by the GA1+EFP. However, GA3 is the algorithm that presents the greatest computational cost. As general conclusion, we must say that the EFSs designed and implemented in this thesis yielded good results for the task which they were entrusted in FIR methodology. Therefore, the user should decide what EFS turns out to be more convenient for the modeling application at hand in function of time and precision needs.Postprint (published version

    Avances y perspectivas de la ingeniería 4.0

    Get PDF
    Este libro es resultado de los trabajos finales presentados en el I Congreso Internacional de Ingeniería 4.0 realizado los días 24 y 25 de octubre de 2019 organizado por la Facultad de Ingeniería de la Universidad Libre Seccional Pereira

    Interface Cérebro-Computador Baseada em EEG Utilizando Redes Neurais Auto-Organizadas

    Get PDF
    Nesta Tese de Doutorado se apresenta o desenvolvimento de um sistema de Interface Cérebro Computador (ICC) que utiliza sinais de Eletroencefalografa (EEG) e classifcadores baseados em redes neurais autoorganizadas (Self Organizing Maps SOM). Nesta Tese se analisam os problemas das ICCs e se apresentam os resultados conseguidos com o sistema desenvolvido. Este sistema utiliza um equipamento clínico de aquisição de sinais EEG e um computador pessoal para processar os dados. Usando a energia das componentes de frequência dos sinais EEG capturados como características, e um classifcador baseado em uma rede neural autoorganizada. O grande desafo da utilização das redes autoorganizadas é a interpretação da saída da rede, devido a que esta rede possui uma saída para cada um dos neurônios presentes na rede. A contribuição desta tese está no método de interpretação da saída dos neurônios da rede SOM, o qual é implementado através de um conjunto de máscaras que representam a probabilidade da ativação dos mesmos para uma determinada classe. Todos os algoritmos utilizados nesta Tese de Doutorado podem ser adaptados facilmente para serem executados em sistemas embarcados com menor poder de processamento, tais como Processadores Digitais de Sinais (Digital Signal Processor DSP) ou microcontroladores. A interface cérebrocomputador (ICC) desenvolvida nesta Tese de Doutorado foi testada e validada de forma offline, com dados de bancos de dados externos de EEG, e com voluntários, apresentando resultados satisfatórios em ambos os casos, quando comparados a outros trabalhos da literatura com o mesmo número de tarefas
    corecore