10 research outputs found

    Inference Optimization using Relational Algebra

    Get PDF
    Exact inference procedures in Bayesian networks can be expressed using relational algebra; this provides a common ground for optimizations from the AI and database communities. Specifically, the ability to accomodate sparse representations of probability distributions opens up the way to optimize for their cardinality instead of the dimensionality; we apply this in a sensor data model.\u

    Compositional Models in Valuation-Based Systems

    Get PDF
    This is the author final draft. Copyright 2014 ElsevierCompositional models were initially described for discrete probability theory, and later extended for possibility theory and for belief functions in Dempster鈥揝hafer (D鈥揝) theory of evidence. Valuation-based system (VBS) is an unifying theoretical framework generalizing some of the well known and frequently used uncertainty calculi. This generalization enables us to not only highlight the most important theoretical properties necessary for efficient inference (analogous to Bayesian inference in the framework of Bayesian network), but also to design efficient computational procedures. Some of the specific calculi covered by VBS are probability theory, a version of possibility theory where combination is the product t-norm, Spohn鈥檚 epistemic belief theory, and D鈥揝 belief function theory. In this paper, we describe compositional models in the general framework of VBS using the semantics of no-double counting, which is central to the VBS framework. Also, we show that conditioning can be expressed using the composition operator. We define a special case of compositional models called decomposable models, again in the VBS framework, and demonstrate that for the class of decomposable compositional models, conditioning can be done using local computation. As all results are obtained for the VBS framework, they hold in all calculi that fit in the VBS framework. For the D鈥揝 theory of belief functions, the compositional model defined here differs from the one studied by Jirou拧ek, Vejnarov谩, and Daniel. The latter model can also be described in the VBS framework, but with a combination operator that is different from Dempster鈥檚 rule of combination. For the version of possibility theory in which combination is the product t-norm, the compositional model defined here reduces to the one studied by Vejnarov谩

    Inducci贸n de conocimiento con incertidumbre en bases de datos relacionales borrosas

    Get PDF
    Este trabajo presenta un sistema para aprendizaje de definiciones l贸gicas con incertidumbre, a partir de una base de datos relacional borrosa. El campo de inter茅s se centra, por tanto, en la programaci贸n l贸gica inductiva, introduciendo algunas interesantes aportaciones, principalmente en lo que se refiere a la entrada de datos y a los resultados producidos: Los datos de entrada pertenecen a una base de datos relacional borrosa. Por tanto, vienen expresados en forma de tablas de tuplas (relaciones), en las que las tuplas pueden llevar asociado un grado de pertenencia a la relaci贸n correspondiente. Se trata, por tanto, de relaciones borrosas, directamente identificables con conceptos borrosos (tan comunes en la realidad vista desde un punto de vista humano), y no de relaciones ordinarias con atributos borrosos (tal y como se entiende la "borrosidad" en muchos sistemas existentes). Los datos de salida vienen expresados en forma de definiciones l贸gicas de una relaci贸n (ordinaria o borrosa), que consta de una cl谩usula de Horn o de la disyunci贸n de varias. Estas cl谩usulas de Horn se construyen mediante literales, aplicados sobre variables (generalmente), y asociados a relaciones borrosas u ordinarias. Los literales borrosos pueden ser modificados, adem谩s, por el empleo de etiquetas ling眉铆sticas. Por tanto, se combina, en estas definiciones, la l贸gica de predicados con la l贸gica borrosa, en lo que podemos denominar "l贸gica borrosa de predicados", lo que constituye una aportaci贸n dentro de la inducci贸n autom谩tica de conocimiento. Adem谩s, las definiciones inducidas llevan asociado un factor de incertidumbre, como hacen otros sistemas ya existentes. El punto de partida del trabajo lo constituye un sistema de inducci贸n de definiciones l贸gicas bien conocido: FOIL, creado por Quinlan en 1990, basado en la l贸gica de predicados. Sobre este sistema inicial se realizan, adem谩s de las extensiones para l贸gica borrosa ya mencionadas, otra serie de modificaciones y ampliaciones enfocadas a mejorar la inducci贸n de conocimiento. Estas mejoras se realizan, principalmente, en su parte heur铆stica, al definir una funci贸n de evaluaci贸n de literales, basada en medidas de inter茅s, que permite corregir algunas deficiencias del sistema original y aumentar la calidad de las reglas inducidas. Otras modificaciones se orientan hacia la introducci贸n de conocimiento de base, mediante relaciones definidas intensionalmente, de modo similar a otros sistemas como FOCL. Como resultado tangible de la tesis, se ha desarrollado y probado un sistema, FZFOIL, disponible p煤blicamente bajo la licencia GNU

    A Method for Implementing a Probabilistic Model as a Relational Database

    No full text
    This paper discusses a method for implementing a probabilistic inference system based on an extended relational data model. This model provides a unified approach for a variety of applications such as dynamic programming, solving sparse linear equations, and constraint propagation. In this framework, the probability model is represented as a generalized relational database. Subsequent probabilistic requests can be processed as standard relational queries. Conventional database management systems can be easily adopted for implementing such an approximate reasoning system.
    corecore