232 research outputs found

    Towards a Unified Framework for Syntactic Inconsistency Measures

    Get PDF
    A number of proposals have been made to define inconsistency measures. Each has its rationale. But to date, it is not clear how to delineate the space of options for measures, nor is it clear how we can classify measures systematically. In this paper, we introduce a general framework for comparing syntactic inconsistency measures. It uses the construction of an inconsistency graph for each knowledgebase. We then introduce abstractions of the inconsistency graph and use the hierarchy of the abstractions to classify a range of inconsistency measures

    Fusing Automatically Extracted Annotations for the Semantic Web

    Get PDF
    This research focuses on the problem of semantic data fusion. Although various solutions have been developed in the research communities focusing on databases and formal logic, the choice of an appropriate algorithm is non-trivial because the performance of each algorithm and its optimal configuration parameters depend on the type of data, to which the algorithm is applied. In order to be reusable, the fusion system must be able to select appropriate techniques and use them in combination. Moreover, because of the varying reliability of data sources and algorithms performing fusion subtasks, uncertainty is an inherent feature of semantically annotated data and has to be taken into account by the fusion system. Finally, the issue of schema heterogeneity can have a negative impact on the fusion performance. To address these issues, we propose KnoFuss: an architecture for Semantic Web data integration based on the principles of problem-solving methods. Algorithms dealing with different fusion subtasks are represented as components of a modular architecture, and their capabilities are described formally. This allows the architecture to select appropriate methods and configure them depending on the processed data. In order to handle uncertainty, we propose a novel algorithm based on the Dempster-Shafer belief propagation. KnoFuss employs this algorithm to reason about uncertain data and method results in order to refine the fused knowledge base. Tests show that these solutions lead to improved fusion performance. Finally, we addressed the problem of data fusion in the presence of schema heterogeneity. We extended the KnoFuss framework to exploit results of automatic schema alignment tools and proposed our own schema matching algorithm aimed at facilitating data fusion in the Linked Data environment. We conducted experiments with this approach and obtained a substantial improvement in performance in comparison with public data repositories

    Pseudo-contractions as Gentle Repairs

    Get PDF
    Updating a knowledge base to remove an unwanted consequence is a challenging task. Some of the original sentences must be either deleted or weakened in such a way that the sentence to be removed is no longer entailed by the resulting set. On the other hand, it is desirable that the existing knowledge be preserved as much as possible, minimising the loss of information. Several approaches to this problem can be found in the literature. In particular, when the knowledge is represented by an ontology, two different families of frameworks have been developed in the literature in the past decades with numerous ideas in common but with little interaction between the communities: applications of AGM-like Belief Change and justification-based Ontology Repair. In this paper, we investigate the relationship between pseudo-contraction operations and gentle repairs. Both aim to avoid the complete deletion of sentences when replacing them with weaker versions is enough to prevent the entailment of the unwanted formula. We show the correspondence between concepts on both sides and investigate under which conditions they are equivalent. Furthermore, we propose a unified notation for the two approaches, which might contribute to the integration of the two areas

    Proceedings of the Twenty-Third Annual Software Engineering Workshop

    Get PDF
    The Twenty-third Annual Software Engineering Workshop (SEW) provided 20 presentations designed to further the goals of the Software Engineering Laboratory (SEL) of the NASA-GSFC. The presentations were selected on their creativity. The sessions which were held on 2-3 of December 1998, centered on the SEL, Experimentation, Inspections, Fault Prediction, Verification and Validation, and Embedded Systems and Safety-Critical Systems

    A predictive fault-tolerance framework for IoT systems

    Get PDF
    As Internet of Things (IoT) systems scale, attributes such as availability, reliability, safety, maintainability, security, and performance become increasingly more important. A key challenge to realise IoT is how to provide a dependable infrastructure for the billions of expected IoT devices. A dependable IoT system is one that can defensibly be trusted to deliver its intended service within a given time period. To define a FT-support solution that is applicable to all IoT systems, it is important that error definition is a generic, language-agnostic process, so that FT can be applied as a software pattern. It must also be interoperable, so that FT support can be easily 'plugged into' any existing IoT system, which is facilitated by an adherence to standards and protocols. Lastly, it is important that FT support is, itself, fault tolerant, so that it can be depended on to provide correct support for IoT systems. The work in this thesis considers how real-time and historical data analysis techniques can be combined to monitor an IoT environment and analyse its short- and long-term data to make the system as resilient to failure as possible. Specifically, complex event processing (CEP) is proposed for real-time error detection based on the analysis of stream data in an IoT system, where errors are defined as nondeterministic finite automata (NFA). For long-term error analysis, machine learning (ML) is proposed to predict when an error is likely to occur and mitigate imminent system faults based on previous experience of erroneous system behaviour in the IoT system. The contribution is threefold: (1) a language-agnostic approach to error definition using NFAs, designed to provide 'FT as a service' for easy deployment and integration into existing IoT systems; (2) an implementation of NFAs on a bespoke CEP system, BoboCEP, that provides distributed, resilient event processing at the network edge via active replication; and (3) a ML approach to intelligent FT that can learn from system errors over time to ensure correct long-term FT support. The proposed solution was evaluated using two vertical-farming testbeds and a dataset from a real-world vertical farm. Results showed that the proposed solution could detect and predict the successful detection and recovery of erroneous system behaviours. A performance analysis of BoboCEP was conducted with favourable results

    Semantic Management of Location-Based Services in Wireless Environments

    Get PDF
    En los últimos años el interés por la computación móvil ha crecido debido al incesante uso de dispositivos móviles (por ejemplo, smartphones y tablets) y su ubicuidad. El bajo coste de dichos dispositivos unido al gran número de sensores y mecanismos de comunicación que equipan, hace posible el desarrollo de sistemas de información útiles para sus usuarios. Utilizando un cierto tipo especial de sensores, los mecanismos de posicionamiento, es posible desarrollar Servicios Basados en la Localización (Location-Based Services o LBS en inglés) que ofrecen un valor añadido al considerar la localización de los usuarios de dispositivos móviles para ofrecerles información personalizada. Por ejemplo, se han presentado numerosos LBS entre los que se encuentran servicios para encontrar taxis, detectar amigos en las cercanías, ayudar a la extinción de incendios, obtener fotos e información de los alrededores, etc. Sin embargo, los LBS actuales están diseñados para escenarios y objetivos específicos y, por lo tanto, están basados en esquemas predefinidos para el modelado de los elementos involucrados en estos escenarios. Además, el conocimiento del contexto que manejan es implícito; razón por la cual solamente funcionan para un objetivo específico. Por ejemplo, en la actualidad un usuario que llega a una ciudad tiene que conocer (y comprender) qué LBS podrían darle información acerca de medios de transporte específicos en dicha ciudad y estos servicios no son generalmente reutilizables en otras ciudades. Se han propuesto en la literatura algunas soluciones ad hoc para ofrecer LBS a usuarios pero no existe una solución general y flexible que pueda ser aplicada a muchos escenarios diferentes. Desarrollar tal sistema general simplemente uniendo LBS existentes no es sencillo ya que es un desafío diseñar un framework común que permita manejar conocimiento obtenido de datos enviados por objetos heterogéneos (incluyendo datos textuales, multimedia, sensoriales, etc.) y considerar situaciones en las que el sistema tiene que adaptarse a contextos donde el conocimiento cambia dinámicamente y en los que los dispositivos pueden usar diferentes tecnologías de comunicación (red fija, inalámbrica, etc.). Nuestra propuesta en la presente tesis es el sistema SHERLOCK (System for Heterogeneous mobilE Requests by Leveraging Ontological and Contextual Knowledge) que presenta una arquitectura general y flexible para ofrecer a los usuarios LBS que puedan serles interesantes. SHERLOCK se basa en tecnologías semánticas y de agentes: 1) utiliza ontologías para modelar la información de usuarios, dispositivos, servicios, y el entorno, y un razonador para manejar estas ontologías e inferir conocimiento que no ha sido explicitado; 2) utiliza una arquitectura basada en agentes (tanto estáticos como móviles) que permite a los distintos dispositivos SHERLOCK intercambiar conocimiento y así mantener sus ontologías locales actualizadas, y procesar peticiones de información de sus usuarios encontrando lo que necesitan, allá donde esté. El uso de estas dos tecnologías permite a SHERLOCK ser flexible en términos de los servicios que ofrece al usuario (que son aprendidos mediante la interacción entre los dispositivos), y de los mecanismos para encontrar la información que el usuario quiere (que se adaptan a la infraestructura de comunicación subyacente)

    Knowledge management technology for integrated decision support systems in process industries

    Get PDF
    Premi extraordinari doctorat curs 2011-2012, àmbit d’Enginyeria IndustrialNowadays, factors such as globalization of trade, market uncertainty and fierce competition involve dwindling error margins in enterprises. Two key aspects for achieve it are the viability and the competitiveness of enterprises, which highly depend on the effectiveness for taking their decisions related to their manufacturing characteristics, such as economic efficiency, product quality, flexibility or reliability. For this reason, companies have taken the task, for many years, of develop better management information systems in order to help the decision makers to exploit data and models, with the final objective of discussing and improving decision-making. In this sense, decision support systems must be improved in order to deal with the large amount of available data and the heterogeneity of existing modeling approaches along the hierarchical levels in the enterprise structure. Hence, this thesis proposes the application of ontologies as a decision support tool, since they are increasingly seen as a key semantic technology for addressing heterogeneities and mitigating the problems they create and for enabling data mining by semantics-driven the knowledge processing. The aim of this thesis is to contribute to the development of decision support tools for the enterprise process industry. As a decision support tool, must be capable of become a robust model which interacts among the different decision hierarchical levels, providing a unified framework of data and information levels integration. On the other hand, this thesis also aims the improvement in the development of the ontologies. Firstly, a detailed state of the art about the different production process systems, knowledge management base on ontologies, as well as decision support systems is carried out. Based on this review, the specific thesis objectives are posed. Next, a methodology is proposed for the development and use of ontologies, based on the analysis and adaptation of previously existing methodologies. Such methodology is based on the improvement cycle (PSDA), allowing a better way to design, construct and apply domain ontologies. The second part of this thesis is devoted to the application of the different parts of the previously proposed methodology for the development of an ontological framework in the process industry domain concerning the strategic, tactical and operational decision levels. Next, the description of the decision areas in which the ontological framework is applied is presented. Namely, in the process control decision level, the coordination control is considered. Regarding scheduling decisions level, mathematical optimization approaches are applied. Finally, the distributed hierarchical decision level considers the mathematical optimization for decentralized supply chain networks is adopted. These decision areas and the performance of the proposed framework interaction are studied along the different case studies presented in the thesis. On the whole, this thesis represents a step forward toward the integration among the enterprise hierarchical levels, the process and enterprise standardization and improved procedures for decision-making. The aforementioned achievements are boosted by the application of semantic models, which are currently increasingly used.En la actualidad, factores como la globalización del comercio, la incertidumbre del mercado y la feroz competencia implican la disminución de los márgenes de error en las empresas. Dos aspectos claves para lograrlo son la viabilidad y la competitividad de las enterprisesm, que dependen en gran medida la eficacia para la toma de sus decisiones relacionadas con sus características de fabricación, tales como eficiencia económica, la calidad del producto, la flexibilidad y fiabilidad. Por esta razón, las empresas han dado a la tarea, desde hace muchos años, de desarrollar mejores sistemas de gestión de la información con el fin de ayudar a los tomadores de decisiones de explotación de datos y modelos, con el objetivo final de la discusión y mejorar la toma de decisiones. En este sentido, los sistemas de apoyo a las decisiones deben ser mejorados con el fin de hacer frente a la gran cantidad de datos disponibles y la heterogeneidad de los métodos de modelización existentes a lo largo de los niveles jerárquicos en la estructura de la empresa. Por lo tanto, esta tesis se propone la aplicación de ontologías como herramienta de apoyo a la decisión, ya que son cada vez más como una tecnología clave semántica para hacer frente a las heterogeneidades y la mitigación de los problemas que crean y para permitir la extracción de datos por la semántica impulsado la elaboración del conocimiento. El objetivo de esta tesis es contribuir al desarrollo de herramientas de apoyo para la industria de procesos empresariales. Como una herramienta de apoyo a la decisión, debe ser capaz de convertirse en un modelo sólido que interactúa entre los diferentes niveles de decisión jerárquica, proporcionando un marco unificado de datos e integración de los niveles de información. Por otra parte, esta tesis también tiene como objetivo la mejora en el desarrollo del área de ingeniería ontológica. En primer lugar, un estado detallado de la técnica sobre los diferentes sistemas de procesos de producción, la base de la gestión del conocimiento en ontologías, así como los sistemas de soporte de decisiones se ha llevado a cabo. Basado en esa revision, los objetivos específicos de la tesis se plantean. A continuación, se propone una metodología para el desarrollo y uso de ontologías, con base en el análisis y adaptación de las metodologías ya existentes. Dicha metodología se basa en el ciclo de mejora (PSDA), lo que permite una mejor manera de diseñar, construir y aplicar las ontologías de dominio. La segunda parte de esta tesis se dedica a la aplicación de las diferentes partes de la metodología propuesta anteriormente para el desarrollo de un marco ontológico en el ámbito de la industria de procesos relativos a los niveles de decisiones estratégicas, tácticas y operativas. A continuación, la descripción de las áreas de decisión en la que se aplica el marco ontológico se presenta. Es decir, en el nivel de decision de proceso de control, el control de la coordinación se considera. En cuanto al nivel de decisiones de programación de la producción, los métodos matemáticos de optimización se aplican. Finalmente, el nivel jerárquico distribuido decisión considera la optimización matemática de las redes descentralizadas de la cadena de suministro que se adopte. Estas áreas de decisión y el desempeño de la interacción marco propuesto se estudian a lo largo de los diferentes casos de estudio presentados en la tesis. En general, esta tesis supone un paso hacia adelante en la integración entre los niveles jerárquicos de la empresa, el proceso y la estandarización de la empresa y mejorar los procedimientos de toma de decisiones. Los logros mencionados se potencian mediante la aplicación de modelos semánticos, que actualmente se utilizan cada vez más.Award-winningPostprint (published version
    corecore