13,345 research outputs found

    Semantics for incident identification and resolution reports

    Get PDF
    In order to achieve a safe and systematic treatment of security protocols, organizations release a number of technical briefings describing how to detect and manage security incidents. A critical issue is that this document set may suffer from semantic deficiencies, mainly due to ambiguity or different granularity levels of description and analysis. An approach to face this problem is the use of semantic methodologies in order to provide better Knowledge Externalization from incident protocols management. In this article, we propose a method based on semantic techniques for both, analyzing and specifying (meta)security requirements on protocols used for solving security incidents. This would allow specialist getting better documentation on their intangible knowledge about them.Ministerio de Economía y Competitividad TIN2013-41086-

    Geospatial crowdsourced data fitness analysis for spatial data infrastructure based disaster management actions

    Get PDF
    The reporting of disasters has changed from official media reports to citizen reporters who are at the disaster scene. This kind of crowd based reporting, related to disasters or any other events, is often identified as 'Crowdsourced Data' (CSD). CSD are freely and widely available thanks to the current technological advancements. The quality of CSD is often problematic as it is often created by the citizens of varying skills and backgrounds. CSD is considered unstructured in general, and its quality remains poorly defined. Moreover, the CSD's location availability and the quality of any available locations may be incomplete. The traditional data quality assessment methods and parameters are also often incompatible with the unstructured nature of CSD due to its undocumented nature and missing metadata. Although other research has identified credibility and relevance as possible CSD quality assessment indicators, the available assessment methods for these indicators are still immature. In the 2011 Australian floods, the citizens and disaster management administrators used the Ushahidi Crowd-mapping platform and the Twitter social media platform to extensively communicate flood related information including hazards, evacuations, help services, road closures and property damage. This research designed a CSD quality assessment framework and tested the quality of the 2011 Australian floods' Ushahidi Crowdmap and Twitter data. In particular, it explored a number of aspects namely, location availability and location quality assessment, semantic extraction of hidden location toponyms and the analysis of the credibility and relevance of reports. This research was conducted based on a Design Science (DS) research method which is often utilised in Information Science (IS) based research. Location availability of the Ushahidi Crowdmap and the Twitter data assessed the quality of available locations by comparing three different datasets i.e. Google Maps, OpenStreetMap (OSM) and Queensland Department of Natural Resources and Mines' (QDNRM) road data. Missing locations were semantically extracted using Natural Language Processing (NLP) and gazetteer lookup techniques. The Credibility of Ushahidi Crowdmap dataset was assessed using a naive Bayesian Network (BN) model commonly utilised in spam email detection. CSD relevance was assessed by adapting Geographic Information Retrieval (GIR) relevance assessment techniques which are also utilised in the IT sector. Thematic and geographic relevance were assessed using Term Frequency – Inverse Document Frequency Vector Space Model (TF-IDF VSM) and NLP based on semantic gazetteers. Results of the CSD location comparison showed that the combined use of non-authoritative and authoritative data improved location determination. The semantic location analysis results indicated some improvements of the location availability of the tweets and Crowdmap data; however, the quality of new locations was still uncertain. The results of the credibility analysis revealed that the spam email detection approaches are feasible for CSD credibility detection. However, it was critical to train the model in a controlled environment using structured training including modified training samples. The use of GIR techniques for CSD relevance analysis provided promising results. A separate relevance ranked list of the same CSD data was prepared through manual analysis. The results revealed that the two lists generally agreed which indicated the system's potential to analyse relevance in a similar way to humans. This research showed that the CSD fitness analysis can potentially improve the accuracy, reliability and currency of CSD and may be utilised to fill information gaps available in authoritative sources. The integrated and autonomous CSD qualification framework presented provides a guide for flood disaster first responders and could be adapted to support other forms of emergencies

    Representation and use of chemistry in the global electronic age.

    Get PDF
    We present an overview of the current state of public semantic chemistry and propose new approaches at a strategic and a detailed level. We show by example how a model for a Chemical Semantic Web can be constructed using machine-processed data and information from journal articles.This manuscript addresses questions of robotic access to data and its automatic re-use, including the role of Open Access archival of data. This is a pre-refereed preprint allowed by the publisher's (Royal Soc. Chemistry) Green policy. The author's preferred manuscript is an HTML hyperdocument with ca. 20 links to images, some of which are JPEgs and some of which are SVG (scalable vector graphics) including animations. There are also links to molecules in CML, for which the Jmol viewer is recommended. We susgeest that readers who wish to see the full glory of the manuscript, download the Zipped version and unpack on their machine. We also supply a PDF and DOC (Word) version which obviously cannot show the animations, but which may be the best palce to start, particularly for those more interested in the text

    Training of Crisis Mappers and Map Production from Multi-sensor Data: Vernazza Case Study (Cinque Terre National Park, Italy)

    Get PDF
    This aim of paper is to presents the development of a multidisciplinary project carried out by the cooperation between Politecnico di Torino and ITHACA (Information Technology for Humanitarian Assistance, Cooperation and Action). The goal of the project was the training in geospatial data acquiring and processing for students attending Architecture and Engineering Courses, in order to start up a team of "volunteer mappers". Indeed, the project is aimed to document the environmental and built heritage subject to disaster; the purpose is to improve the capabilities of the actors involved in the activities connected in geospatial data collection, integration and sharing. The proposed area for testing the training activities is the Cinque Terre National Park, registered in the World Heritage List since 1997. The area was affected by flood on the 25th of October 2011. According to other international experiences, the group is expected to be active after emergencies in order to upgrade maps, using data acquired by typical geomatic methods and techniques such as terrestrial and aerial Lidar, close-range and aerial photogrammetry, topographic and GNSS instruments etc.; or by non conventional systems and instruments such us UAV, mobile mapping etc. The ultimate goal is to implement a WebGIS platform to share all the data collected with local authorities and the Civil Protectio

    Improving IT service management using an ontology-based and model-driven approach

    Get PDF
    Texto en inglés y resumen en inglés y españolLa adopción de marcos de trabajo de mejores prácticas que permiten la integración de las Tecnologías de la Información (TI) con el negocio, ayuda a las organizaciones a crear y compartir procesos de gestión de servicios de TI. Sin embargo, las guías y modelos publicados suelen especificarse en lenguaje natural o con representaciones gráficas que carecen de la semántica computacional necesaria para poder automatizar su validación, simulación e incluso su ejecución. En esta tesis se presenta Onto-ITIL, una propuesta basada en ontologías y en el enfoque de desarrollo de software dirigido por modelos que captura las mejores prácticas ofrecidas por ITIL® (del inglés Information Technology Infrastructure Library), y destinada a facilitar la prestación de servicios de TI. El objetivo de Onto-ITIL es ayudar a los expertos del dominio a modelar e implementar procesos de gestión de servicios de TI evitando ambigüedades semánticas y contradicciones. La formalización de los procesos de gestión de servicios de TI en términos de ITIL constituye un primer paso para cubrir la brecha que se da entre el negocio y las TI. Para definir las ontologías se ha utilizado OWL (del inglés Web Ontology Language). Adicionalmente, se ha definido un conjunto de reglas basadas en SWRL (del inglés Semantic Web Rule Language) que permiten enriquecer la ontología con una serie de restricciones semánticas y de reglas de inferencia de conocimiento. Por último, la definición de un conjunto de consultas basadas en SQWRL (del inglés Query-Enhanced Web Rule Language) permite recuperar conocimiento obtenido con OWL e inferido a través de las reglas SWRL. Además de formalizar los procesos de gestión de servicios de TI en base a las buenas prácticas consideradas por ITIL, Onto-ITIL también permite compartir, reutilizar e intercambiar las especificaciones de dichos procesos a través de mecanismos automatizados que proporcionan ciertos marcos de trabajo de comercio electrónico, como por ejemplo, ebXML. Mediante la adopción del enfoque MDE (del inglés Model-driven Engineering), se ha utilizado un DSL (del inglés Domain Specific Language) basado en la ontología Onto-ITIL que sirve para implementar sistemas de información basados en flujos de trabajo que dan soporte a los Sistemas de Gestión de Servicios de TI (SGSTI). Los modelos que se obtienen a partir de este lenguaje de modelado se pueden considerar modelos de alto nivel que han sido enriquecidos con conocimiento ontológico, y que están definidos exclusivamente en términos de lógica de negocio, es decir, que no presentan ningún aspecto arquitectónico o de plataforma de implementación. Con lo cual, de acuerdo con la arquitectura en cuatro capas propuesta por el OMG (del inglés Object Management Group), estos modelos se encontrarían a nivel CIM (del inglés Computation Independent Model). En resumen, la propuesta presentada en esta tesis permite: (i) formalizar el conocimiento asociado a los sistemas de gestión de servicios de TI en base a ontologías que recogen las buenas prácticas consideradas por ITIL; (ii) modelar la semántica de las actividades que definen los procesos de gestión de servicios de TI en forma de flujos de trabajo; (iii) generar de manera automática modelos de requisitos de alto nivel para implementar sistemas de información que se necesitan para dar soporte a dichos procesos; y (iv) a partir de los modelos anteriores, obtener modelos de más bajo nivel (llegando incluso al código de las aplicaciones) a través de transformaciones automáticas de modelos. La investigación llevada a cabo en esta tesis se ha validado mediante de la implementación de un caso de estudio real proporcionado por una compañía española que ofrece servicios de TI

    Improving IT service management using an ontology-based and model-driven approach

    Get PDF
    Texto en inglés y resumen en inglés y españolLa adopción de marcos de trabajo de mejores prácticas que permiten la integración de las Tecnologías de la Información (TI) con el negocio, ayuda a las organizaciones a crear y compartir procesos de gestión de servicios de TI. Sin embargo, las guías y modelos publicados suelen especificarse en lenguaje natural o con representaciones gráficas que carecen de la semántica computacional necesaria para poder automatizar su validación, simulación e incluso su ejecución. En esta tesis se presenta Onto-ITIL, una propuesta basada en ontologías y en el enfoque de desarrollo de software dirigido por modelos que captura las mejores prácticas ofrecidas por ITIL® (del inglés Information Technology Infrastructure Library), y destinada a facilitar la prestación de servicios de TI. El objetivo de Onto-ITIL es ayudar a los expertos del dominio a modelar e implementar procesos de gestión de servicios de TI evitando ambigüedades semánticas y contradicciones. La formalización de los procesos de gestión de servicios de TI en términos de ITIL constituye un primer paso para cubrir la brecha que se da entre el negocio y las TI. Para definir las ontologías se ha utilizado OWL (del inglés Web Ontology Language). Adicionalmente, se ha definido un conjunto de reglas basadas en SWRL (del inglés Semantic Web Rule Language) que permiten enriquecer la ontología con una serie de restricciones semánticas y de reglas de inferencia de conocimiento. Por último, la definición de un conjunto de consultas basadas en SQWRL (del inglés Query-Enhanced Web Rule Language) permite recuperar conocimiento obtenido con OWL e inferido a través de las reglas SWRL. Además de formalizar los procesos de gestión de servicios de TI en base a las buenas prácticas consideradas por ITIL, Onto-ITIL también permite compartir, reutilizar e intercambiar las especificaciones de dichos procesos a través de mecanismos automatizados que proporcionan ciertos marcos de trabajo de comercio electrónico, como por ejemplo, ebXML. Mediante la adopción del enfoque MDE (del inglés Model-driven Engineering), se ha utilizado un DSL (del inglés Domain Specific Language) basado en la ontología Onto-ITIL que sirve para implementar sistemas de información basados en flujos de trabajo que dan soporte a los Sistemas de Gestión de Servicios de TI (SGSTI). Los modelos que se obtienen a partir de este lenguaje de modelado se pueden considerar modelos de alto nivel que han sido enriquecidos con conocimiento ontológico, y que están definidos exclusivamente en términos de lógica de negocio, es decir, que no presentan ningún aspecto arquitectónico o de plataforma de implementación. Con lo cual, de acuerdo con la arquitectura en cuatro capas propuesta por el OMG (del inglés Object Management Group), estos modelos se encontrarían a nivel CIM (del inglés Computation Independent Model). En resumen, la propuesta presentada en esta tesis permite: (i) formalizar el conocimiento asociado a los sistemas de gestión de servicios de TI en base a ontologías que recogen las buenas prácticas consideradas por ITIL; (ii) modelar la semántica de las actividades que definen los procesos de gestión de servicios de TI en forma de flujos de trabajo; (iii) generar de manera automática modelos de requisitos de alto nivel para implementar sistemas de información que se necesitan para dar soporte a dichos procesos; y (iv) a partir de los modelos anteriores, obtener modelos de más bajo nivel (llegando incluso al código de las aplicaciones) a través de transformaciones automáticas de modelos. La investigación llevada a cabo en esta tesis se ha validado mediante de la implementación de un caso de estudio real proporcionado por una compañía española que ofrece servicios de TI
    corecore