14 research outputs found
Information provenance for open distributed collaborative system
In autonomously managed distributed systems for collaboration, provenance can facilitate reuse of information that are interchanged, repetition of successful experiments, or to provide evidence for trust mechanisms that certain information existed at a certain period during collaboration. In this paper, we propose domain independent information provenance architecture for open collaborative distributed systems. The proposed system uses XML for interchanging information and RDF to track information provenance. The use of XML and RDF also ensures that information is universally acceptable even among heterogeneous nodes. Our proposed information provenance model can work on any operating systems or workflows.<br /
Measuring Data Believability: A Provenance Approach
Data quality is crucial for operational efficiency
and sound decision making. This paper focuses on
believability, a major aspect of quality, measured
along three dimensions: trustworthiness,
reasonableness, and temporality. We ground our
approach on provenance, i.e. the origin and
subsequent processing history of data. We present our
provenance model and our approach for computing
believability based on provenance metadata. The
approach is structured into three increasingly complex
building blocks: (1) definition of metrics for assessing
the believability of data sources, (2) definition of
metrics for assessing the believability of data resulting
from one process run and (3) assessment of
believability based on all the sources and processing
history of data. We illustrate our approach with a
scenario based on Internet data. To our knowledge,
this is the first work to develop a precise approach to
measuring data believability and making explicit use of
provenance-based measurements
From Data to Knowledge Graphs: A Multi-Layered Method to Model User's Visual Analytics Workflow for Analytical Purposes
The importance of knowledge generation drives much of Visual Analytics (VA).
User-tracking and behavior graphs have shown the value of understanding users'
knowledge generation while performing VA workflows. Works in theoretical
models, ontologies, and provenance analysis have greatly described means to
structure and understand the connection between knowledge generation and VA
workflows. Yet, two concepts are typically intermixed: the temporal aspect,
which indicates sequences of events, and the atemporal aspect, which indicates
the workflow state space. In works where these concepts are separated, they do
not discuss how to analyze the recorded user's knowledge gathering process when
compared to the VA workflow itself. This paper presents Visual Analytic
Knowledge Graph (VAKG), a conceptual framework that generalizes existing
knowledge models and ontologies by focusing on how humans relate to computer
processes temporally and how it relates to the workflow's state space. Our
proposal structures this relationship as a 4-way temporal knowledge graph with
specific emphasis on modeling the human and computer aspect of VA as separate
but interconnected graphs for, among others, analytical purposes. We compare
VAKG with relevant literature to show that VAKG's contribution allows VA
applications to use it as a provenance model and a state space graph, allowing
for analytics of domain-specific processes, usage patterns, and users'
knowledge gain performance. We also interviewed two domain experts to check, in
the wild, whether real practice and our contributions are aligned.Comment: 9 pgs, submitted to VIS 202
Aplicação de Modelos Intencionais e Sistemas Multiagentes para Estabelecer Políticas de Monitoração de Transparência de Software
O artigo apresenta uma proposta de monitoração de características de transparência de software a partir de sistemas multiagentes. É um primeiro esforço para o entendimento de políticas e modelos intencionais aplicados a agentes autônomos monitores
Método Sistêmico com Suporte em GORE para Análise de Conformidade de Requisitos não Funcionais Implementados em Software
A análise de requisitos não funcionais (RNF) é umdesafio e vem sendo explorado na literatura científica há muito tempo. Tal iniciativa deve-se ao fato da existência do problema de se verificar o uso das operacionalizações desse tipo de requisito nosoftware construído. Nesse trabalho apresentamos um método, com técnicas e ferramentas de apoio, que verificam se um software está em conformidade com padrões de RNF estabelecidos em catálogo como alternativa para o problema de verificação de RNF. Verificação é uma técnica de análise que prescinde da execução do software, isto é, da demonstração de seu comportamento. O termoverificação é usado em contraponto ao termo validação. O espectro da verificação vai desde provas de programas contra especificaçõesem um sentido mais formal, até a inspeção visual de programas num sentido menos formal.A estratégia adotada utiliza agentes autônomos para verificação de conformidade de software em relação a operacionalizações de RNF, para isso utiliza uma base de conhecimentos de padrões persistidos em um catálogo. Os resultados, parciais, são indicativosde que a proposta de solução é aplicável. A avaliação da validade dá-se por demonstração de que um método parcialmente automatizado que é eficaz na identificação de conformidades. Um diferencial na proposta é que, de maneira geral, os trabalhos comfoco em verificação são fortemente voltados para a visão funcional, enquanto a solução aqui apresentada é inovadora na ligação dos RNF a sua efetiva implantação. Como prova de conceito aplicou-se e customizou-se uma técnica de padrões deRNFs baseados em orientação a objetivos em estudos de caso de exemplos do cotidiano prático de software. Como também a construção de um framework de agentes, que operam sob notaçõesXML, para identificar conformidades de software em relação a um catálogo de RNF