10 research outputs found

    Uma Revisão de Técnicas de Distribuição e Persistência de Informações de Contexto e Inferências de Situações em Sistemas Ubíquos

    Get PDF
    A computação ubíqua (ou computação onipresente) define que a computação alie alta mobilidade e alta imersão computacional no ambiente e na rotina dos usuários. Para prover a imersão computacional necessária, sistemas ubíquos devem ser cientes de contexto. Ou seja, eles devem ser capazes de se adaptar ao ambiente de acordo com o que está acontecendo nele (eventos) ou baseado no seu estado atual. Uma das questões abordadas em pesquisas recentes na área de sensibilidade de contexto trata de formas com que contexto pode ser armazenado e recuperado, e de que forma isto pode ser integrado a aplicações pervasivas para que estas adaptem sua execução ou apresentação de informações ao usuário em tempo real. Neste artigo, apresentamos um estudo sobre as áreas de sensibilidade ao contexto e a situações (uma abstração de alto nível de contextos). A partir deste estudo, e da definição de um estudo de caso baseado na integração entre aplicações de dois domínios, foi possível identificar um conjunto de oportunidades de pesquisa na área

    Ontologias para deteção de fraude em meio académico

    Get PDF
    Este trabalho tem como objetivo principal o desenvolvimento de ontologias para a deteção de fraude académica e a aplicação de métodos quantitativos indicadores do desenvolvimento de um modelo que caminhe no sentido correto para a resolução do problema. Inicialmente e pelo facto de se tratar de um tema pouco explorado, é feita uma extensiva introdução conceptual e histórica, passando pelos principais conceitos da Web Semântica, por forma a fazer uma interiorização (pessoal e também ao leitor) das bases necessárias para desenvolver e compreender o trabalho desenvolvido, respetivamente. A abordagem teórica passa por um estado da arte, onde são discutidos trabalhos e conceitos relacionados, seguindo depois para a explicação do funcionamento geral da própria Web Semântica, com grande foco em “graph databases“ e nos seus conceitos. É construído um modelo inicial, uma “graph database“ populada manualmente, fazendo uso da ferramenta “Neo4j“ e depois ajustado conforme as necessidades do problema. Por fim são aplicados algoritmos sobre esse modelo, obtendo resultados objetivos e que estão intrínsecamente ligados aos objetivos propostos inicialmente, cumprindo-os de uma forma geral, dado que foram encontrados os elementos com mais influência relativamente a outros elementos do sistema, sendo um princípio fundamental constituinte de fraude académica.The main objective of this work is the development of ontologies for the detection of academic fraud and the application of quantitative methods that are indicators of the development of a model that moves in the right direction to solve the problem. Initially, and due to the fact that it is a little explored theme, an extensive conceptual and historical introduction is made, passing through the main concepts of the Semantic Web, in order to make an internalization (personal and also to the reader) of the necessary bases to develop and understand the work developed, respectively. The theoretical approach goes through a state of the art, where works and related concepts are discussed, followed by an explanation of the general functioning of the Semantic Web itself, with great focus on “graph databases“ and its concepts. An initial model is built, a manually populated “graph database“, using the “Neo4j“ tool and then adjusted according to the needs of the problem. Finally, algorithms are applied on this model, obtaining objective results that are intrinsically linked to the initially proposed objectives, fulfilling them in a general way, since the elements with more influence over other elements of the system were found, being a fundamental principle constituent of academic fraud

    Um modelo distribuído de armazenamento hierárquico de conhecimento médico

    Get PDF
    Tese (doutorado) - Universidade Federal de Santa Catarina, Centro Tecnológico, Programa de Pós-Graduação em Engenharia e Gestão do Conhecimento, Florianópolis, 2013.O advento da disseminação e consolidação dos sistemas computacionais, como ferramentas de apoio aos mais variados tipos de negócios, criou uma dependência dos usuários em geral, em armazenar mais e mais seus dados. Atualmente é inquestionável a necessidade de registros anteriores de transações dos usuários em sistemas operacionais. Esta necessidade vai, por exemplo, desde a recuperação de um e-mail de anos anteriores, passando por registros de transações bancárias legadas, indo até prontuários eletrônicos. Com esta crescente demanda de armazenamento de dados, informações e conhecimento, para os mais variados nichos da Indústria e da Ciência em geral, criou um interessante espaço para pesquisa e desenvolvimento de formas alternativas para a persistência de longo prazo em sistemas computacionais. Na área médica, esta premissa é ainda mais verdadeira, pois todos os dias, centenas de milhares de pacientes ao redor do mundo, realizam exames médicos baseados em imagens, buscando auxílio para o diagnóstico dos mais variados tipos de doenças. As formas de persistência de dados que atualmente são utilizadas na área médica, em sua grande maioria, se apoiam no paradigma relacional, que geralmente suportam os sistemas de informação ou conhecimento que estão nos hospitais e clínicas médicas. Neste sentido, esta tese propôs um novo modelo de armazenamento para sistemas médicos baseados em imagens. Este modelo foi concebido a partir de um paradigma hierárquico, seguindo o padrão para imagens médicas internacionalmente reconhecido (DICOM), o que além de representar os dados de uma forma mais natural, simplifica o processo de busca e recuperação. Ao final dos experimentos e das etapas de análises dos resultados, o modelo proposto mostrou ter um desempenho mais eficiente no geral, se comparado ao modelo atual, utilizando bancos de dados relacionais.Abstract : The advent of the spread and consolidation of computer systems as tools supporting various kinds of business, created a dependence on general users to store more and more data. Currently there is an unquestionable need for previous records of user transactions in computer systems. This will need, for example, from the restore of an e-mail in previous years, going through records of bank transactions legacy, going to electronic records. With this increasing demand for data storage, information and knowledge for various niches of Science and Industry in general has created an interesting space for research and development of alternative forms for the persistence of long-term computer systems. In the medical field, this premise is even more true because every day, hundreds of thousands of patients around the world, conduct medical examinations based on images, seeking aid for the diagnosis of various types of diseases. Forms of data persistence that are currently used in the medical field, mostly, rely on the relational paradigm, which generally support information systems and knowledge that are in hospitals and medical clinics. In this sense, this thesis proposes a new storage model for systems -based medical images. This model was designed from a hierarchical paradigm, following the standard for internationally recognized medical images (DICOM), which also represents the data in a more natural, simplifies the process of search and retrieval. At the end of experiments and after the stages of analysis of the results, the proposed model has shown a better performance when compared to the current model, using relational databases

    Uma arquitetura para business intelligence baseada em tecnologias semânticas para suporte a aplicações analíticas

    Get PDF
    Tese (doutorado) - Universidade Federal de Santa Catarina, Centro Tecnológico. Programa de Pós-Graduação em Engenharia de ProduçãoSoluções de Business Intelligence visam prover informação estratégica a partir das fontes de dados da organização. Entretanto, verificam-se desafios que permanecem não resolvidos nestas soluções no contexto da sociedade do conhecimento. Entre as principais deficiências das soluções atuais verificam-se a falta de perspectiva de utilização da semântica do negócio (i.e. sua terminologia e regras) no apoio ao processamento analítico e a falta de flexibilidade para a extensão das funcionalidades exploratórias de acordo com as especificidades de cada organização. Propõe-se uma arquitetura para BI - a arquitetura SBI - baseada em um novo paradigma que prevê a utilização intensiva do conhecimento do negócio para guiar o processamento analítico. A semântica do negócio na abordagem utilizada é representada em uma ontologia e mapeada aos dados e serviços em outras duas ontologias. O suporte à inferência sobre essa semântica é agregado aos módulos de gerenciamento de serviços e de análises da arquitetura, permitindo: a) extensão e composição de funcionalidades exploratórias através de Web services semânticos; b) recomendação de informação, serviços e inferências de acordo com o contexto da análise em um processo analítico-interativo assistido pela arquitetura; e c) manipulação de dados e serviços utilizando a terminologia do negócio. A viabilidade da proposta é demonstrada através do protótipo de ferramenta analítica OntoDSS, o qual é integrado a arquitetura SBI e aplicado em um estudo de caso no domínio da gestão de Ciência & Tecnologia. O ineditismo da contribuição está na busca de insumos na engenharia de conhecimento para prover alternativas de solução para as limitações nas soluções de BI atuais

    DC4MT : uma abordagem orientada a dados para transformação de modelos

    Get PDF
    Orientador: Marcos Didonet Del FabroTese (doutorado) - Universidade Federal do Paraná, Setor de Ciências Exatas, Programa de Pós-Graduação em Informática. Defesa : Curitiba, 25/08/2020Inclui referências: p. 95-106Área de concentração: Ciência da ComputaçãoResumo: Transformações de Modelos são operações que recebem um conjunto de modelos como entrada e produzem um conjunto de modelos como saída, seguindo uma especificação. Há uma coleção diversificada de abordagens e ferramentas utilizadas para a especificação de diferentes tipos de transformações de modelos. A maioria dessas abordagens adota como estratégia a execução local e sequencial. No entanto, essas abordagens não estão totalmente aptas para processar modelos com grandes quantidades de elementos. VLMs (Very Large Models) são modelos que possuem milhões de elementos. Esses modelos estão presentes em domínios de aplicações como na indústria automotiva, modernização de sistemas legados, internet das coisas, redes sociais, entre outros domínios. Essas abordagens possuem lacunas para suportar o processamento desses VLMs. Por exemplo, para possibilitar a execução das transformações de modelos, considerando a escala do problema ou para melhoria de desempenho. Nesta tese é proposta a Dc4MT, uma abordagem para suportar transformações de VLMs com a aplicação e adaptação de técnicas relacionadas à distribuição de dados. A Dc4MT é uma abordagem Orientada a Dados (Dc - Data-centric) para ser aplicada no domínio da Engenharia Dirigida por Modelos (MDE - Model Driven Engineering). A abordagem é especificada, utilizando um framework de processamento distribuído, e define um conjunto de operações para a fragmentação, extração e transformação de modelos. A fragmentação é uma operação que divide os modelos de entrada (em formatos XMI ou JSON) em fragmentos, de modo que esses fragmentos possam ser distribuídos e processados de maneira paralela/distribuída. A extração é uma operação que processa os fragmentos do modelo de entrada e os traduz em um grafo acíclico, atribuindo um novo domínio de modelagem a esses fragmentos. A transformação de modelos na abordagem Dc4MT é uma operação que transforma modelos de entrada em modelos de saída (M2M) a partir do resultado da extração. As execuções de transformação podem ser em modo paralelo ou distribuído, com ou sem a intervenção no método de particionamento do framework disponível para melhorar o desempenho. Um conjunto de modelos de entrada (datasets) e os ambientes local (transformações paralelas) e distribuído (transformações distribuídas) são utilizados nos experimentos para validar a abordagem Dc4MT, sob os aspectos de factibilidade, desempenho e de escalabilidade. Os resultados desses experimentos, mostram que as operações de fragmentação e extração de modelos favorecem a transformação escalável de VLMs, reconstruindo a estrutura dos fragmentos em um grafo. A operação de extração é executada em modo paralelo/distribuído. Além disso, os aspectos como a imutabilidade, lazy-evaluate e o paralelismo implícito presentes na Dc4MT, permitem o processamento paralelo/distribuído de regras de transformação em uma plataforma escalável. Palavras-chave: Abordagem Orientada a Dados. Engenharia Dirigida por Modelos. Transformação Paralela de Modelos. Transformação Distribuída de Modelos.Abstract: Model Transformations are operations that receive a set of source models as input and produce a set of target models as output, following a specification. There is a variety of approaches and tools used for the specification of different types of model transformation. Most of these approaches adopt for model transformation the local and sequential execution strategy. However, these approaches not fully adapted for processing models with large amounts of elements. VLMs (Very Large Models) are models with millions of elements. These models are present in application domains such as the automotive industry, modernization of legacy systems, internet of things, social networks, among others. These approaches have gaps to support the processing of these increasingly larger models. For example, to enable model transformations, considering the scale of the problem or to improve performance. In this thesis, the Dc4MT is proposed such as an approach to support transformation of VLMs, applying and adapting distribution techniques of data. The Dc4MT is a Data-centric (Dc) approach for applying in Model Driven Engineering (MDE). The approach will be specified using a distributed processing framework, and defines a set of operations for fragmentation, extraction, and transformation of models. The fragmentation is an operation that splits the input models (in the XMI or JSON formats) in a way that the fragments can be processed in parallel/distributed. The extraction is an operation that processes the fragments of the input model in parallel and translates them to an acyclic graph, assigning a new modeling domain to these fragments. The model transformation in Dc4MT is an operation that transforms input models in output models (M2M) from the results of the extraction. The transformation executions can be parallel or distributed with ou without the intervention in the framework partitioning method to improve the performance. A set of input models (datasets) and the local (parallel transformations) and distributed (distributed transformations) environments are used in the experiments to validate the Dc4MT approach, in terms of feasibility, performance, and scalability. The results of the experiments show that the model fragmentation and extraction operations favor the scalable transformation of models, reconstructing the structure of the fragments in a graph. The extraction operation is executed on parallel/distributed way. Moreover, aspects such as immutability, lazy-evaluation, and implicit parallelism present in Dc4MT, allowing the parallel/distributed processing of transformation rules on a scalable platform. Keywords: Data-centric Approach. Model Driven Engineering. Parallel Model Transformation. Distributed Model Transformation

    J-schemas integrator : uma ferramenta para integraçao de esquemas de bancos de dados heterogeneos

    Get PDF
    Orientador : Marcos Sfair SunyeDissertaçao (mestrado) - Universidade Federal do Paraná, Setor de Ciencias ExatasResumo: Atualmente, várias organizações e companhias utilizam diversos sistemas de bancos de dados para gerenciar grande quantidade de seus dados. Entretanto, esses numerosos sistemas de banco de dados heterogêneos foram projetados para rodarem isoladamente e para não cooperarem entre si. Prover interoperabilidade entre esses bancos de dados é importante para o sucesso das organizações, nas quais ganhos de produtividade serão obtidos se esses sistemas puderem ser integrados e permitirem uma visão unificada dos dados. A integração de esquemas de bancos de dados heterogêneos pode ser definida como um processo que, através de uma entrada de um conjunto de esquemas de banco de dados, produz como saída, uma descrição unificada dos esquemas iniciais, chamado esquema integrado e a descrição da informação de mapeamento entre o esquema integrado e os esquemas iniciais. Essa dissertação de mestrado consiste na implementação de uma ferramenta cujo objetivo seja auxiliar e facilitar o processo de integração de esquemas de banco de dados. A ferramenta visual é responsável por importar esquemas de banco de dados, facilitar a identificação dos objetos conflitantes entre esquemas e pelo processo de integração e geração do esquema integrado e da informação de mapeamento entre o esquema integrado e os esquemas iniciais.Abstract: In today's modern organizations is common to find several different databases being used to accomplish their operational data management functions. These numerous heterogeneous databases systems were designed to run in isolation and they do not cooperate with each other. Providing interoperability among these databases is important to the successful operation of the organization. Improvements in productivity will be gained if the systems can be integrated - that is, made to cooperate with each other - to support global applications accessing multiple databases. This work is dedicated to the implementation of a tool to help developers in the task of integration of heterogeneous database schémas. The database schema integration can be defined as the process that, through an input of a set of databases schémas, produces, as the output, an unified description of the initials schémas, called integrated schema and the information mapping that supports the access to the data stored in the initial databases schémas from the integrated schema. The tool is responsible for importing/exporting schémas from/to database, facilitate the identification of conflicting objects between schémas and for the process of integration and generation of the integrated schema and the mapping information between the integrated schema and the initial schémas

    Ciência de dados na era da agricultura digital: anais.

    Get PDF
    Estes anais contêm o texto completo dos trabalhos apresentados no XI Congresso Brasileiro de Agroinformática (SBIAgro 2017), o qual foi promovido pela Embrapa Informática Agropecuária e pela Faculdade de Engenharia Agrícola, Instituto de Computação e pelo Centro de Pesquisas Meteorológicas e Climáticas Aplicadas à Agricultura da Universidade Estadual de Campinas (Unicamp). Esta edição do evento foi realizada no Centro de Convenções e na Casa do Lago da Unicamp, localizados na cidade de Campinas (SP). O propósito do evento foi o de reunir pesquisadores, professores, estudantes, empresários e funcionários de empresas para discutir o tema da informática aplicada à agricultura, além de promover um ambiente propício para o surgimento de novos relacionamentos, projetos e negócios.Organizadores: Jayme Garcia Arnal Barbedo, Maria Fernanda Moura, Luciana Alvim Santos Romani, Thiago Teixeira Santos, Débora Pignatari Drucker. SBIAgro 2017
    corecore