10 research outputs found

    AcCORD: um modelo colaborativo assíncrono para a reconciliação de dados

    Get PDF
    Reconciliation is the process of providing a consistent view of the data imported from different sources. Despite some efforts reported in the literature for providing data reconciliation solutions with asynchronous collaboration, the challenge of reconciling data when multiple users work asyn- chronously over local copies of the same imported data has received less attention. In this thesis we investigate this challenge. We propose AcCORD, an asynchronous collaborative data reconciliation model. It stores users’ integration decision in logs, called repositories. Repositories keep data prove- nance, that is, the operations applied to the data sources that led to the current state of the data. Each user has her own repository for storing the provenance. That is, whenever inconsistencies among im- ported sources are detected, the user may autonomously take decisions to solve them, and integration decisions that are locally executed are registered in her repository. Integration decisions are shared among collaborators by importing each other’s repositories. Since users may have different points of view, repositories may also be inconsistent. Therefore, AcCORD also introduces several policies that can be applied by different users in order to solve conflicts among repositories and reconcile their integration decisions. Depending on the applied policy, the final view of the imported sources may either be the same for all users, that is, a single integrated view, or result in distinct local views for each of them. Furthermore, AcCORD encompasses a decision integration propagation method, which is aimed to avoid that a user take inconsistent decisions over the same data conflict present in different sources, thus guaranteeing a more effective reconciliation process. AcCORD was validated through performance tests that investigated the proposed policies and through users’ interviews that investigated not only the proposed policies but also the quality of the multiuser reconciliation. The re- sults demonstrated the efficiency and efficacy of AcCORD, and highlighted its flexibility to generate a single integrated view or different local views. The interviews demonstrated different perceptions of the users with regard to the quality of the result provided by AcCORD, including aspects related to consistency, acceptability, correctness, time-saving and satisfaction.Reconciliação é o processo de prover uma visão consistente de dados provenientes de várias fontes de dados. Embora existam na literatura trabalhos voltados à proposta de soluções de reconciliação baseadas em colaboração assíncrona, o desafio de reconciliar dados quando vários usuários colaborativos trabalham de forma assíncrona sobre as mesmas co´pias locais de dados, compartilhando somente eventualmente as suas decisões de integração particulares, tem recebido menos atenção. Nesta tese de doutorado investiga-se esse desafio, por meio da proposta do modelo AcCORD (Asynchronous COllaborative data ReconcIliation moDel). AcCORD é um modelo colaborativo assíncrono para reconciliação de dados no qual as atualizações dos usuários são mantidas em um repositório de operações na forma de dados de procedência. Cada usuário tem o seu próprio repositório para armazenar a procedência e a sua própria cópia das fontes. Ou seja, quando inconsistências entre fontes importadas são detectadas, o usuário pode tomar decisões de integração para resolvê-las de maneira autônoma, e as atualizações que são executadas localmente são registradas em seu próprio repositório. As atualizações são compartilhadas entre colaboradores quando um usuário importa as operações dos repositórios dos demais usuários. Desde que diferentes usuários podem ter diferentes pontos de vista para resolver o mesmo conflito, seus repositórios podem estar inconsistentes. Assim, o modelo Ac- CORD também inclui a proposta de diferentes políticas de reconciliação multiusuário para resolver conflitos entre repositórios. Políticas distintas podem ser aplicadas por diferentes usuários para reconciliar as suas atualizações. Dependendo da política aplicada, a visão final das fontes importadas pode ser a mesma para todos os usuários, ou seja, um única visão global integrada, ou resultar em distintas visões locais para cada um deles. Adicionalmente, o modelo AcCORD também incorpora um método de propagação de decisões de integração, o qual tem como objetivo evitar que um usuário tome decisões inconsistentes a respeito de um mesmo conflito de dado presente em diferentes fontes, garantindo um processo de reconciliação multiusuário mais efetivo. O modelo AcCORD foi validado por meio de testes de desempenho que avaliaram as políticas propostas, e por entrevistas a usuários que avaliaram não somente as políticas propostas mas também a qualidade da reconciliação multiusuário. Os resultados obtidos demonstraram a eficiência e a eficácia do modelo proposto, além de sua flexibilidade para gerar uma visão integrada ou distintas visões locais. As entrevistas realizadas demonstraram diferentes percepções dos usuários quanto à qualidade do resultado provido pelo modelo AcCORD, incluindo aspectos relacionados à consistência, aceitabilidade, corretude, economia de tempo e satisfacão

    Descubrimiento de patrones secuenciales utilizando razonamiento lógico temporal

    Get PDF
    Los datos secuenciales pueden ser recolectados en muchas aplicaciones como registros de ventas, bolsa de valores, registros médicos de pacientes, bases de datos en geofísica y astronomía, entre otras aplicaciones. Tales bases de datos incorporan la dimensión de tiempo que describe cuando ocurren eventos. La naturaleza temporal de los datos brinda un mejor entendimiento de las tendencias o patrones en el tiempo con el fin de encontrar relaciones entre eventos. Es posible combinar este hecho con bases teóricas que han sido desarrolladas por la filosofía, la matemática y las ciencias de la computación, tal como la lógica modal temporal. Sin embargo, los algoritmos existentes en descubrimiento de patrones secuenciales no utilizan el formalismo de la lógica temporal. Por ello, se desarrolla un método para descubrir relaciones temporales entre eventos en datos secuenciales utilizando la lógica temporal como base teórica. Así, se describe un modelo de descubrimiento de patrones secuenciales en el cual se incorpora la lógica temporal modificando el algoritmo Patrones Secuenciales Generalizados (GSP, por sus siglas en inglés). Se implementa el modelo por medio de una combinación de componentes de código abierto, además de la programación del algoritmo que incorpora la lógica temporal. Se realiza un estudio de eficacia sobre un conjunto de datos artificial y los resultados muestran la eficacia del modelo propuesto.Solsoft de Costa Rica S.A.UCR::Vicerrectoría de Investigación::Sistema de Estudios de Posgrado::Ingeniería::Maestría Académica en Computación e Informátic

    Uma Ferramenta para Extração de Esquemas de Bancos de Dados NoSQL do Tipo Grafos

    Get PDF
    TCC(graduação) - Universidade Federal de Santa Catarina. Centro Tecnológico. Ciências da Computação.Atualmente, uma grande quantidade de dados heterogêneos são gerados e consumidos em uma escala sem precedentes, o que motivou a criação de sistemas gerenciadores de bancos de dados que levam o nome de NoSQL. Esses bancos de dados possuem capacidade para lidar com um grande volume de dados e não necessariamente possuem um esquema implícito como os bancos de dados relacionais. Mesmo assim, o conhecimento de como os dados estão sendo armazenados estruturalmente é de suma importância para diversas tarefas, como integração ou análise de dados. Existem trabalhos na literatura que extraem o esquema de dados semiestruturados de forma geral e trabalhos que propõem um modelo teórico de esquema para bancos de dados do tipo grafo. Como diferencial, o presente trabalho visa o desenvolvimento de uma ferramenta para extração de um esquema de um banco de dados NoSQL do tipo grafo para um formato do tipo JSON Schema, assim como a elaboração de um documento contendo os estudos e testes realizados sobre a ferramenta implementada. Avaliações experimentais demonstram que a ferramenta produz uma representação adequada de um esquema com uma complexidade linearCurrently, a large volume of heterogeneous data is generated and consumed on the network in an unprecendented scale which led to the creation of database models named NoSQL. These databases are capable of handling a large volume of data and are schemaless, in other words, they do not have an implicit schema such as relational databases. But the knowledge of how data is structurally stored is of great importance for the development of an application or an data analysis. There are works in the literature that extract the schema from a semistructured data in general and works that propose a theoretical schema model for graph databases. Diffferent from them, this work aims to develop a tool to extract a schema from an existing graph NoSQL database to a JSON Schema format, as well as the elaboration of a document containing the studies and tests carried out on top of the implemented application. Experimental evaluations show that the proposed tool generates a suitable schema representation with a linear complexity

    HBaSI - HBase schema inference tool:Uma ferramenta para extração de esquemas de bancos de dados NoSQL colunares

    Get PDF
    TCC(graduação) - Universidade Federal de Santa Catarina. Centro Tecnológico. Ciências da Computação.Bancos de Dados (BDs) NoSQL estão ganhando espaço no mercado por serem adequados ao processamento de grande volume de dados e não exigirem a definição de um esquema para serem usados. Embora os BDs NoSQL não obriguem a existência de um esquema a priori, geralmente existe alguma estrutura implícita no BD para facilitar a manipulação adequada dos dados. O conhecimento do esquema dos dados é importante para soluções que desejam realizar integração de dados ou mesmo busca e análise de diversas fontes de dados em um mesmo domínio de aplicação. Assim sendo, este trabalho apresenta uma ferramenta para inferência de esquema para BDs NoSQL colunares, com foco no Sistema de Gerência de BD (SGBD) HBase. O HBase foi escolhido por ser um dos BDs colunares mais populares que se declara schemaless. A ferramenta, intitulada HBaSI (HBase Schema Inference), infere o esquema de um BD HBase e o apresenta no formato de um JSON Schema. Existem alguns trabalhos que inferem esquemas para o HBase. Entretanto, eles apresentam processos mais complexos e não possuem interface gráfica com o usuário. Outra contribuição do trabalho é a forma como é feita a inferência dos tipos de dados das colunas, pois o HBase armazena apenas arrays de bytes como conteúdo das colunas

    Análise de Soluções para Busca por Similaridade (Matching) de Dados Musicais

    Get PDF
    TCC(graduação) - Universidade Federal de Santa Catarina. Centro Tecnológico. Sistemas de Informação.O som não é algo que podemos ver com nossos olhos. Então, o que é som? O som é a variação da pressão do ar. Sendo assim, a forma de produzir um determinado som depende da maneira como a pressão do ar varia. Representar o som numericamente é chamado de digitalização, ou seja, é representar uma onda sonora (áudio analógico) em código binário (áudio digital). Um processo de transformação e compressão do som, reduzindo o seu tamanho, pois armazenar dados de áudio em formato analógico consome muito espaço. Em paralelo, tornou-se possível codificar arquivos de áudio com mais informação do que apenas o nome do arquivo, utilizando os metadados. Com os metadados é possível nomear, descrever, catalogar e indicar os direitos de autor de um arquivo de áudio digital. Desta forma, um arquivo de áudio digital é composto por metadados e som digitalizado, sendo assim, um dado musical. O dado é a representação física de um evento no tempo e espaço que não agrega fundamento, não podendo ser possível entender o que ele representa ou para que ele existe, porém, ao incluir um “significado” no dado e gerar sentido para quem o ouve e ficando claro ou não a que se refere, é gerada a informação. Uma informação musical apresenta determinadas especificidades de comportamento na sua produção, objetivação e uso. Assim, a música tem diferentes significações para cada indivíduo. A música era um meio de comunicação exclusivamente presencial e com a evolução dos inventos tecnológicos, a música ultrapassa os limites físicos da mídia, mergulhando no universo digital. Desta forma, o problema de representação e o processo de construção de sistemas de processamento e recuperação musicais, agrava-se com a necessidade de desenvolvimento de sistemas com estruturas internas o mais compatível possível com as visões ou desejos dos usuários. Portanto, a relevância deste trabalho contribui diretamente, para agregar conhecimento com o estudo sobre a recuperação da informação musical, que auxiliarão no desenvolvimento futuro de soluções, para busca por similaridade de dados musicais. Especificamente, este trabalho visa apresentar e comparar soluções para recuperação de informação musical. A intenção é analisar soluções que não necessariamente buscam dados musicais apenas através do casamento direto de parâmetros de entrada para a busca, como título da música, palavras-chave ou um áudio com parte da música, mas também através do casamento aproximado (ou similar) destes parâmetros.Sound is something we can't see. So, what is sound? Sound is the variation of air pressure. The way to produce a certain sound depends the air pressure varies. Representing the sound numerically is called scan, it is to represent a sound wave (analog audio) in binary code (digital audio). A process of transformation and compression of sound, reducing its size, since storing audio data in analog format consumes a lot of space. In parallel, it became possible to encode audio files with more information than just the file name, using metadata. With metadata it is possible to name, describe, catalog and indicate the copyright of a digital audio file. In this way, a digital audio file is composed of metadata and digitized sound, thus being a musical data. The data is the physical representation of an event in time and space that does not add a foundation, and it can not be possible to understand what it represents or for what it exists, however, by including a "meaning" in the given and generating meaning for the listener and whether or not it is clear what it refers to, the information is generated. A musical information presents certain specificities of behavior in its production, objectification and use. Thus, music has different meanings for each individual. Music was a means of exclusively on-site communication and with the evolution of technological inventions, music surpasses the physical limits of the media, plunging into the digital universe. In this way, the problem of representation and the process of construction of musical processing and recovery systems is aggravated by the need to develop systems with internal structures as compatible as possible to the visions or desires of the users. Therefore, the relevance of this work contributes, directly, to aggregate knowledge with the study on the retrieval of musical data information that will aid in the future development of solutions for searching for similarity of musical data. Specifically, this work aims to present and compare solutions for music information retrieval. The intention is to analyze solutions that do not necessarily search for musical data only through direct marriage of input parameters to the search, such as song title, keywords or an audio with part of the song, but also through approximate (or similar) these parameters

    Uma proposta de arquitetura de alto desempenho para sistemas PACS baseada em extensões de banco de dados

    Get PDF
    Orientador : Prof. Dr. Aldo Von WangenheimTese (doutorado) - Universidade Federal do Paraná, Setor de Ciências Exatas, Programa de Pós-Graduação em Informática. Defesa: Curitiba, 25/07/2014Inclui referênciasResumo: O uso de imagens digitais no processo de diagnóstico médico é observável em diferentes escalas e cenários de aplicação, tendo evoluído em termos de volume de dados adquiridos e número de modalidades de exame atendidas. A organização desse conteúdo digital, comumente representado por conjuntos de imagens no pa-drão DICOM (Digital Imaging and Communications in Medicine), costuma ser dele-gada a sistemas PACS (Picture Archiving and Communication System) baseados na agregação de componentes heterogêneos de hardware e software. Parte desses componentes interage de forma a compor a camada de armazenamento do PACS, responsável pela persistência de toda e qualquer imagem digital que, em algum momento, foi adquirida ou visualizada/manipulada via sistema. Apesar de emprega-rem recursos altamente especializados como SGBDs (Sistemas Gerenciadores de Banco de Dados), as camadas de armazenamento PACS atuais são visualizadas e utilizadas como simples repositórios de dados, assumindo um comportamento pas-sivo (ou seja, sem a agregação de regras de negócio) quando comparadas a outros componentes do sistema. Neste trabalho, propõe-se uma nova arquitetura PACS simplificada baseada em alterações na sua camada de armazenamento. As alterações previstas baseiam-se na troca do perfil passivo assumido atualmente por essa camada por um perfil ativo, utilizando-se de recursos de extensibilidade e de distribuição de dados (hoje não empregados) disponibilizados por seus componentes. A arquitetura proposta concentra-se na comunicação e no armazenamento de dados, utilizando-se de ex-tensões de SGBDs e de estruturas heterogêneas para armazenamento de dados convencionais e não convencionais, provendo alto desempenho em termos de es-calabilidade, suporte a grandes volumes de conteúdo e processamento descentrali-zado de consultas. Estruturalmente, a arquitetura proposta é formada por um con-junto de módulos projetados de forma a explorar as opções de extensibilidade pre-sentes em SGBDs, incorporando características e funcionalidades originalmente dis-tribuídas entre outros componentes do PACS (na forma de regras de negócio). Em nível de protótipo, resultados obtidos a partir de experimentos indicam a viabilidade de uso da arquitetura proposta, explicitando ganhos de desempenho na pesquisa de metadados e na recuperação de imagens DICOM quando comparados a arquiteturas PACS convencionais. A flexibilidade da proposta quanto à adoção de tecnologias de armazenamento heterogêneas também é avaliada positivamente, permitindo estender a camada de armazenamento PACS em termos de escalabili-dade, poder de processamento, tolerância a falhas e representação de conteúdo. Palavras-chave: PACS, DICOM, SGBD, extensibilidade, alto desempenho.Abstract: The use of digital images on medical diagnosis is observable in a number of application scenarios and in different scales, growing in terms of volume of data and contemplated medical specialties. To organize this digital content composed by image datasets in DICOM (Digital Imaging and Communications in Medicine), it is usual to adopt PACS (Picture Archiving and Communication System), an architecture built as an aggregation of hardware and software components. Some of these components compose the so-called PACS's storage layer, responsible for the persistence of every digital image acquired or visualized/manipulated through the system. Despite their high-specialized components (e.g., DBMS - Database Management System), PACS storage layers used today are visualized as simple data repositories, assuming a passive role (i.e., without the implementation of business rules) when compared to other components. In this work, a simplified, new architecture is proposed for PACS, based in modifications on its storage layer. The modifications are based in the replacement of the current passive role by an active one, using extensibility and data distribution resources available on its components. The proposed architecture focuses on communication and data storage, using DBMS extensions and heterogeneous structures for the storage of conventional and non-conventional data, providing high-performance in terms of scalability, support to large volumes of data and decentralized query processing. Structurally, the proposed architecture is composed by a set of modules designed to explore extensibility options available in DBMSs, incorporating characteristics and functionalities originally distributed as business rules among other components of PACS. At prototype level, results obtained through experiments indicate the viability of the proposal, making explicit the performance gains in the search for metadata and image retrieval when compared to conventional PACS architectures. The flexibility of the proposal regarding the adoption of heterogeneous storage technologies is also positively evaluated, allowing the extension of the PACS storage layer in terms of scalability, processing power, fault tolerance and content representation. Keywords: PACS, DICOM, DBMS, extensibility, High-Performance Computing

    Uso de modelos hipermidia em bibliotecas digitais para dados geograficos

    Get PDF
    Orientador: Claudia M. Bauzer MedeirosDissertação (mestrado) - Universidade Estadual de Campinas, Instituto de ComputaçãoResumo: Esta dissertação apresenta um modelo e urna metodologia para a construção de bibliotecas digitais. Urna biblioteca digital foi aqui considerada corno sendo uma aplicação hipermídia baseada em um ambiente SGBD Hipermídia Orientado a Objetos. Modelo e metodologia foram empregados na modelagem de urna aplicação específica: urna Biblioteca Digital Geográfica, cujo objetivo é colecionar e prover acesso a uma grande quantidade de dados geográficos e convencionais. A construção desta biblioteca demandou a definição de um conjunto especial de metadados, o qual agrega diversos padrões existentes. A Biblioteca Digital Geográfica contempla dois modos de interação: folheamento (no sentido tradicional) e consulta (suportada pelo SGBD subjacente). Ambos os modos de interação são fortemente integrados no ambiente da biblioteca. O modelo da dissertação integra o modelo do BD OOHDM de Milet et al. com o modelo de Dexter Estendido, aplicando extensões a esta integração. A metodologia estende aquela proposta pelo OOHDM, adaptando-a para permitir a modelagem de bibliotecas digitais. As principais contribuições da dissertação são: a) uma revisão bibliográfica detalhada de requisitos de bibliotecas digitais, de modelos de dados para sistemas e para autoria de aplicações hipermídia, ambas as revisões apresentadas em uma taxonomia unificada; b) um modelo hipermídia orientado a objetos para bibliotecas digitais; c) uma metodologia que usa o modelo para construção de tais bibliotecas; d) uma especificação detalhada de como construir bibliotecas digitais geográficas, usando modelo e metodologia.Abstract: This dissertation presents a model and a methodology for the construction of digital libraries. A digitallibrary was here considered to be a hypermedia application, based on a Object Oriented Hypermedia DBMS environment. Model and methodology were used to model a specific application - a Geographic Digital Library, whose goal is to collect and provide access to a large volume of geographic and conventional data. The construction of this library demanded the definition of a special set of metadata, which aggregates several existing standards. The geographic digitallibrary contemplates two modes of interaction: browsing (in the traditional sense) and querying(supported by the underlying DBMS). The model integrates the OOHDM database model of Milet et al, with the Extended Dexter model, and applies extensions to this integration. The methodology extends the proposal of OOHDM, adapting it to allow modelling of digital libraries. The main contributions of the dissertation are: (a) A detailed survey of requirements of digital libraries, and of hypermedia data and authoring models, presented in a unified taxonomy; (b) An object oriented hypermedia model for digital libraries; (c) A methodology which uses the model for construction of such libraries; and (d) Detailed specification of how to build geographic digital libraries, using model and methodology.MestradoMestre em Ciência da Computaçã

    Topic maps : da sintaxe à semântica

    Get PDF
    Dissertação de doutoramento em Informática.Segundo a definição proposta em Topic Maps Data Model (Garshol and Moore, 2005), Topic Maps são estruturas abstractas que podem codificar o conhecimento, conectando-o com recursos de informação relevantes. Os Topic Maps permitem a estruturação da informação através de uma rede semântica composta por tópicos associados. Actualmente, a maior parte dos Topic Maps são construídos manualmente. Este tipo de edição acarreta custos de ordem temporal e financeira, pois apesar de haver ferramentas propícias para a sua edição, as mesmas perdem eficiência quando o topic map atinge um número considerável de tópicos e associações. Acresce ainda o facto de que o utilizador tem dificuldade em verificar se a semântica do topic map condiz com o seu interesse. Os Topic Maps possuem uma característica muito importante: a liberdade de representação de um universo de discurso, pois a definição de um tópico é muito ampla. Porém, esta liberdade pode representar um potencial perigo para a consistência do topic map. Para garantir essa consistência, um conjunto de condições contextuais (restrições semânticas) deve ser imposto ao topic map. A norma Topic Maps não fornece nenhum tipo de mecanismo para validar a semântica de documentos topic maps de acordo com regras especificadas por utilizadores. Por isso, urge completar a norma com um suporte à definição de restrições contextuais e criar um mecanismo de validação automática. O principal contributo deste doutoramento é uma linguagem de restrições para topic maps, denominada XTche, e o respectivo processador. A linguagem XTche – baseada nos requisitos propostos recentemente em TMCL (Topic Map Constraint Language) (Nishikawa, Moore, and Bogachev, 2004) – permite a descrição da estrutura da rede semântica formada pelos tópicos e associações e a definição de restrições semânticas através de regras de esquema, regras contextuais e regras de existência. Baseado nisto, decidiu-se pelo projecto e desenvolvimento de um ambiente que fosse capaz de extrair dados de recursos de informação e construir um topic map de acordo com uma especificação, validá-lo e permitir uma navegação conceptual sobre o conhecimento representado no topic map. Resultou desta decisão o outro contributo deste doutoramento: o Metamorphosis, que é formado por um conjunto de linguagens de especificação e ferramentas que permitem criar uma interface para integração de informação oriunda de diversas fontes, através do uso de uma ontologia representada em Topic Maps. A partir da descrição das fontes heterogéneas de informação e da especificação da ontologia, o Oveia (um dos componentes do Metamorphosis) extraí automaticamente o respectivo topic map. Depois de guardado – num documento XTM (XML Topic Maps), ou numa base de dados – este topic map será validado sintáctica e semanticamente (face a um conjunto de restrições especificadas numa linguagem apropriada) pelo Processador de XTche (outro dos componentes). Por fim, a componente Ulisses gera uma interface Web para manipular o topic map extraído, a partir da descrição XTM válida. Estas componentes, algumas das quais com implementações alternativas ou mais que uma versão funcional, têm a particularidade de poderem ser usadas separadamente, tal foi comprovado nos casos de estudos realizados.According to Topic Map Data Model (Garshol and Moore, 2005), Topic Maps are abstract structures that can encode knowledge and connect this encoded knowledge to relevant information resources. Topic Maps allow a domain knowledge representation in semantic networks, composed of topics and associations. Nowadays, almost all topic maps are built by hand. This kind of edition is time consuming and has important financial costs. There are several tools for topic map edition but they have some limitations like the lack of a topic map semantic validator. In order to cope with a broad range of scenarios, a topic is a very wide concept. On one hand, this makes Topic Maps a convenient model for knowledge representation; but on the other hand, this can also put in risk the topic map consistency. A set of semantic constraints must be imposed to the topic map in order to grant its consistency. The Topic Maps standard does not provide language constructors to specify the semantics. So it is not possible to derive from the standard mechanisms to validate a topic maps against the contextual rules. Therefore it is necessary to improve the ISO 13250 standard adding a support for constraints definition enabling the creation of a processor for topic map automatic validation. The main contribute of this thesis is a constraint language for topic maps called XTche and its processor. XTche language is TMCL-based (Topic Map Constraint Language) (Nishikawa, Moore, and Bogachev, 2004). This language allows to complement the description of the semantic network structure (composed of topic and associations) with schema, contextual, and existence constraints, thus defining the semantics of topic maps that should be preserved. Metamorphosis – an environment that can extract data from information resources and build a topic map according to a specification, validate it, and generate a conceptual navigation over the topic map knowledge – is another contribution of this thesis. Metamorphosis – a Topic Maps oriented environment – generates conceptual navigators for heterogenous information resources providing the desired interoperability. Metamorphosis’ architecture is composed of: (1) Oveia, a processor that builds topic maps. Its core is a processor that extracts the topics instances from the information resources and builds a topic map. It reads and processes the XSDS and XS4TM specifications. The topic map generated by Oveia is stored as an XTM file or alternatively as a relational database following the OntologyDB approach; (2) XTche processor, that consumes the previous XTM file and validates the topic map according to a set of constraints defined in XTche language; (3) Ulisses processor, that produces a whole semantic website based on a valid topic map; this website is a set of pages that displays all the information concerned with topics and associations and provides a conceptual navigation over the semantic network (the topic map)
    corecore