32 research outputs found

    Definição da arquitectura empresarial : o caso do observatório de mobilidade na Região Metropolitana de Lisboa

    Get PDF
    Tese de mestrado. Engenharia Informática. Faculdade de Engenharia. Universidade do Porto, Departamento de Engenharia Informática. Instituto Superior Técnico. 200

    Automatic composition of semantic web services : an approach with asynchronous teams and genetic operators

    Get PDF
    Orientadores: Eleri Cardozo, Juan Manuel Adán CoelloTese (doutorado) - Universidade Estadual de Campinas, Faculdade de Engenharia Elétrica e de ComputaçãoResumo: A automação da composição de serviços Web é, na visão do autor, um dos problemas mais importantes da área de serviços Web. Além de outras características, destaca-se que somente a composição automática é capaz de lidar com ambientes mutáveis onde os serviços são permanentemente inseridos, removidos e modificados. Os métodos existentes para realizar a composição automática de serviços apresentam várias limitações. Alguns tratam de um número muito restrito de fluxos de controles e outros não consideram a marcação semântica dos serviços. Em adição, em muitos casos não há avaliações quantitativas do desempenho dos métodos. Desta forma, o objetivo desta tese é propor um método para realizar a composição automática de serviços Web semânticos que considera os cinco tipos básico de fluxo de controle identificados pela Workflow Management Coalition, a saber: sequencial, separação paralela, sincronização, escolha-exclusiva e união simples; bem como para o fluxo de controle em laço, considerado um fluxo do tipo estrutural. As regras que descrevem a composição entre os serviços são híbridas, baseadas em semântica e em técnicas de recuperação de informação. Os serviços são descritos em OWL-S, uma ontologia descrita em OWL que permite descrever semanticamente os atributos IOPE (parâmetros de entrada, de saída, pré-requisitos e efeitos) de um serviço, mas somente os parâmetros de entrada e saída foram levados em consideração neste trabalho. Para validar a abordagem foi implementado um protótipo que utilizou times assíncronos (A-Teams) com agentes baseados em algoritmos genéticos para realizar a composição segundo os padrões de fluxo sequencial, paralelo e sincronização. A avaliação experimental do algoritmo de composição foi realizada utilizando uma coleção de serviços Web semânticos pública composta de mais de 1000 descrições de serviços. As avaliações de desempenho, em vários cenários típicos, medidas em relação ao tempo de resposta médio e à quantidade de vezes em que a função de avaliação (função fitness) é calculada são igualmente apresentadas. Para os casos mais simples de composição, o algoritmo conseguiu reduzir o tempo de resposta em relação a uma busca cega em aproximadamente 97%. Esta redução aumenta à medida que a complexidade da composição também aumentaAbstract: The automation of the composition of Web services is, in the view of the author, one of the most important problems in the area of Web services. Beyond other characteristics, only the automatic composition can deal with a changing environment where the services are permanently inserted, removed, and modified. Existing methods performing the automatic service composition have several limitations. Some deal with a very limited number of control flow patterns, while others do not consider the semantic markup of services. In addition, in many cases there is no quantitative evaluation of the method's performance. In such a way, the objective of this thesis is to propose a method to perform the automatic composition of semantic Web services considering the five basic types of control flow identified by the Workflow Management Coalition, namely: sequential, parallel split, synchronization, exclusive choice and simple merge; and for loop control flow, classified as a structural control flow pattern. The rules that describe the composition of the service are hybrid: based in semantics and in information retrieval techniques. Services are described in OWL-S, an ontology described in OWL that allows the semantically description of the IOPE attributes (input, output, prerequisite and effect) of a service, but only the input and output parameters were taken into consideration in this work. A prototype was implemented to validate the proposed rules. An asynchronous Team (A-Team) algorithm with genetic agents was used to carry out the composition according to the sequential, parallel and synchronization control flows. The experimental evaluation of the composition algorithm employed a public collection of semantic Web services composed of more than 1000 descriptions of services. An experimental performance evaluation showed that, for simple composition cases, the algorithm reduced the average response time in approximately 97%, when compared to blind search. This reduction increases as the composition complexity increasesDoutoradoEngenharia de ComputaçãoDoutor em Engenharia Elétric

    Metamodelação de processos e serviços

    Get PDF
    Dissertação apresentada na Faculdade de Ciências e Tecnologia da Universidade Nova de Lisboa para a obtenção do Grau de Mestre em Engenharia InformáticaOs níveis de qualidade de serviço e respectivos acordos surgiram como uma forma dos departamentos de Tecnologias de Informação e prestadores de serviços de rede medirem e gerirem a qualidade de serviço que se entrega aos clientes. A concorrência no mercado global está a obrigar muitos prestadores ou fornecedores de serviços à diferenciação, em termos de qualidade de serviço, ao estabelecerem os seus contractos. Por outro lado, a necessidade de oferecer serviços mais sofisticados e complexos força os seus fornecedores a participarem em consórcios, onde a subcontratação tem frequentemente lugar. Essasparcerias implicam que todas as partes envolvidas (incluindo clientes) devam compreender e partilhar os mesmos conceitos de serviço de TI, nomeadamente aqueles referentes à qualidade de serviço. Apesar dos esforços em curso sobre a criação de um corpo de conhecimento em gestão de serviços de TI (Tecnologias de Informação), esses esforços ainda não fornecem uma base suficiente para a definição formal e avaliação de serviços de TI. Com efeito, revendo de forma sistemática o estado da arte, verificou-se em particular que a literatura sobre Service Level Agreements (SLA) no domínio genérico de TI era muito limitada, sendo a existente muito focada na gestão de infra-estruturas ou telecomunicações. Para mitigar esta falha, propõe-se nesta dissertação uma ontologia sobre serviços de TI, sobre a qual se define formalmente o conceito de SLA, bem como os conceitos necessários para a verificação do seu cumprimento. Para modelar a dinâmica da prossecução dos serviços de TI, sobre os quais incidem os SLAs, recorre-se frequentemente à modelação de processos de negócio. Para suportar essa modelação, propõe-se nesta dissertação um metamodelo da linguagem Business Process Modeling Notation (BPMN). Esta linguagem permite retractar a colaboração entre todas as partes interessadas e a forma como se desenvolvem os serviços, permitindo assim a modelação da sua dinâmica

    Arquitetura de um ambiente colaborativo de business intelligence baseado em um repositório de ontologias e serviços de dados

    Get PDF
    Dissertação (mestrado)—Universidade de Brasília, Faculdade de Tecnologia, Departamento de Engenharia Elétrica, 2012.O conceito de Business Intelligence (BI) refere-se a um conjunto de metodologias, métodos, ferramentas e software que são usados a fim de fornecer soluções sistêmicas no apoio à análise de informações cujas especificações e desenvolvimentos são limitados a domínios específicos de informações. Em soluções de BI convencionais, é necessário promover cargas massivas de dados fornecidos por outras organizações em repositórios locais, o que pode tornar a informação não disponível ou causar erros devido à má interpretação dos dados recebidos. Propõe-se neste trabalho, uma arquitetura sistêmica de BI que busca soluções para essas limitações. Esta arquitetura é baseada em um repositório ontológico centralizado e utiliza serviços de dados descentralizados para fornecer dados para consultas analíticas genéricas. A proposta foi validada pelo desenvolvimento de uma prova de conceito que permite mostrar a arquitetura em ambiente funcional e ilustrar seu interesse em diversas aplicações de BI. ______________________________________________________________________________ ABSTRACTBusiness Intelligence (BI) refers to a set of methodologies, methods, tools and software that are used in order to provide system solutions to support information analysis. The specification and development of these system solutions are still limited to specific information domains. Furthermore, in conventional BI solutions, it is necessary to promote massive data loads provided by other organizations in local repositories. Such massive loads can make the information not available on-time or cause errors due to misinterpretation of received data. In this dissertation, a systemic architecture that seeks to address these limitations is proposed. The architecture is based on a centralized ontology repository and uses distributed data services to provide data to generic analytical queries. The proposal was validated by developing a proof of concept software that allows the architecture to implemented in an operational environment so as to ilustrate its interest for several BI applications

    Representação das informações de processos judiciais

    Get PDF
    Dissertação (mestrado)—Universidade de Brasília, Faculdade de Ciência da Informação, Programa de Pós-Graduação em Ciência da Informação, 2019.Objetiva elaborar os requisitos de um modelo de descrição de informações de funções e atividades de processos judiciais para Sistemas informatizados de gestão arquivística de documentos (SIGADs) que tornem mais rápida e precisa a recuperação de informações. Os processos judiciais são conjuntos de atos ordenados pelo Estado com a finalidade de prestar a jurisdição (aplicação vinculante da lei aos fatos e atos). O maior desafio encontrado no Brasil é reduzir a lentidão no julgamento dos processos judiciais: o prazo médio é de 11 anos em para a conclusão em definitivo de um processo judicial na Justiça Federal Comum; e são mais de 109,1 milhões que aguardavam julgamento em 2017. A metodologia de pesquisa é composta por pesquisa bibliográfica, pesquisa documental e estudo de caso, subdividida em quatro etapas. A primeira delas consiste na revisão de literatura de diplomática, tipologia documental, records continuum, as funções arquivísticas de criação, classificação, descrição e identificação, Engenharia de Documentos, Business Process Management, modelos de informação jurídica e Direito. Em segundo lugar, são avaliados os modelos de representação de informações de processos judiciais: Australian Judgment XML Standard, Modelo Nacional de Interoperabilidade do Conselho Nacional de Justiça, Electronic Court Filing, Akoma Ntoso, LegalRuleML e NOBRADE. Na terceira etapa foram identificadas as espécies e os tipos documentais do processo judicial selecionado. Como resultados da pesquisa foi elaborada proposta de elementos de descrição de processos judiciais que atendem os requisitos jurídicos de representação de processos judiciais. Foram identificadas, com apoio na literatura revisada, lacunas nos modelos avaliados, o que evidenciou a necessidade da proposta conter novos elementos de descrição. Os procedimentos de descrição tiveram que ser colocados na perspectiva do records continuum desde os preparativos da criação do documento eletrônico como abordagem para atender a complexidade das informações jurídicas a serem representadas.It aims to elaborate the requirements of a job description and legal process information description model for Computerized Archival Records Management Systems (SIGADs) that make information retrieval faster and more accurately. Judicial proceedings are joint acts ordered by the State for the purpose of providing jurisdiction (binding application of the law to facts and acts). The greatest challenge encountered in Brazil is to reduce the slowness in the trial of the judicial processes: the average term is 11 years for the definitive conclusion of a judicial process in the Common Federal Justice; and more than 109.1 million awaiting trial in 2017. The research methodology is composed of bibliographical research, documentary research and case study, subdivided into four stages. The first of these consists of a literature review of Diplomatics, Document typology, records continuum, the archival functions of creation, classification, description and identification, Document Engineering, business process management, legal information models and law. Secondly, the models of representation of judicial process information are evaluated: Australian Judgment XML Standard, National Interoperability Model of the National Council of Justice in Brazil, Electronic Court Filing, Akoma Ntoso, LegalRuleML and NOBRADE (Brazilian Standard of Archival Description). In the third stage the species and the documentary types of the selected judicial process were identified. As a result of the research, a proposal was made for elements describing judicial processes that meet the legal requirements for representation of legal proceedings. With support in the reviewed literature, gaps were identified in the models evaluated, which evidenced the need for the proposal to contain new elements of description. The description procedures had to be placed in the perspective of records continuum since the preparation of the electronic document as an approach to address the complexity of the legal information to be represented

    Framework de integração para o modelo estratégico de colaboração e mineração de dados espaciais na WEB

    Get PDF
    Tese (doutorado) - Universidade Federal de Santa Catarina, Centro Tecnológico, Programa de Pós-Graduação em Engenharia Civil, Florianópolis, 2011Após o levantamento da situação de alguns municípios brasileiros com relação a produção e ao tratamento de dados espaciais, ficou detectada a carência de infraestruturas, de informações e por consequência, a falta de mecanismos colaborativos com suporte a mineração de dados para análise espacial. As dificuldades aumentam com a disseminação de diferentes estruturas de dados espaciais a exemplo de padrões CAD/GIS produzidas através do rápido avanço das tecnologias de informação, sendo reais os desafios para implementação de uma infraestrutura interoperável e foco de várias discussões. Entretanto o acesso a esses dados via internet e os problemas ocasionados na troca dos mesmos estão relacionados diretamente a natureza particular de cada padrão adotado, por isso devem ser analisados e adequados para colaboração. Inicialmente a hipótese do trabalho visa intensificar a interoperabilidade entre dados espaciais e a integração de sistemas, tornando possível estabelecer canais de comunicação para um ambiente colaborativo visando ações potenciais e cooperativas. A partir disso, a pesquisa apresenta uma investigação sobre os aspectos relevantes que influenciam na engenharia de projetos, originando o desenvolvimento do protótipo denominado OpenCGFW (Collaborative Geospatial Framework Web), visando o reconhecimento de estruturas, integração, manipulação e colaboração, em sintonia com esforços da INDE, OGC e W3C. Inicialmente são realizados estudos e revisões sobre os assuntos diretamente relacionados à interoperabilidade. Também são abordados temas relacionados ao armazenamento, tratamento e colaboração computacional especificamente entre os dados geográficos produzidos por diferentes instituições públicas. Para construção do framework foi aplicado o método MCDA-C (Multicritério de Apoio à Decisão - Construtivista) para identificação dos aspectos fundamentais e elementares. A partir disso o trabalho também descreve os resultados obtidos na implementação das etapas de um padrão de projeto para apoiar nas atividades e na avaliação de geosoluções livres. Durante a discussão, são apresentados os resultados através experimentos e aplicações para mapas digitais na web visando a integração de várias bases de dados distribuídas ao cadastro técnico multifinalitário para uso das principais técnicas de mineração de dados espaciais. Ao final, o trabalho discute a hipótese e a contribuição da pesquisa, visando atender principalmente às características regionais, buscando contribuir para o avanço tecnológico do país ao intensificar o uso de padrões abertos e geotecnologias livres na colaboração e gestão do conhecimentoAfter surveying the situation in some municipals Brazilian with respect to production and processing of spatial data, it was detected the lack of infrastructure, of information, and therefore the lack of mechanisms to support collaborative for data mining and spatial analysis. The difficulties increase with the spread of different structures of spatial data standards like ie: CAD / GIS produced by the rapid advancement of information technology, and real challenges to implementation of an interoperable infrastructure and it focus of several discussions. However access to this data via the Internet and the problems caused in the same exchange are directly related to the particular nature of each standard adopted, so it they should must be analyzed and appropriate for collaboration. Initially, the hypothesis of the study aims to enhance interoperability between spatial data and systems integration, making it possible to establish communication channels for a collaborative environment aimed at potential and cooperative actions. From this, the study presents an investigation into the relevant aspects that influence the projects engineering, resulting in the development of the prototype called OpenCGFW (Collaborative Geospatial Framework Web), to the recognition of structures, integration, manipulation and collaboration, in tuning with efforts GSDI-INDE, OGC and W3C. Initially, studies and reviews on subjects directly related to interoperability. Are also discussed issues related to storage, processing between collaboration computational and specifically geographic data produced by different public institutions. For construction of the framework was applied MCDA-C method (Multicriteria Decision Aid - Constructivist) to identify the fundamental and elementary. From this work also describes the results obtained in implementing the steps of a design pattern to support the activities and evaluating free geo-solutions. During the discussion, are present the results through experiments and applications of the web mapping for digital maps to integrate multiple databases distributed of the multipurpose cadaster and use of the main techniques of spatial data mining. At the end, the work discusses the hypothesis and the contribution of research, mainly to meet the regional characteristics, seeking to contribute to the technological advancement of the country intensifying the use of open standards, the free geo-solutions collaboration and knowledge managemen

    A process capability profile driven proposal for software process improvement

    Get PDF
    Orientador: Mario JinoTese (doutorado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica e de ComputaçãoResumo: Melhoria de processo de software baseada nos níveis de maturidade fixos da arquitetura estagiada dos modelos SW-CMM e CMMI não atendem à diversidade de contextos e objetivos estratégicos das organizações intensivas em software. Esta pesquisa evoluí a área de melhoria de processo com a utilização da flexibilidade da arquitetura contínua da ISO/IEC 15504 para um melhor alinhamento da melhoria com o contexto e objetivos estratégicos específicos de cada organização, principalmente as micro e pequenas. São identificadas três gerações de arquiteturas de modelos de capacidade de processo (estagiada fixa, contínua fechada e contínua aberta). É proposta uma engenharia de processo, de software e de qualquer outro trabalho humano intensivo em conhecimento, dirigida por perfis de capacidade de processo. É desenvolvida uma abordagem exemplo dessa engenharia com um conjunto de propriedades, um modelo unificado, um ciclo de melhoria e um conjunto de medições, bem como um método para o estabelecimento de perfis de capacidade de processo. As propostas são validadas com análises, aplicações práticas e uma agenda de pesquisaAbstract: Software process improvement based on the staged architecture¿s fixed maturity levels of SWCMM and CMMI models do not support the diversity of software intensive organizations context and strategic objectives. This research evolves the current process improvement area taking advantage of the flexibility of ISO/IEC 15504 continuous architecture towards a better alignment between an improvement with each organization¿s specific context and strategic objectives, especially of micro and small ones. Three generations of architectures for process capability models (fixed staged, closed continuous, open continuous) are identified. A process capability profile driven, software and any other knowledge intensive human work, process engineering is proposed. An exemplar approach for this engineering is developed, with a set of properties, a unified model, an improvement cycle and a measurement set, as well as a method for establishing process capability profile. These proposals are validated by analyses, practical applications and a research agendaDoutoradoEngenharia de ComputaçãoDoutor em Engenharia Elétric

    Análise de riscos e efeitos no projeto informacional e conceitual: uma abordagem ontológica.

    Get PDF
    Este trabalho apresenta em seu início uma revisão histórica das publicações sobre FMEA enfatizando os problemas e soluções apresentadas na literatura com a finalidade de identificar como a metodologia evolui ao longo do tempo. A análise das publicações mostrou que a FMEA, apesar de sempre citada como o primeiro dos métodos de avaliação de riscos, é executada por exigências contratuais ou normativas, normalmente realizado ao final do processo, inclusive no desenvolvimento de novos produtos, com um time comprometido com o cumprimento de prazos e não com o resultado da análise, além das dificuldades relativas a classificação dos riscos. Permitiu também entender que o processo de realização da FMEA para identificar os modos de falha quase não sofreu alterações ao longo do tempo. Desta forma, o presente trabalho propõe uma nova abordagem para a Análise de Modo e Efeitos de Falha, mais visual e interativa para possibilitar uma mudança na forma integrar a equipe, melhorando o processo de geração de ideias, estimulando a reflexão e a identificação de novos caminhos para a interpretação dos modos de falha, aqui denominada de Análise de Modos de Falha canvas ou FMEA canvas. A abordagem pretende suprir a necessidade de identificar modos de falha na fase informacional do processo de desenvolvimento de produtos, principalmente na área médica, onde os produtos se tornaram muito complexos e caros, justificando este trabalho. O texto mostra como utilizar o canvas e os resultados de uma aplicação utilizando o método de Soft System Methodology em uma empresa que desenvolve produtos médicos. Os resultados apontados pela empresa que participou da avaliação do FMEA canvas mostraram que o formato seria bem-sucedido nas fases iniciais do processo de desenvolvimento de produtos, pois permite a integração do time de desenvolvimento inclusive com a equipe gerencial, apresenta-se mais compreensível, dinâmico e colaborativo e que a utilização de notas autoadesivas trouxe flexibilidade ao andamento das discussões, estimulando a criatividade, a revisão contínua do andamento da resolução dos modos de falha e a facilidade na recuperação das informações ao longo do processo, além de outras vantagens quando utilizada dentro dos limites para os quais foi planejado

    Proposta de modelo de orientação do processo de disseminação de informações agropecuárias para a web com base em critérios ergonômicos

    Get PDF
    Tese (doutorado) - Universidade Federal de Santa Catarina, Centro Tecnológico, Programa de Pós-Graduação em Engenharia de Produção, Florianópolis, 2013.Setores como a agricultura, a produção e divulgação de informações estão tornando-se fator estratégico para a economia do país e para a sobrevivência dos agricultores e empresas agrícolas, pois é preciso estar atento a informações diárias sobre previsão climática, tecnologias, mercados, assistência técnica, extensão rural, etc. A importância que este setor da economia possui está evidenciada nos números. O agronegócio do Brasil é responsável por 26,4% do Produto Interno Bruto (PIB), 36% das exportações totais e 39% dos empregos brasileiros. Por este motivo, o Brasil possui uma estrutura de apoio a agricultura formada por aproximadamente 100 empresas que atuam na área de pesquisa agrícola e assistência ao agricultor e, as mesmas geram um grande volume de informações de forma dinâmica e que acabam sendo publicadas na web. Diante desta realidade, desenvolveu-se uma proposta de modelo de orientação para o processo de disseminação de informações agropecuárias para a web com base em critérios ergonômicos. O estudo deu-se com a a busca de fundamentação teórica dos conceitos, ferramentas e técnicas existentes necessárias ao modelo; na identificação dos aspectos de ergonomia e usabilidade nos processos de disseminação nas instituições pesquisadas, que teve como produto um diagnóstico e por fim; no modelo conceitual apresentado baseado no modelo de Rosenfeld e Morville (2002) e acrescido de aspectos identificados como essenciais para que se obtenha o resultado desejado ao dispor uma informação agropecuária na web.2013-12-06T00:13:17
    corecore