289 research outputs found

    WASOS: An Ontology for Modelling Traditional Knowledge of Sustainable Water Stewardship

    Get PDF
    Recent work and publications concerning sustainable water stewardship in Rajasthan (India) highlight how contemporary challenges are eroding traditional, communal approaches to water stewardship through mechanised extraction beyond the renewable capacities of ecosystems. Our work is focused on developing a formal ontology for modelling the knowledge of traditional water stewardship in India’s drylands by capturing the key constitutional elements of regenerative methods. Our method follows an iterative evolving prototype process for delivering the first version of the Ontology for Sustainable Water Stewardship (WASOS). The ontology contains a moderate number of high-level classes and properties that represent the water management decisionmaking process. By making key relationships visible, we aim to support decision-making in complex catchments particularly where there are contested urban and rural claims on water

    How might technology rise to the challenge of data sharing in agri-food?

    Get PDF
    Acknowledgement This work was supported by an award made by the UKRI/EPSRC funded Internet of Food Things Network+ grant EP/R045127/1. We would also like to thank Mr Steve Brewer and Professor Simon Pearson for supporting the work presented in this paper.Peer reviewedPostprin

    Managing the Hydra in integration: developing an integrated assessment tool for agricultural systems

    Get PDF
    Keywords: modelling, bio-economic, farm, simulation, ontology, knowledge management, Europe, agricultural management, database, scenario Ex-ante assessment through science-based methods can provide insight into the impacts of potential policy measures or innovations to manage complex problems (e.g. environmental pollution, climate change, or farmers’ welfare). Integrated Assessment and Modelling (IAM) is a method that supports ex-ante assessment through modelling and modelling tools. One type of IAM links models focusing on particular processes on a specific scale into model chains covering multiple scales and disciplines. To achieve an operational model chain for IAM, methodological, semantic and technical integration is required of models, data sources, indicators and scenarios. In this thesis, methodological, semantic and technical integration focuses on two case studies. The first case study is on integration within bio-economic farm models covering two hierarchical systems levels involving a small team of scientists. The second case refers to modelling European agricultural systems. In this case, the integration covers five hierarchical systems levels and different types of models were linked by a large team of about hundred scientists. In the context of these two case studies, many different integration topics and challenges have been addressed: a review of the state-of-the-art in bio-economic farm models, a generic method to define alternative agricultural activities, development of a generic bio-economic farm model, development of an integrated database for agricultural systems, linking different agricultural models and a shared definition of scenarios across disciplines, models and scales. Ultimately, elaborating the methodological, semantic and technical integration greatly contributed to the development of an integrated assessment tool for European agricultural systems. This integrated assessment tool can be used across disciplines and for multi-scale analysis, and allows the assessment of many different policy and technology changes. </p

    Ontology Repositories and Semantic Artefact Catalogues with the OntoPortal Technology

    Get PDF
    Il y a une explosion dans le nombre d’ontologies et d’artefacts sémantiques. Cet article traite de la nécessité pour les plateformes communes de recevoir, héberger, servir, aligner et activer leur réutilisation. Les catalogues sont nécessaires pour répondre à ce besoin et faire des ontologies FAIR (Findable, Accessible, interopérable et réutilisable)

    Data extraction in e-commerce

    Get PDF
    Dissertação de mestrado, Engenharia Eléctrica e Electrónica, Instituto Superior de Engenharia, Universidade do Algarve, 2016Eletronic commerce, know as e-commerce, is a system that consists in buying and selling produtcs/services over the internet. The internet is used by millions of people, making the management of the available information (e.g. competitor analysis market) a very difficult task for those operationg an e-commerce business. So that the managers can better position their companies against competitors, comes the need to create automatic mechanisms to extract information from various web sources (websites). The hotel business is a market where e-commerce is essential since the internet is their biggest selling point, either through sales channels or through their own websites. At the same time, these channels have important information, regarding the reputation of the hotel and their competitors, for instance in the form of guest comments. In this thesis a solution to some of those problems is presented, in which the main focus is the automatic extraction of information from sales channels, such as Booking. com. The extracted information is used to help the hoteliers in the analysis of the prices and opinions of hotel’s guests. That information will be extracted using web robots, able to analyze and interact with web pages, by simulating human behavior. This behavior simulation takes advantage of the navigation patterns present on most sales channels, so that users can easily follow the steps to the final purchase. Briefly describing the overall process, the web robot begins by filling the web site search form with a set of configurable parameters. For each hotel that met the search criteria the most relevant information is extracted, such as: prices, offers, comments and location of the hotel. The collected data is grouped and stored in an intermediate database. Once collected, the data is: (a) used by mathematical prediction models that analyze the prices of the hotels in recent years and generate a forecast of prices that hotels will practice in the future and, (b) used to check the hotel’s reputation taking into account the comments of the guests. This thesis presents a set of four papers resulting in past from the author’s work in project "SRM: Smart Revenue Management" financed by QREN I&DT, no. 38962, with promotor VISUALFORMA - Tecnologias de Informação, SA and co-promoter University of the Algarve.A simplicidade do protocolo HTTP [19] e a extrema flexibilidade dos navegadores web (clientes HTTP) potenciaram o crescimento do número de sites e por sua vez o comércio eletrónico. O comércio eletrónico, também conhecido como e-commerce, é um sistema que consiste na compra e venda de produtos ou serviços através da internet [22]. Sendo a internet um meio de comunicação utilizado por milhões de pessoas, a gestão da informação que é disponibilizada e a análise do mercado concorrente torna-se uma tarefa bastante árdua para quem gere um negócio de e-commerce. Para que os gestores se possam posicionar melhor perante os concorrentes surge a necessidade de criar mecanismos automáticos capazes de extrair informação das várias fontes web (websites). A hotelaria é um mercado em que o e-commerce é imprescindível fazendo da internet o seu maior ponto de venda, seja através de canais de venda ou através dos seus próprios websites. Em simultâneo, os referidos canais apresentam informações importantes sobre a forma de comentários dos hóspedes, relativamente à reputação do hotel e seus concorrentes. Existem dois métodos principais para a procura de informação na web [93], sendo esses: (a) a extração manual através de cópia e colagem e a (b) extração automática através de web robots. Relativamente à extração manual, algumas empresas contratam pessoas para efetuar a extração manual dos dados. Este método consiste em procurar pela web e copiar/colar ficheiros, reformatar texto, imagens, documentos, ficheiros multimédia e outros dados. Este método de extração de dados torna-se dispendioso, pois exige bastante tempo e mão de obra. Por outro lado, para efetuar a extração de dados da web automaticamente, é necessário um crawler (web robot) para visitar as várias páginas web existentes, partindo de uma URL semente. À medida que estas URLs vão sendo visitadas pelo crawler, extraiem-se os dados da página HTML correspondente. Posteriormente por norma esses dados são armazenados numa base de dados, de forma a tornar o acesso aos dados mais eficiente. Nesta dissertação é apresentada uma solução para alguns problemas apresentados, em que o principal foco é a extração automática de informação de quatro canais de venda de reservas de alojamento, sendo esses Booking.com, Tripadvisor, Expedia e Bestday. A informação que se pretende extrair tem como função auxiliar os gestores hoteleiros a analisar a disponibilidade de quartos, os preços praticados e a opinião dos hóspedes relativamente aos hotéis concorrentes. Essa informação será extraída com recurso a web robots, capazes de analisar HTML e interagir com as páginas web simulando o comportamento humano. Esta simulação de comportamento tira partido dos canais de venda seguirem um padrão de navegação de modo a que o utilizador siga facilmente os passos até efetuar a compra. Por cada um dos canais de venda que se pretende extrair informação foi criado um web robot diferente, pois as páginas web estão estruturadas de maneira diferente. Descrevendo sucintamente o processo global, cada web robot começa por efetuar a pesquisa no formulário do respetivo website com um conjunto de parâmetros que são configuráveis. Após efetuar a pesquisa, são percorridos todos os hotéis que satisfizeram os critérios previamente definidos e de seguida é extraída a informação presente nos canais de venda, como sejam: os preços, as ofertas, os comentários e a localização do hotel. Esses dados são agrupados e armazenados numa base de dados não relacional. Nesta fase os dados armazenados estão em bruto, i.e., sem qualquer tratamento. Posteriormente, num processo independente (assíncrono), esses dados serão consolidados através de algumas regras previamente definidas de modo a eliminar redundância e a aumentar a consistência dos mesmos. Neste processo de consolidação existem várias preocupações, sendo possivelmente a principal a associação dos dados extraídos das diferentes páginas. Esta problemática surge devido à discrepância dos nomes dos hotéis nos diferentes canais de vendas. Além disso existem muitas outras discrepâncias entre os canais sendo as mais importantes: o número de estrelas das unidades hoteleiras, o nome dos quartos e a escala de pontuação dos hóspedes. Após concluído todo este processo de tratamento da informação, os dados são armazenados numa base de dados final. Ao contrário da base de dados usada na primeira fase, esta é uma base de dados relacional, o que significa que os dados estão devidamente estruturados possibilitando assim o uso por vários tipos de aplicações. Depois de recolhidos e consolidados, a finalidade dos dados é serem: (a) Utilizados por modelos de previsão matemáticos que analisam os preços praticados pelos hotéis nos últimos anos e geram uma previsão de preços que os hotéis irão praticar no futuro, e (b) utilizados para verificar a reputação dos hotéis tendo em conta os comentários dos hóspedes. Este trabalho não só apresenta a implementação dos web robots e da construção dos dados, como também uma vertente de análise da reputação dos hotéis através da análise dos comentários e pontuação dos hóspedes. A análise desses comentários e pontuações consiste em aplicar algumas regras de semântica e algumas métricas de modo a entender quais são os índices de satisfação dos hóspedes dos hotéis. Através destes indíces é possível verificar a importância de um hotel no mercado, pois num negócio são os clientes que definem o seu sucesso. Esta dissertação apresenta um conjunto de quatro artigos resultantes em parte do trabalho desenvolvido pelo autor no projeto “SRM: Smart Revenue Management” financiado pelo QREN I&DT, n.º 38962, promotor VISUALFORMA - Tecnologias de Informação, SA e co-promotor Universidade do Algarve. Abaixo segue-se a listagem dos artigos que compoem este trabalho: • Martins, D., Lam, R., Rodrigues, J.M.F., Cardoso, P.J.S., Serra, F. (2015) A Web Crawler Framework for Revenue Management, In Proc. 14th Int. Conf. on Artificial Intelligence, Knowledge Engineering and Data Bases (AIKED ’15), in Advances in Electrical and Computer Engineering, Tenerife, Canary Islands, Spain, 10-12 Jan, pp. 88-97. ISBN: 978-1-61804-279-8. • Ramos, C.M.Q., Correia, M.B., Rodrigues, J.M.F., Martins, D., Serra, F. (2015) Big Data Warehouse Framework for Smart Revenue Management. In Proc. 3rd NAUN Int. Conf. on Management, Marketing, Tourism, Retail, Finance and Computer Applications (MATREFC ’15), in Advances in Environmental Science and Energy Planning, Tenerife, Canary Islands, Spain, 10-12 Jan., pp. 13-22. ISBN: 978-1-61804-280-4. • Martins, D., Ramos, C.M.Q, Rodrigues, J.M.F., Cardoso, P.J.S., Lam, R., Serra, F. (2015) Challenges in Building a Big Data Warehouse Applied to the Hotel Business Intelligence, In Proc. 6th Int. Conf. on Applied Informatics and Computing Theory (AICT’15), in Recent Research in Applied Informatics, Salerno, Italy, 27-29 June, pp. 110-117. ISBN: 978-1-61804-313-9. • Choupina, R., Correia, M.B., Ramos, C.M.Q, Martins, D., Serra, F. (2015) Guest Reputation Indexes to Analyze the Hotel’s Online Reputation Using Data Extracted from OTAs, in Proc. 6th Int. Conf. on Applied Informatics and Computing Theory (AICT’15), in Recent Research in Applied Informatics, Salerno, Italy, 27-29 June, pp. 50-59 ISBN: 978-1-61804-313-9

    Ontology Repositories and Semantic Artefact Catalogues with the OntoPortal Technology

    Get PDF
    Dans tous les domaines de la science, de nombreuses ontologies (ou plus largement des artefacts sémantiques 1 ) sont utilisées pour représenter et annoter les données de manière standardisée. Les artefacts sémantiques sont devenus un élément maître pour atteindre les principes FAIR en matière de données

    AGI for Agriculture

    Full text link
    Artificial General Intelligence (AGI) is poised to revolutionize a variety of sectors, including healthcare, finance, transportation, and education. Within healthcare, AGI is being utilized to analyze clinical medical notes, recognize patterns in patient data, and aid in patient management. Agriculture is another critical sector that impacts the lives of individuals worldwide. It serves as a foundation for providing food, fiber, and fuel, yet faces several challenges, such as climate change, soil degradation, water scarcity, and food security. AGI has the potential to tackle these issues by enhancing crop yields, reducing waste, and promoting sustainable farming practices. It can also help farmers make informed decisions by leveraging real-time data, leading to more efficient and effective farm management. This paper delves into the potential future applications of AGI in agriculture, such as agriculture image processing, natural language processing (NLP), robotics, knowledge graphs, and infrastructure, and their impact on precision livestock and precision crops. By leveraging the power of AGI, these emerging technologies can provide farmers with actionable insights, allowing for optimized decision-making and increased productivity. The transformative potential of AGI in agriculture is vast, and this paper aims to highlight its potential to revolutionize the industry

    Matching Biomedical Knowledge Graphs with Neural Embeddings

    Get PDF
    Tese de mestrado, Ciência de Dados, Universidade de Lisboa, Faculdade de Ciências, 2020Os grafos de conhecimento são estruturas que se tornaram fundamentais para a organização dos dados biomédicos que têm sido produzidos a um ritmo exponencial nos últimos anos. A abrangente adoção desta forma de estruturar e descrever dados levou ao desenvolvimento de abordagens de prospeção de dados que tirassem partido desta informação com o intuito de auxiliar o progresso do conhecimento científico. Porém, devido à impossibilidade de isolamento de domínios de conhecimento e à idiossincrasia humana, grafos de conhecimento construídos por diferentes indivíduos contêm muitas vezes conceitos equivalentes descritos de forma diferente, dificultando uma análise integrada de dados de diferentes grafos de conhecimento. Vários sistemas de alinhamento de grafos de conhecimento têm focado a resolução deste desafio. Contudo, o desempenho destes sistemas no alinhamento de grafos de conhecimento biomédicos estagnou nos últimos quatro anos com algoritmos e recursos externos bastante trabalhados para aprimorar os resultados. Nesta dissertação, apresentamos duas novas abordagens de alinhamento de grafos de conhecimento empregando Neural Embeddings: uma utilizando semelhança simples entre embeddings à base de palavras e de entidades de grafos; outra treinando um modelo mais complexo que refinasse a informação proveniente de embeddings baseados em palavras. A metodologia proposta visa integrar estas abordagens no processo regular de alinhamento, utilizando como infraestrutura o sistema AgreementMakerLight. Estas novas componentes permitem extender os algoritmos de alinhamento do sistema, descobrindo novos mapeamentos, e criar uma abordagem de alinhamento mais generalizável e menos dependente de ontologias biomédicas externas. Esta nova metodologia foi avaliada em três casos de teste de alinhamento de ontologias biomédicas, provenientes da Ontology Alignment Evaluation Initiative. Os resultados demonstraram que apesar de ambas as abordagens não excederem o estado da arte, estas obtiveram um desempenho benéfico nas tarefas de alinhamento, superando a performance de todos os sistemas que não usam ontologias externas e inclusive alguns que tiram proveito das mesmas, o que demonstra o valor das técnicas de Neural Embeddings na tarefa de alinhamento de grafos do conhecimento biomédicos.Knowledge graphs are data structures which became essential to organize biomedical data produced at an exponential rate in the last few years. The broad adoption of this method of structuring and describing data resulted in the increased interest to develop data mining approaches which took advantage of these information structures in order to improve scientific knowledge. However, due to human idiosyncrasy and also the impossibility to isolate knowledge domains in separate pieces, knowledge graphs constructed by different individuals often contain equivalent concepts described differently. This obstructs the path to an integrated analysis of data described by multiple knowledge graphs. Multiple knowledge graph matching systems have been developed to address this challenge. Nevertheless, the performance of these systems has stagnated in the last four years, despite the fact that they were provided with highly tailored algorithms and external resources to tackle this task. In this dissertation, we present two novel knowledge graph matching approaches employing neural embeddings: one using plain embedding similarity based on word and graph models; the other one using a more complex word-based model which requires training data to refine embeddings. The proposed methodology aims to integrate these approaches in the regular matching process, using the AgreementMakerLight system as a foundation. These new components enable the extension of the system’s current matching algorithms, discovering new mappings, and developing a more generalizable and less dependent on external biomedical ontologies matching procedure. This new methodology was evaluated on three biomedical ontology matching test cases provided by the Ontology Alignment Evaluation Initiative. The results showed that despite both embedding approaches don’t exceed state of the art results, they still produce better results than any other matching systems which do not make use of external ontologies and also surpass some that do benefit from them. This shows that Neural Embeddings are a valuable technique to tackle the challenge of biomedical knowledge graph matching

    Sustainable and Resilient Supplier Selection in the Context of Circular Economy: An Ontology-Based Model

    Get PDF
    Purpose: Selecting the optimal supplier is a challenging managerial decision that involves several dimensions that vary over time. Despite the considerable attention devoted to this issue, knowledge is required to be updated and analyzed in this field. This paper reveals new opportunities to advance supplier selection research from a multidimensional perspective. Moreover, this study aims to formalise supplier selection knowledge to enable the appropriate selection of sustainable, resilient and circular criteria. Design/methodology/approach: This study is developed in two stages. First, a systematic literature review is conducted to select relevant papers. Descriptive and thematic analyses are employed to analyze criteria, solving approaches and case studies. Second, a criterion knowledge-based framework is developed and validated by experts to be implemented as ontology using Protégé software. Findings: (1) Evaluating the viability of suppliers need further studies to integrate other criteria and to align supplier selection objectives with research advancement; (2) Artificial intelligence tools are needed to revolutionize and optimize the traditional techniques used to solve this problem; (3) Literature lucks frameworks for specific sectors; (4) The proposed ontology provides a consistent criteria knowledge base. Practical Implications: For academics, the results of this study highlight opportunities to improve the viable supplier selection process. From a managerial perspective, the proposed ontology can assist managers in selecting the appropriate criteria. Future works can enrich the proposed ontology and integrate this knowledge base into an information system. Originality/value: This study contributes to promoting knowledge about viable supplier selection. Capitalizing the knowledge base of criteria in a computer-interpretable manner supports the digitalization of this critical decision
    corecore