289 research outputs found
WASOS: An Ontology for Modelling Traditional Knowledge of Sustainable Water Stewardship
Recent work and publications concerning sustainable water stewardship in Rajasthan (India) highlight how contemporary challenges are eroding traditional, communal approaches to water stewardship through mechanised extraction beyond the renewable capacities of ecosystems. Our work is focused on developing a formal ontology for modelling the knowledge of traditional water stewardship in India’s drylands by capturing the key constitutional elements of regenerative methods. Our method follows an iterative evolving prototype process for delivering the first version of the Ontology for Sustainable Water Stewardship (WASOS). The ontology contains a moderate number of high-level classes and properties that represent the water management decisionmaking process. By making key relationships visible, we aim to support decision-making in complex catchments particularly where there are contested urban and rural claims on water
How might technology rise to the challenge of data sharing in agri-food?
Acknowledgement This work was supported by an award made by the UKRI/EPSRC funded Internet of Food Things Network+ grant EP/R045127/1. We would also like to thank Mr Steve Brewer and Professor Simon Pearson for supporting the work presented in this paper.Peer reviewedPostprin
Managing the Hydra in integration: developing an integrated assessment tool for agricultural systems
Keywords: modelling, bio-economic, farm, simulation, ontology, knowledge management, Europe, agricultural management, database, scenario Ex-ante assessment through science-based methods can provide insight into the impacts of potential policy measures or innovations to manage complex problems (e.g. environmental pollution, climate change, or farmers’ welfare). Integrated Assessment and Modelling (IAM) is a method that supports ex-ante assessment through modelling and modelling tools. One type of IAM links models focusing on particular processes on a specific scale into model chains covering multiple scales and disciplines. To achieve an operational model chain for IAM, methodological, semantic and technical integration is required of models, data sources, indicators and scenarios. In this thesis, methodological, semantic and technical integration focuses on two case studies. The first case study is on integration within bio-economic farm models covering two hierarchical systems levels involving a small team of scientists. The second case refers to modelling European agricultural systems. In this case, the integration covers five hierarchical systems levels and different types of models were linked by a large team of about hundred scientists. In the context of these two case studies, many different integration topics and challenges have been addressed: a review of the state-of-the-art in bio-economic farm models, a generic method to define alternative agricultural activities, development of a generic bio-economic farm model, development of an integrated database for agricultural systems, linking different agricultural models and a shared definition of scenarios across disciplines, models and scales. Ultimately, elaborating the methodological, semantic and technical integration greatly contributed to the development of an integrated assessment tool for European agricultural systems. This integrated assessment tool can be used across disciplines and for multi-scale analysis, and allows the assessment of many different policy and technology changes. </p
Ontology Repositories and Semantic Artefact Catalogues with the OntoPortal Technology
Il y a une explosion dans le nombre d’ontologies et d’artefacts sémantiques. Cet article traite de la nécessité pour les plateformes communes de recevoir, héberger, servir, aligner et activer leur réutilisation. Les catalogues sont nécessaires pour répondre à ce besoin et faire des ontologies FAIR (Findable, Accessible, interopérable et réutilisable)
Data extraction in e-commerce
Dissertação de mestrado, Engenharia Eléctrica e Electrónica, Instituto Superior de Engenharia, Universidade do Algarve, 2016Eletronic commerce, know as e-commerce, is a system that consists in buying and selling
produtcs/services over the internet. The internet is used by millions of people,
making the management of the available information (e.g. competitor analysis market)
a very difficult task for those operationg an e-commerce business. So that the
managers can better position their companies against competitors, comes the need to
create automatic mechanisms to extract information from various web sources (websites).
The hotel business is a market where e-commerce is essential since the internet is
their biggest selling point, either through sales channels or through their own websites.
At the same time, these channels have important information, regarding the
reputation of the hotel and their competitors, for instance in the form of guest comments.
In this thesis a solution to some of those problems is presented, in which the main
focus is the automatic extraction of information from sales channels, such as Booking.
com. The extracted information is used to help the hoteliers in the analysis of the
prices and opinions of hotel’s guests. That information will be extracted using web
robots, able to analyze and interact with web pages, by simulating human behavior.
This behavior simulation takes advantage of the navigation patterns present on most
sales channels, so that users can easily follow the steps to the final purchase. Briefly describing the overall process, the web robot begins by filling the web site
search form with a set of configurable parameters. For each hotel that met the search
criteria the most relevant information is extracted, such as: prices, offers, comments
and location of the hotel. The collected data is grouped and stored in an intermediate
database. Once collected, the data is: (a) used by mathematical prediction models that
analyze the prices of the hotels in recent years and generate a forecast of prices that
hotels will practice in the future and, (b) used to check the hotel’s reputation taking
into account the comments of the guests.
This thesis presents a set of four papers resulting in past from the author’s work
in project "SRM: Smart Revenue Management" financed by QREN I&DT, no. 38962,
with promotor VISUALFORMA - Tecnologias de Informação, SA and co-promoter
University of the Algarve.A simplicidade do protocolo HTTP [19] e a extrema flexibilidade dos navegadores
web (clientes HTTP) potenciaram o crescimento do número de sites e por sua vez o
comércio eletrónico.
O comércio eletrónico, também conhecido como e-commerce, é um sistema que consiste
na compra e venda de produtos ou serviços através da internet [22]. Sendo a
internet um meio de comunicação utilizado por milhões de pessoas, a gestão da informação
que é disponibilizada e a análise do mercado concorrente torna-se uma tarefa
bastante árdua para quem gere um negócio de e-commerce. Para que os gestores se possam
posicionar melhor perante os concorrentes surge a necessidade de criar mecanismos
automáticos capazes de extrair informação das várias fontes web (websites).
A hotelaria é um mercado em que o e-commerce é imprescindível fazendo da internet
o seu maior ponto de venda, seja através de canais de venda ou através dos seus
próprios websites. Em simultâneo, os referidos canais apresentam informações importantes
sobre a forma de comentários dos hóspedes, relativamente à reputação do hotel
e seus concorrentes.
Existem dois métodos principais para a procura de informação na web [93], sendo
esses: (a) a extração manual através de cópia e colagem e a (b) extração automática
através de web robots.
Relativamente à extração manual, algumas empresas contratam pessoas para efetuar a extração manual dos dados. Este método consiste em procurar pela web e
copiar/colar ficheiros, reformatar texto, imagens, documentos, ficheiros multimédia
e outros dados. Este método de extração de dados torna-se dispendioso, pois exige
bastante tempo e mão de obra.
Por outro lado, para efetuar a extração de dados da web automaticamente, é necessário
um crawler (web robot) para visitar as várias páginas web existentes, partindo
de uma URL semente. À medida que estas URLs vão sendo visitadas pelo crawler,
extraiem-se os dados da página HTML correspondente. Posteriormente por norma
esses dados são armazenados numa base de dados, de forma a tornar o acesso aos
dados mais eficiente.
Nesta dissertação é apresentada uma solução para alguns problemas apresentados,
em que o principal foco é a extração automática de informação de quatro canais
de venda de reservas de alojamento, sendo esses Booking.com, Tripadvisor, Expedia e
Bestday. A informação que se pretende extrair tem como função auxiliar os gestores
hoteleiros a analisar a disponibilidade de quartos, os preços praticados e a opinião
dos hóspedes relativamente aos hotéis concorrentes. Essa informação será extraída
com recurso a web robots, capazes de analisar HTML e interagir com as páginas web
simulando o comportamento humano. Esta simulação de comportamento tira partido
dos canais de venda seguirem um padrão de navegação de modo a que o utilizador
siga facilmente os passos até efetuar a compra. Por cada um dos canais de venda que
se pretende extrair informação foi criado um web robot diferente, pois as páginas web
estão estruturadas de maneira diferente.
Descrevendo sucintamente o processo global, cada web robot começa por efetuar a
pesquisa no formulário do respetivo website com um conjunto de parâmetros que são
configuráveis. Após efetuar a pesquisa, são percorridos todos os hotéis que satisfizeram
os critérios previamente definidos e de seguida é extraída a informação presente
nos canais de venda, como sejam: os preços, as ofertas, os comentários e a localização
do hotel. Esses dados são agrupados e armazenados numa base de dados não relacional. Nesta fase os dados armazenados estão em bruto, i.e., sem qualquer tratamento.
Posteriormente, num processo independente (assíncrono), esses dados serão consolidados
através de algumas regras previamente definidas de modo a eliminar redundância
e a aumentar a consistência dos mesmos. Neste processo de consolidação
existem várias preocupações, sendo possivelmente a principal a associação dos dados
extraídos das diferentes páginas. Esta problemática surge devido à discrepância dos
nomes dos hotéis nos diferentes canais de vendas. Além disso existem muitas outras
discrepâncias entre os canais sendo as mais importantes: o número de estrelas das
unidades hoteleiras, o nome dos quartos e a escala de pontuação dos hóspedes. Após
concluído todo este processo de tratamento da informação, os dados são armazenados
numa base de dados final. Ao contrário da base de dados usada na primeira fase,
esta é uma base de dados relacional, o que significa que os dados estão devidamente
estruturados possibilitando assim o uso por vários tipos de aplicações.
Depois de recolhidos e consolidados, a finalidade dos dados é serem: (a) Utilizados
por modelos de previsão matemáticos que analisam os preços praticados pelos hotéis
nos últimos anos e geram uma previsão de preços que os hotéis irão praticar no futuro,
e (b) utilizados para verificar a reputação dos hotéis tendo em conta os comentários
dos hóspedes.
Este trabalho não só apresenta a implementação dos web robots e da construção
dos dados, como também uma vertente de análise da reputação dos hotéis através da
análise dos comentários e pontuação dos hóspedes. A análise desses comentários e
pontuações consiste em aplicar algumas regras de semântica e algumas métricas de
modo a entender quais são os índices de satisfação dos hóspedes dos hotéis. Através
destes indíces é possível verificar a importância de um hotel no mercado, pois num
negócio são os clientes que definem o seu sucesso.
Esta dissertação apresenta um conjunto de quatro artigos resultantes em parte do
trabalho desenvolvido pelo autor no projeto “SRM: Smart Revenue Management” financiado pelo QREN I&DT, n.º 38962, promotor VISUALFORMA - Tecnologias de
Informação, SA e co-promotor Universidade do Algarve. Abaixo segue-se a listagem
dos artigos que compoem este trabalho:
• Martins, D., Lam, R., Rodrigues, J.M.F., Cardoso, P.J.S., Serra, F. (2015) A Web
Crawler Framework for Revenue Management, In Proc. 14th Int. Conf. on Artificial
Intelligence, Knowledge Engineering and Data Bases (AIKED ’15), in Advances
in Electrical and Computer Engineering, Tenerife, Canary Islands, Spain,
10-12 Jan, pp. 88-97. ISBN: 978-1-61804-279-8.
• Ramos, C.M.Q., Correia, M.B., Rodrigues, J.M.F., Martins, D., Serra, F. (2015)
Big Data Warehouse Framework for Smart Revenue Management. In Proc.
3rd NAUN Int. Conf. on Management, Marketing, Tourism, Retail, Finance
and Computer Applications (MATREFC ’15), in Advances in Environmental Science
and Energy Planning, Tenerife, Canary Islands, Spain, 10-12 Jan., pp. 13-22.
ISBN: 978-1-61804-280-4.
• Martins, D., Ramos, C.M.Q, Rodrigues, J.M.F., Cardoso, P.J.S., Lam, R., Serra,
F. (2015) Challenges in Building a Big Data Warehouse Applied to the Hotel
Business Intelligence, In Proc. 6th Int. Conf. on Applied Informatics and Computing
Theory (AICT’15), in Recent Research in Applied Informatics, Salerno,
Italy, 27-29 June, pp. 110-117. ISBN: 978-1-61804-313-9.
• Choupina, R., Correia, M.B., Ramos, C.M.Q, Martins, D., Serra, F. (2015) Guest
Reputation Indexes to Analyze the Hotel’s Online Reputation Using Data Extracted
from OTAs, in Proc. 6th Int. Conf. on Applied Informatics and Computing
Theory (AICT’15), in Recent Research in Applied Informatics, Salerno, Italy,
27-29 June, pp. 50-59 ISBN: 978-1-61804-313-9
Ontology Repositories and Semantic Artefact Catalogues with the OntoPortal Technology
Dans tous les domaines de la science, de nombreuses ontologies (ou plus largement des artefacts sémantiques 1 ) sont utilisées pour
représenter et annoter les données de manière standardisée. Les artefacts sémantiques sont devenus un élément maître pour atteindre les principes FAIR en matière de données
AGI for Agriculture
Artificial General Intelligence (AGI) is poised to revolutionize a variety of
sectors, including healthcare, finance, transportation, and education. Within
healthcare, AGI is being utilized to analyze clinical medical notes, recognize
patterns in patient data, and aid in patient management. Agriculture is another
critical sector that impacts the lives of individuals worldwide. It serves as a
foundation for providing food, fiber, and fuel, yet faces several challenges,
such as climate change, soil degradation, water scarcity, and food security.
AGI has the potential to tackle these issues by enhancing crop yields, reducing
waste, and promoting sustainable farming practices. It can also help farmers
make informed decisions by leveraging real-time data, leading to more efficient
and effective farm management. This paper delves into the potential future
applications of AGI in agriculture, such as agriculture image processing,
natural language processing (NLP), robotics, knowledge graphs, and
infrastructure, and their impact on precision livestock and precision crops. By
leveraging the power of AGI, these emerging technologies can provide farmers
with actionable insights, allowing for optimized decision-making and increased
productivity. The transformative potential of AGI in agriculture is vast, and
this paper aims to highlight its potential to revolutionize the industry
Matching Biomedical Knowledge Graphs with Neural Embeddings
Tese de mestrado, Ciência de Dados, Universidade de Lisboa, Faculdade de Ciências, 2020Os grafos de conhecimento são estruturas que se tornaram fundamentais para a organização dos dados biomédicos que têm sido produzidos a um ritmo exponencial nos últimos anos. A abrangente adoção desta forma de estruturar e descrever dados levou ao desenvolvimento de abordagens de prospeção de dados que tirassem partido desta informação com o intuito de auxiliar o progresso do conhecimento científico. Porém, devido à impossibilidade de isolamento de domínios de conhecimento e à idiossincrasia humana, grafos de conhecimento construídos por diferentes indivíduos contêm muitas vezes conceitos equivalentes descritos de forma diferente, dificultando uma análise integrada de dados de diferentes grafos de conhecimento. Vários sistemas de alinhamento de grafos de conhecimento têm focado a resolução deste desafio. Contudo, o desempenho destes sistemas no alinhamento de grafos de conhecimento biomédicos estagnou nos últimos quatro anos com algoritmos e recursos externos bastante trabalhados para aprimorar os resultados. Nesta dissertação, apresentamos duas novas abordagens de alinhamento de grafos de conhecimento empregando Neural Embeddings: uma utilizando semelhança simples entre embeddings à base de palavras e de entidades de grafos; outra treinando um modelo mais complexo que refinasse a informação proveniente de embeddings baseados em palavras. A metodologia proposta visa integrar estas abordagens no processo regular de alinhamento, utilizando como infraestrutura o sistema AgreementMakerLight. Estas novas componentes permitem extender os algoritmos de alinhamento do sistema, descobrindo novos mapeamentos, e criar uma abordagem de alinhamento mais generalizável e menos dependente de ontologias biomédicas externas. Esta nova metodologia foi avaliada em três casos de teste de alinhamento de ontologias biomédicas, provenientes da Ontology Alignment Evaluation Initiative. Os resultados demonstraram que apesar de ambas as abordagens não excederem o estado da arte, estas obtiveram um desempenho benéfico nas tarefas de alinhamento, superando a performance de todos os sistemas que não usam ontologias externas e inclusive alguns que tiram proveito das mesmas, o que demonstra o valor das técnicas de Neural Embeddings na tarefa de alinhamento de grafos do conhecimento biomédicos.Knowledge graphs are data structures which became essential to organize biomedical data produced at an exponential rate in the last few years. The broad adoption of this method of structuring and describing data resulted in the increased interest to develop data mining approaches which took advantage of these information structures in order to improve scientific knowledge. However, due to human idiosyncrasy and also the impossibility to isolate knowledge domains in separate pieces, knowledge graphs constructed by different individuals often contain equivalent concepts described differently. This obstructs the path to an integrated analysis of data described by multiple knowledge graphs. Multiple knowledge graph matching systems have been developed to address this challenge. Nevertheless, the performance of these systems has stagnated in the last four years, despite the fact that they were provided with highly tailored algorithms and external resources to tackle this task. In this dissertation, we present two novel knowledge graph matching approaches employing neural embeddings: one using plain embedding similarity based on word and graph models; the other one using a more complex word-based model which requires training data to refine embeddings. The proposed methodology aims to integrate these approaches in the regular matching process, using the AgreementMakerLight system as a foundation. These new components enable the extension of the system’s current matching algorithms, discovering new mappings, and developing a more generalizable and less dependent on external biomedical ontologies matching procedure. This new methodology was evaluated on three biomedical ontology matching test cases provided by the Ontology Alignment Evaluation Initiative. The results showed that despite both embedding approaches don’t exceed state of the art results, they still produce better results than any other matching systems which do not make use of external ontologies and also surpass some that do benefit from them. This shows that Neural Embeddings are a valuable technique to tackle the challenge of biomedical knowledge graph matching
Sustainable and Resilient Supplier Selection in the Context of Circular Economy: An Ontology-Based Model
Purpose: Selecting the optimal supplier is a challenging managerial decision that involves several dimensions that vary over time. Despite the considerable attention devoted to this issue, knowledge is required to be updated and analyzed in this field. This paper reveals new opportunities to advance supplier selection research from a multidimensional perspective. Moreover, this study aims to formalise supplier selection knowledge to enable the appropriate selection of sustainable, resilient and circular criteria.
Design/methodology/approach: This study is developed in two stages. First, a systematic literature review is conducted to select relevant papers. Descriptive and thematic analyses are employed to analyze criteria, solving approaches and case studies. Second, a criterion knowledge-based framework is developed and validated by experts to be implemented as ontology using Protégé software.
Findings: (1) Evaluating the viability of suppliers need further studies to integrate other criteria and to align supplier selection objectives with research advancement; (2) Artificial intelligence tools are needed to revolutionize and optimize the traditional techniques used to solve this problem; (3) Literature lucks frameworks for specific sectors; (4) The proposed ontology provides a consistent criteria knowledge base.
Practical Implications: For academics, the results of this study highlight opportunities to improve the viable supplier selection process. From a managerial perspective, the proposed ontology can assist managers in selecting the appropriate criteria. Future works can enrich the proposed ontology and integrate this knowledge base into an information system.
Originality/value: This study contributes to promoting knowledge about viable supplier selection. Capitalizing the knowledge base of criteria in a computer-interpretable manner supports the digitalization of this critical decision
- …