201 research outputs found
Overview of the ID, EPI and REL tasks of BioNLP Shared Task 2011
We present the preparation, resources, results and analysis of three tasks of the BioNLP Shared Task 2011: the main tasks on Infectious Diseases (ID) and Epigenetics and Post-translational Modifications (EPI), and the supporting task on Entity Relations (REL). The two main tasks represent extensions of the event extraction model introduced in the BioNLP Shared Task 2009 (ST'09) to two new areas of biomedical scientific literature, each motivated by the needs of specific biocuration tasks. The ID task concerns the molecular mechanisms of infection, virulence and resistance, focusing in particular on the functions of a class of signaling systems that are ubiquitous in bacteria. The EPI task is dedicated to the extraction of statements regarding chemical modifications of DNA and proteins, with particular emphasis on changes relating to the epigenetic control of gene expression. By contrast to these two application-oriented main tasks, the REL task seeks to support extraction in general by separating challenges relating to part-of relations into a subproblem that can be addressed by independent systems. Seven groups participated in each of the two main tasks and four groups in the supporting task. The participating systems indicated advances in the capability of event extraction methods and demonstrated generalization in many aspects: from abstracts to full texts, from previously considered subdomains to new ones, and from the ST'09 extraction targets to other entities and events. The highest performance achieved in the supporting task REL, 58% F-score, is broadly comparable with levels reported for other relation extraction tasks. For the ID task, the highest-performing system achieved 56% F-score, comparable to the state-of-the-art performance at the established ST'09 task. In the EPI task, the best result was 53% F-score for the full set of extraction targets and 69% F-score for a reduced set of core extraction targets, approaching a level of performance sufficient for user-facing applications. In this study, we extend on previously reported results and perform further analyses of the outputs of the participating systems. We place specific emphasis on aspects of system performance relating to real-world applicability, considering alternate evaluation metrics and performing additional manual analysis of system outputs. We further demonstrate that the strengths of extraction systems can be combined to improve on the performance achieved by any system in isolation. The manually annotated corpora, supporting resources, and evaluation tools for all tasks are available from http://www.bionlp-st.org and the tasks continue as open challenges for all interested parties
Semantic interoperability: ontological unpacking of a viral conceptual model
Background. Genomics and virology are unquestionably important, but complex, domains being investigated by a large number of scientists. The need to facilitate and support work within these domains requires sharing of databases, although it is often difficult to do so because of the different ways in which data is represented across the databases. To foster semantic interoperability, models are needed that provide a deep understanding and interpretation of the concepts in a domain, so that the data can be consistently interpreted among researchers.
Results. In this research, we propose the use of conceptual models to support semantic interoperability among databases and assess their ontological clarity to support their effective use. This modeling effort is illustrated by its application to the Viral Conceptual Model (VCM) that captures and represents the sequencing of viruses, inspired by the need to understand the genomic aspects of the virus responsible for COVID-19. For achieving semantic clarity on the VCM, we leverage the “ontological unpacking” method, a process of ontological analysis that reveals the ontological foundation of the information that is represented in a conceptual model. This is accomplished by applying the stereotypes of the OntoUML ontology-driven conceptual modeling language.As a result, we propose a new OntoVCM, an ontologically grounded model, based on the initial VCM, but with guaranteed interoperability among the data sources that employ it.
Conclusions. We propose and illustrate how the unpacking of the Viral Conceptual Model resolves several issues related to semantic interoperability, the importance of which is recognized by the “I” in FAIR principles. The research addresses conceptual uncertainty within the domain of SARS-CoV-2 data and knowledge.The method employed provides the basis for further analyses of complex models currently used in life science applications, but lacking ontological grounding, subsequently hindering the interoperability needed for scientists to progress their research
Semantic annotation of clinical questionnaires to support personalized medicine
Tese de Mestrado, Bioinformática e Biologia Computacional, 2022, Universidade de Lisboa, Faculdade de CiênciasAtualmente estamos numa era global de constante evolução tecnológica, e uma das
áreas que têm beneficiado com isso é a medicina, uma vez que com integração da vertente
tecnológica na medicina, tem vindo a ter um papel cada vez mais importante quer do
ponto de vista dos médicos quer do ponto de vista dos pacientes.
Como resultado de melhores ferramentas que permitam melhorar o exercício das
funções dos médicos, estão se a criar condições para que os pacientes possam ter um
melhor acompanhamento, entendimento e atualização em tempo real da sua condição
clínica.
O setor dos Cuidados de Saúde é responsável pelas novidades que surgem quase
diariamente e que permitem melhorar a experiência do paciente e o modo como os
médicos podem tirar proveito da informação que os dados contêm em prol de uma
validação mais célere e eficaz. Este setor tem gerado um volume cada vez mais maciço
de dados, entre os quais relatórios médicos, registos de sensores inerciais, gravações de
consultas, imagens, vídeos e avaliações médicas nas quais se inserem os questionários e
as escalas clínicas que prometem aos pacientes um melhor acompanhamento do seu
estado de saúde, no entanto o seu enorme volume, distribuição e a grande
heterogeneidade dificulta o processamento e análise.
A integração deste tipo de dados é um desafio, uma vez que têm origens em diversas
fontes e uma heterogeneidade semântica bastante significativa; a integração semântica de
dados biomédicos resulta num desenvolvimento de uma rede semântica biomédica que
relaciona conceitos entre diversas fontes o que facilita a tradução de descobertas
científicas ajudando na elaboração de análises e conclusões mais complexas para isso é
crucial que se atinja a interoperabilidade semântica dos dados. Este é um passo muito
importante que permite a interação entre diferentes conjuntos de dados clínicos dentro do
mesmo sistema de informação ou entre sistemas diferentes. Esta integração permite às
ferramentas de análise e interface com os dados trabalhar sobre uma visão integrada e
holística dos dados, o que em última análise permite aos clínicos um acompanhamento
mais detalhado e personalizado dos seus pacientes.
Esta dissertação foi desenvolvida no LASIGE e em colaboração com o Campus
Neurológico Sénior e faz parte de um grande projeto que explora o fornecimento de mais e melhores dados tanto a clínicos como a pacientes. A base deste projeto assenta numa
aplicação web, o DataPark que possui uma plataforma que permite ao utilizador navegar
por áreas clinicas entre as quais a nutrição, fisioterapia, terapia ocupacional, terapia da
fala e neuropsicologia, em que cada uma delas que alberga baterias de testes com diversos
questionários e escalas clínicas de avaliação. Este tipo de avaliação clínica facilita imenso
o trabalho do médico uma vez que permite que sejam implementadas à distância uma vez
que o paciente pode responder remotamente, estas respostas ficam guardadas no
DataPark permitindo ao médico fazer um rastreamento do status do paciente ao longo do
tempo em relação a uma determinada escala.
No entanto o modo como o DataPark foi desenvolvido limita uma visão do médico
orientada ao questionário, ou seja o médico que acompanha o paciente quando quer ter a
visão do mesmo como um todo tem esta informação espalhada e dividida por estes
diferentes questionários e tem de os ir ver a todos um a um para ter a noção do status do
paciente. Esta dissertação pretende fazer face a este desafio construindo um algoritmo
que decomponha todas as perguntas dos diferentes questionários e permita a sua
integração semântica. Isto com o objectivo de permitir ao médico ter um visão holística
orientada por conceito clínico.
Procedeu-se então à extração de toda a base de dados presente no DataPark, sendo
esta a fonte de dados sobre a qual este trabalho se baseou, frisando que originalmente
existem muitos dados em Português que terão de ser traduzidos automaticamente.
Com uma análise de alto nível (numa fase inicial) sobre os questionários da base
de dados, iniciou-se a construção de um modelo semântico que pudesse descrever os
dados presentes nos questionários e escalas. Assim de uma forma manual foi feito um
levantamento de todos os conceitos clínicos que se conseguiu identificar num sub conjunto de questionários, mais concretamente 15 com os 5 mais respondidos em relação
à Doença de parkinson, os 5 mais respondidos em relação à doença de AVC e os 5 mais
respondidos que não estejam associados a uma única patologia em específico. Este
modelo foi melhorado e evoluiu em conjunto com uma equipa de 12 médicos e terapeutas
do CNS ao longo de 7 reuniões durante as quais foi levado a cabo um workshop de
validação que permitiu dotar o modelo construído de uma fiabilidade elevada.
Em paralelo procedeu-se à elaboração de 2 estudo: (i) um estudo que consistia em
avaliar com qual ou quais ontologias se obtém a maior cobertura dos dados do sub conjunto de 15 questionários. A conclusão a que se chegou foi que o conjunto de
ontologias que nos conferia mais segurança é constituído pelas ontologias LOINC, NCIT,
SNOMED e OCHV, conjunto esse foi utilizado daqui em diante; (ii) outro estudo
procurou aferir qual a ferramenta de tradução automática(Google Translator ou Microsoft
Translator) que confere uma segurança maior, para isso procedeu-se à tradução completa de 3 questionários que apesar de estar na base de dados no idioma português, tem a sua
versão original em inglês. Isto permitiu-nos traduzir estes 3 questionários de português
para inglês e avaliar em qual das duas ferramentas se obteve uma melhor performance.
O Microsoft Translator apresentou com uma diferença pequena um desempenho superior,
sendo portanto a ferramenta de tradução automática escolhida para integrar o nosso
algoritmo.
Concluídos estes 2 estudos temos assim o conjunto de dados uniformizado numa
só linguagem, e o conjunto de ontologias escolhidas para a anotação semântica. Para
entender esta fase do trabalho há que entender que ontologias são poderosas ferramentas
computacionais que consistem num conjunto de conceitos ou termos, que nomeiam e
definem as entidades presentes num certo domínio de interesse, no ramo da biomedicina
são designadas por ontologias biomédicas.
O uso de ontologias biomédicas confere uma grande utilidade na partilha,
recuperação e na extração de informação na biomedicina tendo um papel crucial para a
interoperabilidade semântica que é exatamente o nosso objectivo final.
Assim sendo procedeu-se à anotação semântica das questões do sub-conjunto de
15 questionários, uma anotação semântica é um processo que associa formalmente o alvo
textual a um conceito/termo, podendo estabelecer desta forma pontes entre
documentos/texto-alvos diferentes que abordam o mesmo conceito. Ou seja, uma
anotação semântica é associar um termo de uma determinada ontologia a um conceito
presente no texto alvo. Imaginando que o texto alvo são diferentes perguntas de vários
questionários, é natural encontrar diferentes questões de diferentes áreas de diagnóstico
que estejam conectados por termos ontológicos em comum.
Depois da anotação completada é feita a integração do modelo semântico, com o
algoritmo desenvolvido com o conjunto de ontologias e ainda com os dados dos
pacientes. Desta forma sabemos que um determinado paciente respondeu a várias
perguntas que abordam um mesmo conceito, essas perguntas estão interligadas
semanticamente uma vez que têm o mesmo conceito mapeado.
A nível de performance geral tanto os processos tradução como de anotação tiveram
um desempenho aceitável, onde a nivel de tradução se atingiu 78% accuracy, 76% recall
e uma F-mesure de 0.77 e ao nível da performance de anotação obteve-se 87% de
anotações bem conseguidas. Portanto num cômputo geral consegue-se atingir o principal
objectivo que era a obtenção holística integrada com o modelo semântico e os dados do
DataPark(Questionários e pacientes).Healthcare is a multi-domain area, with professionals from different areas often
collaborating to provide patients with the best possible care. Neurological and
neurodegenerative diseases are especially so, with multiple areas, including neurology,
psychology, nursing, physical therapy, speech therapy and others coming together to
support these patients.
The DataPark application allows healthcare providers to store, manage and analyse
information about patients with neurological disorders from different perspectives
including evaluation scales and questionnaires. However, the application does not
provide a holistic view of the patient status because it is split across different domains
and clinical scales.
This work proposes a methodology for the semantic integration of this data. It
developed the data scaffolding to afford a holistic view of the patient status that is
concept-oriented rather than scale or test battery oriented. A semantic model was
developed in collaboration with healthcare providers from different areas, which was
subsequently aligned with existing biomedical ontologies. The questionnaire and scale
data was semantically annotated to this semantic model, with a translation step when the
original data was in Portuguese. The process was applied to a subset of 15 scales with a
manual evaluation of each process. The semantic model includes 204 concepts and 436
links to external ontologies. Translation achieved an accuracy of 78%, whereas the
semantic annotation achieved 87%. The final integrated dataset covers 443 patients.
Finally, applying the process of semantic annotation to the whole dataset,
conditions are created for the process of semantic integration to occur, this process
consists in crossing all questions from different questionnaires and establishing a
connection between those that contain the same annotation.
This work allows healthcare providers to assess patients in a more global fashion,
integrating data collected from different scales and test batteries that evaluate the same
or similar parameters
Knowledge-based Biomedical Data Science 2019
Knowledge-based biomedical data science (KBDS) involves the design and
implementation of computer systems that act as if they knew about biomedicine.
Such systems depend on formally represented knowledge in computer systems,
often in the form of knowledge graphs. Here we survey the progress in the last
year in systems that use formally represented knowledge to address data science
problems in both clinical and biological domains, as well as on approaches for
creating knowledge graphs. Major themes include the relationships between
knowledge graphs and machine learning, the use of natural language processing,
and the expansion of knowledge-based approaches to novel domains, such as
Chinese Traditional Medicine and biodiversity.Comment: Manuscript 43 pages with 3 tables; Supplemental material 43 pages
with 3 table
BioRED: A Comprehensive Biomedical Relation Extraction Dataset
Automated relation extraction (RE) from biomedical literature is critical for
many downstream text mining applications in both research and real-world
settings. However, most existing benchmarking datasets for bio-medical RE only
focus on relations of a single type (e.g., protein-protein interactions) at the
sentence level, greatly limiting the development of RE systems in biomedicine.
In this work, we first review commonly used named entity recognition (NER) and
RE datasets. Then we present BioRED, a first-of-its-kind biomedical RE corpus
with multiple entity types (e.g., gene/protein, disease, chemical) and relation
pairs (e.g., gene-disease; chemical-chemical), on a set of 600 PubMed articles.
Further, we label each relation as describing either a novel finding or
previously known background knowledge, enabling automated algorithms to
differentiate between novel and background information. We assess the utility
of BioRED by benchmarking several existing state-of-the-art methods, including
BERT-based models, on the NER and RE tasks. Our results show that while
existing approaches can reach high performance on the NER task (F-score of
89.3%), there is much room for improvement for the RE task, especially when
extracting novel relations (F-score of 47.7%). Our experiments also demonstrate
that such a comprehensive dataset can successfully facilitate the development
of more accurate, efficient, and robust RE systems for biomedicine
Emerging semantics to link phenotype and environment
abstract: Understanding the interplay between environmental conditions and phenotypes is a fundamental goal of biology. Unfortunately, data that include observations on phenotype and environment are highly heterogeneous and thus difficult to find and integrate. One approach that is likely to improve the status quo involves the use of ontologies to standardize and link data about phenotypes and environments. Specifying and linking data through ontologies will allow researchers to increase the scope and flexibility of large-scale analyses aided by modern computing methods. Investments in this area would advance diverse fields such as ecology, phylogenetics, and conservation biology. While several biological ontologies are well-developed, using them to link phenotypes and environments is rare because of gaps in ontological coverage and limits to interoperability among ontologies and disciplines. In this manuscript, we present (1) use cases from diverse disciplines to illustrate questions that could be answered more efficiently using a robust linkage between phenotypes and environments, (2) two proof-of-concept analyses that show the value of linking phenotypes to environments in fishes and amphibians, and (3) two proposed example data models for linking phenotypes and environments using the extensible observation ontology (OBOE) and the Biological Collections Ontology (BCO); these provide a starting point for the development of a data model linking phenotypes and environments.The final version of this article, as published in PeerJ, can be viewed online at: https://peerj.com/articles/1470
Enabling Web-scale data integration in biomedicine through Linked Open Data
The biomedical data landscape is fragmented with several isolated, heterogeneous data and knowledge sources, which use varying formats, syntaxes, schemas, and entity notations, existing on the Web. Biomedical researchers face severe logistical and technical challenges to query, integrate, analyze, and visualize data from multiple diverse sources in the context of available biomedical knowledge. Semantic Web technologies and Linked Data principles may aid toward Web-scale semantic processing and data integration in biomedicine. The biomedical research community has been one of the earliest adopters of these technologies and principles to publish data and knowledge on the Web as linked graphs and ontologies, hence creating the Life Sciences Linked Open Data (LSLOD) cloud. In this paper, we provide our perspective on some opportunities proffered by the use of LSLOD to integrate biomedical data and knowledge in three domains: (1) pharmacology, (2) cancer research, and (3) infectious diseases. We will discuss some of the major challenges that hinder the wide-spread use and consumption of LSLOD by the biomedical research community. Finally, we provide a few technical solutions and insights that can address these challenges. Eventually, LSLOD can enable the development of scalable, intelligent infrastructures that support artificial intelligence methods for augmenting human intelligence to achieve better clinical outcomes for patients, to enhance the quality of biomedical research, and to improve our understanding of living systems
Reply to: Soils need to be considered when assessing the impacts of land-use change on carbon sequestration
Industrial Ecolog
- …