2,095 research outputs found
Nanoinformatics knowledge infrastructures: bringing efficient information management to nanomedical research
Nanotechnology represents an area of particular promise and significant opportunity across multiple scientific disciplines. Ongoing nanotechnology research ranges from the characterization of nanoparticles and nanomaterials to the analysis and processing of experimental data seeking correlations between nanoparticles and their functionalities and side effects. Due to their special properties, nanoparticles are suitable for cellular-level diagnostics and therapy, offering numerous applications in medicine, e.g. development of biomedical devices, tissue repair, drug delivery systems and biosensors. In nanomedicine, recent studies are producing large amounts of structural and property data, highlighting the role for computational approaches in information management. While in vitro and in vivo assays are expensive, the cost of computing is falling. Furthermore, improvements in the accuracy of computational methods (e.g. data mining, knowledge discovery, modeling and simulation) have enabled effective tools to automate the extraction, management and storage of these vast data volumes. Since this information is widely distributed, one major issue is how to locate and access data where it resides (which also poses data-sharing limitations). The novel discipline of nanoinformatics addresses the information challenges related to nanotechnology research. In this paper, we summarize the needs and challenges in the field and present an overview of extant initiatives and efforts
Linking social media, medical literature, and clinical notes using deep learning.
Researchers analyze data, information, and knowledge through many sources, formats, and methods. The dominant data format includes text and images. In the healthcare industry, professionals generate a large quantity of unstructured data. The complexity of this data and the lack of computational power causes delays in analysis. However, with emerging deep learning algorithms and access to computational powers such as graphics processing unit (GPU) and tensor processing units (TPUs), processing text and images is becoming more accessible. Deep learning algorithms achieve remarkable results in natural language processing (NLP) and computer vision. In this study, we focus on NLP in the healthcare industry and collect data not only from electronic medical records (EMRs) but also medical literature and social media. We propose a framework for linking social media, medical literature, and EMRs clinical notes using deep learning algorithms. Connecting data sources requires defining a link between them, and our key is finding concepts in the medical text. The National Library of Medicine (NLM) introduces a Unified Medical Language System (UMLS) and we use this system as the foundation of our own system. We recognize social media’s dynamic nature and apply supervised and semi-supervised methodologies to generate concepts. Named entity recognition (NER) allows efficient extraction of information, or entities, from medical literature, and we extend the model to process the EMRs’ clinical notes via transfer learning. The results include an integrated, end-to-end, web-based system solution that unifies social media, literature, and clinical notes, and improves access to medical knowledge for the public and experts
Linking genes to literature: text mining, information extraction, and retrieval applications for biology
Efficient access to information contained in online scientific literature collections is essential for life science research, playing a crucial role from the initial stage of experiment planning to the final interpretation and communication of the results. The biological literature also constitutes the main information source for manual literature curation used by expert-curated databases. Following the increasing popularity of web-based applications for analyzing biological data, new text-mining and information extraction strategies are being implemented. These systems exploit existing regularities in natural language to extract biologically relevant information from electronic texts automatically. The aim of the BioCreative challenge is to promote the development of such tools and to provide insight into their performance. This review presents a general introduction to the main characteristics and applications of currently available text-mining systems for life sciences in terms of the following: the type of biological information demands being addressed; the level of information granularity of both user queries and results; and the features and methods commonly exploited by these applications. The current trend in biomedical text mining points toward an increasing diversification in terms of application types and techniques, together with integration of domain-specific resources such as ontologies. Additional descriptions of some of the systems discussed here are available on the internet
Linked data and online classifications to organise mined patterns in patient data
In this paper, we investigate the use of web data resources in medicine, especially through medical classifications made available using the principles of Linked Data, to support the interpretation of patterns mined from patient care trajectories. Interpreting such patterns is naturally a challenge for an analyst, as it requires going through large amounts of results and access to sufficient background knowledge. We employ linked data, especially as exposed through the BioPortal system, to create a navigation structure within the patterns obtained form sequential pattern mining. We show how this approach provides a flexible way to explore data about trajectories of diagnoses and treatments according to different medical classifications
Easing the questioning of semantic biomedical data
Researchers have been using semantic technologies
as essential tools to structure knowledge. This is particularly
relevant in the biomedical domain, where large dataset are
continuously generated. Semantic technologies offer the ability
to describe data and to map and linking distributed repositories,
creating a network where the searching interface is a single entry
point. However, the increasing number of semantic data repositories
that are publicly available is creating new challenges related
to its exploration. Despite being human and machine-readable,
these technologies are much more challenging for end-users.
Querying services usually require mastering formal languages
and that knowledge is beyond the typical user’s expertise, being
a critical issue in adopting semantic web information systems. In
particular, the questioning of biomedical data presents specific
challenges for which there are still no mature proposals for
production environments. This paper presents a solution to
query biomedical semantic databases using natural language. The
system is at the intersection between semantic parsing and the
use of templates. It makes it possible to extract information in a
friendly way for users who are not experts in semantic queries.FCT - Portuguese Foundation for Science and Technology
supports Arnaldo Pereira (Ph.D. Grant PD/BD/142877/2018).info:eu-repo/semantics/publishedVersio
Systems Biology in ELIXIR: modelling in the spotlight
info:eu-repo/semantics/publishedVersio
Systems Biology in ELIXIR: modelling in the spotlight
In this white paper, we describe the founding of a new ELIXIR Community - the Systems Biology Community - and its proposed future contributions to both ELIXIR and the broader community of systems biologists in Europe and worldwide. The Community believes that the infrastructure aspects of systems biology - databases, (modelling) tools and standards development, as well as training and access to cloud infrastructure - are not only appropriate components of the ELIXIR infrastructure, but will prove key components of ELIXIR\u27s future support of advanced biological applications and personalised medicine. By way of a series of meetings, the Community identified seven key areas for its future activities, reflecting both future needs and previous and current activities within ELIXIR Platforms and Communities. These are: overcoming barriers to the wider uptake of systems biology; linking new and existing data to systems biology models; interoperability of systems biology resources; further development and embedding of systems medicine; provisioning of modelling as a service; building and coordinating capacity building and training resources; and supporting industrial embedding of systems biology. A set of objectives for the Community has been identified under four main headline areas: Standardisation and Interoperability, Technology, Capacity Building and Training, and Industrial Embedding. These are grouped into short-term (3-year), mid-term (6-year) and long-term (10-year) objectives
Semantic annotation of clinical questionnaires to support personalized medicine
Tese de Mestrado, Bioinformática e Biologia Computacional, 2022, Universidade de Lisboa, Faculdade de CiênciasAtualmente estamos numa era global de constante evolução tecnológica, e uma das
áreas que têm beneficiado com isso é a medicina, uma vez que com integração da vertente
tecnológica na medicina, tem vindo a ter um papel cada vez mais importante quer do
ponto de vista dos médicos quer do ponto de vista dos pacientes.
Como resultado de melhores ferramentas que permitam melhorar o exercício das
funções dos médicos, estão se a criar condições para que os pacientes possam ter um
melhor acompanhamento, entendimento e atualização em tempo real da sua condição
clínica.
O setor dos Cuidados de Saúde é responsável pelas novidades que surgem quase
diariamente e que permitem melhorar a experiência do paciente e o modo como os
médicos podem tirar proveito da informação que os dados contêm em prol de uma
validação mais célere e eficaz. Este setor tem gerado um volume cada vez mais maciço
de dados, entre os quais relatórios médicos, registos de sensores inerciais, gravações de
consultas, imagens, vídeos e avaliações médicas nas quais se inserem os questionários e
as escalas clínicas que prometem aos pacientes um melhor acompanhamento do seu
estado de saúde, no entanto o seu enorme volume, distribuição e a grande
heterogeneidade dificulta o processamento e análise.
A integração deste tipo de dados é um desafio, uma vez que têm origens em diversas
fontes e uma heterogeneidade semântica bastante significativa; a integração semântica de
dados biomédicos resulta num desenvolvimento de uma rede semântica biomédica que
relaciona conceitos entre diversas fontes o que facilita a tradução de descobertas
científicas ajudando na elaboração de análises e conclusões mais complexas para isso é
crucial que se atinja a interoperabilidade semântica dos dados. Este é um passo muito
importante que permite a interação entre diferentes conjuntos de dados clínicos dentro do
mesmo sistema de informação ou entre sistemas diferentes. Esta integração permite às
ferramentas de análise e interface com os dados trabalhar sobre uma visão integrada e
holística dos dados, o que em última análise permite aos clínicos um acompanhamento
mais detalhado e personalizado dos seus pacientes.
Esta dissertação foi desenvolvida no LASIGE e em colaboração com o Campus
Neurológico Sénior e faz parte de um grande projeto que explora o fornecimento de mais e melhores dados tanto a clínicos como a pacientes. A base deste projeto assenta numa
aplicação web, o DataPark que possui uma plataforma que permite ao utilizador navegar
por áreas clinicas entre as quais a nutrição, fisioterapia, terapia ocupacional, terapia da
fala e neuropsicologia, em que cada uma delas que alberga baterias de testes com diversos
questionários e escalas clínicas de avaliação. Este tipo de avaliação clínica facilita imenso
o trabalho do médico uma vez que permite que sejam implementadas à distância uma vez
que o paciente pode responder remotamente, estas respostas ficam guardadas no
DataPark permitindo ao médico fazer um rastreamento do status do paciente ao longo do
tempo em relação a uma determinada escala.
No entanto o modo como o DataPark foi desenvolvido limita uma visão do médico
orientada ao questionário, ou seja o médico que acompanha o paciente quando quer ter a
visão do mesmo como um todo tem esta informação espalhada e dividida por estes
diferentes questionários e tem de os ir ver a todos um a um para ter a noção do status do
paciente. Esta dissertação pretende fazer face a este desafio construindo um algoritmo
que decomponha todas as perguntas dos diferentes questionários e permita a sua
integração semântica. Isto com o objectivo de permitir ao médico ter um visão holística
orientada por conceito clínico.
Procedeu-se então à extração de toda a base de dados presente no DataPark, sendo
esta a fonte de dados sobre a qual este trabalho se baseou, frisando que originalmente
existem muitos dados em Português que terão de ser traduzidos automaticamente.
Com uma análise de alto nível (numa fase inicial) sobre os questionários da base
de dados, iniciou-se a construção de um modelo semântico que pudesse descrever os
dados presentes nos questionários e escalas. Assim de uma forma manual foi feito um
levantamento de todos os conceitos clínicos que se conseguiu identificar num sub conjunto de questionários, mais concretamente 15 com os 5 mais respondidos em relação
à Doença de parkinson, os 5 mais respondidos em relação à doença de AVC e os 5 mais
respondidos que não estejam associados a uma única patologia em específico. Este
modelo foi melhorado e evoluiu em conjunto com uma equipa de 12 médicos e terapeutas
do CNS ao longo de 7 reuniões durante as quais foi levado a cabo um workshop de
validação que permitiu dotar o modelo construído de uma fiabilidade elevada.
Em paralelo procedeu-se à elaboração de 2 estudo: (i) um estudo que consistia em
avaliar com qual ou quais ontologias se obtém a maior cobertura dos dados do sub conjunto de 15 questionários. A conclusão a que se chegou foi que o conjunto de
ontologias que nos conferia mais segurança é constituído pelas ontologias LOINC, NCIT,
SNOMED e OCHV, conjunto esse foi utilizado daqui em diante; (ii) outro estudo
procurou aferir qual a ferramenta de tradução automática(Google Translator ou Microsoft
Translator) que confere uma segurança maior, para isso procedeu-se à tradução completa de 3 questionários que apesar de estar na base de dados no idioma português, tem a sua
versão original em inglês. Isto permitiu-nos traduzir estes 3 questionários de português
para inglês e avaliar em qual das duas ferramentas se obteve uma melhor performance.
O Microsoft Translator apresentou com uma diferença pequena um desempenho superior,
sendo portanto a ferramenta de tradução automática escolhida para integrar o nosso
algoritmo.
Concluídos estes 2 estudos temos assim o conjunto de dados uniformizado numa
só linguagem, e o conjunto de ontologias escolhidas para a anotação semântica. Para
entender esta fase do trabalho há que entender que ontologias são poderosas ferramentas
computacionais que consistem num conjunto de conceitos ou termos, que nomeiam e
definem as entidades presentes num certo domínio de interesse, no ramo da biomedicina
são designadas por ontologias biomédicas.
O uso de ontologias biomédicas confere uma grande utilidade na partilha,
recuperação e na extração de informação na biomedicina tendo um papel crucial para a
interoperabilidade semântica que é exatamente o nosso objectivo final.
Assim sendo procedeu-se à anotação semântica das questões do sub-conjunto de
15 questionários, uma anotação semântica é um processo que associa formalmente o alvo
textual a um conceito/termo, podendo estabelecer desta forma pontes entre
documentos/texto-alvos diferentes que abordam o mesmo conceito. Ou seja, uma
anotação semântica é associar um termo de uma determinada ontologia a um conceito
presente no texto alvo. Imaginando que o texto alvo são diferentes perguntas de vários
questionários, é natural encontrar diferentes questões de diferentes áreas de diagnóstico
que estejam conectados por termos ontológicos em comum.
Depois da anotação completada é feita a integração do modelo semântico, com o
algoritmo desenvolvido com o conjunto de ontologias e ainda com os dados dos
pacientes. Desta forma sabemos que um determinado paciente respondeu a várias
perguntas que abordam um mesmo conceito, essas perguntas estão interligadas
semanticamente uma vez que têm o mesmo conceito mapeado.
A nível de performance geral tanto os processos tradução como de anotação tiveram
um desempenho aceitável, onde a nivel de tradução se atingiu 78% accuracy, 76% recall
e uma F-mesure de 0.77 e ao nível da performance de anotação obteve-se 87% de
anotações bem conseguidas. Portanto num cômputo geral consegue-se atingir o principal
objectivo que era a obtenção holística integrada com o modelo semântico e os dados do
DataPark(Questionários e pacientes).Healthcare is a multi-domain area, with professionals from different areas often
collaborating to provide patients with the best possible care. Neurological and
neurodegenerative diseases are especially so, with multiple areas, including neurology,
psychology, nursing, physical therapy, speech therapy and others coming together to
support these patients.
The DataPark application allows healthcare providers to store, manage and analyse
information about patients with neurological disorders from different perspectives
including evaluation scales and questionnaires. However, the application does not
provide a holistic view of the patient status because it is split across different domains
and clinical scales.
This work proposes a methodology for the semantic integration of this data. It
developed the data scaffolding to afford a holistic view of the patient status that is
concept-oriented rather than scale or test battery oriented. A semantic model was
developed in collaboration with healthcare providers from different areas, which was
subsequently aligned with existing biomedical ontologies. The questionnaire and scale
data was semantically annotated to this semantic model, with a translation step when the
original data was in Portuguese. The process was applied to a subset of 15 scales with a
manual evaluation of each process. The semantic model includes 204 concepts and 436
links to external ontologies. Translation achieved an accuracy of 78%, whereas the
semantic annotation achieved 87%. The final integrated dataset covers 443 patients.
Finally, applying the process of semantic annotation to the whole dataset,
conditions are created for the process of semantic integration to occur, this process
consists in crossing all questions from different questionnaires and establishing a
connection between those that contain the same annotation.
This work allows healthcare providers to assess patients in a more global fashion,
integrating data collected from different scales and test batteries that evaluate the same
or similar parameters
An Investigation on Integrating Eastern and Western Medicine with Informatics
Today, in many western countries, acceptance of alternate forms of healthcare such as Chinese medicine (CM) is increasing. In fact, countries such as Australia, Canada, and England are going so far as to set regulations, education, and standards regarding the practice of CM in these respective countries. Further, we can see the integration between western and Chinese medicine delivery of care and treatments in many instances. Information Systems and Information Technology (IS/IT) can be a key enabler in assisting this integration. The following study examines aspects of such integrations using IS/IT and identifies that CM IS/IT is more likely to succeed when there is synthesis between key aspects of the unique environment and user requirements. This perspective is supported theoretically by adapting Churchman’s Inquiring Systems to frame CM as a combination of Hegelian and Kantian inquiring systems with the support of Singerian, Lockean, and Leibnizian inquiring systems and Knowledge Management (KM) features. Based on this, the study then proposes a new design for a patient management system in clinics and hospitals
- …