3,231 research outputs found

    Novel Methods for Analyzing and Visualizing Phylogenetic Placements

    Get PDF
    Die DNS (englisch: DNA) bildet die vererbbare Grundlage allen bekannten Lebens auf dem Planeten. Entsprechend wichtig ist ihre "EntschlĂŒsselung" fĂŒr die Biologie im Allgemeinen, und fĂŒr die Erforschung der evolutionĂ€ren ZusammenhĂ€nge verschiedener biologischer Artern im Besonderen. In den letzten Jahrzehnten hat eine rasante technologische Entwicklung im Bereich der DNS-Sequenzierung stattgefunden, die auch auf absehbare Zeit noch nicht zum Stillstand kommen wird. Die biologische Forschung hat daher den Bedarf an computer-gestĂŒtzten Methoden erkannt, sowohl in Bezug auf die Speicherung und Verarbeitung der immensen Datenmengen, die bei der Sequenzierung anfallen, als auch in Bezug auf deren Analyse und Visualisierung. Eine grundlegene Fragestellung ist dabei die nach dem Stammbaum des Lebens, der die evolutionĂ€re Verwandtschaft der Arten beschreibt. Diese Wissenschaft wird Phylogenetik, und die resultierenden Strukturen phylogenetische BĂ€ume genannt. HĂ€ufig basieren diese BĂ€ume auf dem Vergleich von DNS-Sequenzen der Arten, mit der Idee, dass Arten mit Ă€hnlicher DNS auch im Baum nah beieinander liegen. Die Berechnung eines solchen Baumes aus DNS-Daten kann als Optimierungsproblem formuliert werden, das durch die stetig wachsende Menge an Daten fĂŒr die Informatik eine Herausforderung darstellt. Aktuell beschĂ€ftigt sich die Mikrobiologie zum Beispiel mit der Erkundung und Erforschung von Proben (Samples), die aus Meereswasser, dem Erdreich, dem menschlichen Körper, und Ă€hnlichen Umgebungen gewonnen wurden: Welche mikrobischen Arten, Bakterien und andere Einzeller, bewohnen diese Umgebungen und Proben? Das zugehörige Forschungsfeld ist die Meta-Genetik. Einen verlĂ€sslichen Stammbaum fĂŒr die aber-millionen an Sequenzen aus solchen Proben zu errechnen ist praktisch unmöglich. Eine Alternative bietet die phylogenetische Platzierung der Sequenzen auf einem gegebenen Referenz-Baum von bekannten Arten (so genanntes phylogenetisches Placement): Hierbei wird ein Stammbaum aus Referenz-Sequenzen bekannter Arten gewĂ€hlt, der möglichst viel der in den Proben zu erwartenden Artenvielfalt abdeckt, und dann fĂŒr jede Sequenz aus den Proben die nĂ€chste Verwandtschaft innerhalb des Baumes bestimmt. Dies resultiert in einer Zuordnung von Sequenzen auf die Positionen verwandter Arten im Referenz-Baum. Diese Zuordnung kann auch als Verteilung der Sequenzen auf dem Baum verstanden werden: In dieser Interpretation kann man beispielsweise erkennen, welche Arten (und deren Verwandtschaft) besonders hĂ€ufig in den Proben vertreten sind. Diese Arbeit beschĂ€ftigt sich mit neuen Methoden zur Vor- und Nachbereitung, Analyse, und Visualisierung rund um den Kernbereich des phylogenetischen Placements von DNS-Sequenzen. ZunĂ€chst stellen wir eine Methode vor, die einen geeigneten Referenz-Baum fĂŒr die Platzierung liefern kann. Die Methode heißt PhAT (Phylogenetic Automatic (Reference) Trees), und nutzt Datenbanken bekannter DNS-Sequenzen, um geeigenete Referenz-Sequenzen fĂŒr den Baum zu bestimmen. Die durch PhAT produzierten BĂ€ume sind beispielsweise dann interessant, wenn die in den Proben zu erwartende Artenvielfalt noch nicht bekannt ist: In diesem Fall kann ein breiter Baum, der viele der bekannten Arten abdeckt, helfen, neue, unbekannte Arten zu entdecken. Im gleichen Kapitel stellen wir außerdem zwei Behilfs-Methoden vor, um den Prozess und die Berechnungen der Placements von großen DatensĂ€tzen zu beschleunigen und zu ermöglichen. Zum einen stellen wir Multilevel-Placement vor, mit dem besonders große Referenz-BĂ€ume in kleinere, geschachtelte BĂ€ume aufgeteilt werden können, um so schnellere und detalliertere Platzierungen vornehmen können, als auf einem einzelnen großen Baum möglich wĂ€ren. Zum anderen beschreiben wir eine Pipeline, die durch geschickte Lastverteilung und Vermeidung von Duplikaten den Prozess weiter beschleunigen kann. Dies eignet sich insbesondere fĂŒr große DatensĂ€tze von zu platzierenden Sequenzen, und hat die Berechnungen erst ermöglicht, die wir zum testen der im weiteren vorgestellten Methoden benötigt haben. Im Anschluss stellen wir zwei Methoden vor, um die Placement-Ergebnisse verschiedener Proben miteinander zu vergleichen. Die Methoden, Edge Dispersion und Edge Correlation, visualisieren den Referenz-Baum derart, dass die in Bezug auf die Proben interessanten und relevanten Regionen des Baumes sichtbar werden. Edge Dispersion zeigt dabei Regionen, in denen sich die HĂ€ufigkeit der in den Proben vorhandenen mikrobischen Arten besonders stark zwischen den einzelnen Proben unterscheided. Dies kann als erste Erkundung von neuen DatensĂ€tzen dienen, und gibt Aufschluss ĂŒber die Varianz der HĂ€ufigkeit bestimmter Arten. Edge Correlation hingegen bezieht zusĂ€tzlich Meta-Daten mit ein, die zu den Proben gesammelt wurden. Dadurch können beispielsweise AbhĂ€ngigkeiten zwischen HĂ€ufigkeiten von Arten und Faktoren wie dem pH-Wert des Bodens oder dem Nitrat-Gehalt des Wassers, aus dem die Proben stammen, aufgezeigt werden. Es hat damit Ă€hnlichkeiten zu einer bestehenden Methode names Edge PCA, die ebenfalls relevante Regionen des Baumen identifizieren kann, allerdings die vorhandenen Meta-Daten nur indirekt einbeziehen kann. Eine weitere Fragestellung ist die Gruppierung (Clustering) von Proben anhand von Gemeinsamkeiten, wie beispielweise einer Ă€hnlichen Verteilungen der Sequenzen auf dem Referenz-Baum. Anhand geeigneter Distanz-Maße wie der Kantorovich-Rubinstein-Distanz (KR-Distanz) können Ă€hnlichkeiten zwischen Proben quantifiziert werden, und somit ein Clustering erstellt werden. FĂŒr große DatensĂ€tze mit hunderten und tausenden von einzlnen Proben stoßen bestehende Methoden fĂŒr diesen Einsatzzweck, wie zum Beispiel das so genannte Squash Clustering, an ihre Grenzen. Wir haben daher die kk-means-Methode derart erweitert, dass sie fĂŒr Placement-Daten genutzt werden kann. Dazu prĂ€sentieren wir zwei Methoden, Phylogenetic kk-means und Imbalance kk-means, die verschiedene Distanzmaße zwischen Proben (KR-Distanz, und ein weiteres geeignetes Maß) nutzen, um BĂ€ume mit Ă€hnlichen Verteilungen von platzierten Sequenzen zu gruppieren. Sie betrachten jede Probe als einen Datenpunkt, und nutzen die zugrunde liegende Struktur des Referenz-Baumes fĂŒr die Berechnungen. Mit diesen Methoden können auch DatensĂ€tze mit zehntausenden Proben verarbeitet werden, und Clusterings und Ă€hnlichkeiten von Proben erkannt und visualisiert werden. Wir haben außerdem ein Konzept namens Balances fĂŒr Placement-Daten adaptiert, welches ursprĂŒnglich fĂŒr so genannte OTU-Sequenzen (Operational Taxonomic Units) entwickelt wurde. Balances erlauben eine Beschreibung des Referenz-Baumes und der darauf platzierten Sequenzen, die ganze Gruppen von Referenz-Arten zusammenfasst, statt jede Art einzeln in die Berechnungen einfließen zu lassen. Diese Beschreibung der Daten bietet verschiedene Vorteile fĂŒr die darauf basierenden Analysen, wie zum Beispiel eine Robustheit gegenĂŒber der exakten Wahl der Referenz-Sequenzen, und einer anschaulichen Beschreibung und Visualisierung der Ergebnisse. Insbesondere aus mathematischer Sicht sind Balances fĂŒr die Analyse interessant, da sie problematische Artefakte aufgrund der kompositionellen Natur meta-genetischer Daten beheben. Im Zuge dieser Arbeit dienen Balances hauptsĂ€chlich als Zwischenschritt zur Daten-ReprĂ€sentation. Eine Anwendung von Balances ist die so genannte Phylofactorization. Diese recht neue Methode teilt einen gegebenen Baum derart in Sub-BĂ€ume ein, dass jeder Sub-Baum eine Gruppe von Arten darstellt, die in Bezug auf gegebene Meta-Daten pro Probe relevant sind. Dadurch können beispielsweise Gruppen identifiziert werden, deren evolutionĂ€re Merkmale sich in AbhĂ€ngigkeit von Meta-Daten wie pH-Wert angepasst haben im Vergleich zu anderen Gruppen. Dies ist Ă€hnlich zur oben genannten Edge Correlation, aber kann zum einen durch geschickte mathematische AnsĂ€tze (insbesondere der Nutzung von Generalized Linear Models) mehrere Meta-Daten gleichzeitig einbeziehen, und zum anderen auch verschachtelte Gruppen finden. Die zugrunde liegenden Ideen dieser Methoden bieten einen großen Spielraum sowohl fĂŒr Analysen von Daten, als auch fĂŒr Weiterentwicklungen und ErgĂ€nzungen fĂŒr verwandte Fragestellungen. Wir haben diese Methode fĂŒr Placement-Daten adaptiert und erweitert, und stellen diese Variante, genannt Placement-Factorization, vor. Im Zuge dieser Adaption haben wir außerdem verschiedene ergĂ€nzende Berechnungen und Visalisierungen entwickelt, die auch fĂŒr die ursprĂŒngliche Phylofactorization nĂŒtzlich sind. Alle genannten neuen Methoden wurden ausfĂŒhrlich getestet in Bezug auf ihre Eignung zur Erforschung von mikrobiologischen ZusammenhĂ€ngen. Wir haben dazu verschiedene bekannte DatzensĂ€tze von DNS-Sequenzen aus Wasser- und Bodenproben, sowie Proben des menschlichen Mikrobioms, verwendet und diese auf geeigneten Referenz-BĂ€umen platziert. Anhand dieser Daten haben wir zum einen die PlausibilitĂ€t der durch unsere Analysen erzielten Ergebnisse geprĂŒft, als auch Vergleiche der Ergebnisse mit Ă€hnlichen, etablierten Methoden vorgenommen. SĂ€mtliche Analysen, Visualisierungen, und Vergleiche werden in den jeweils entsprechenden Kapiteln vorgestellt, und die Ergebnisse dargestellt. Alle Tests zeigen, dass unsere Methoden auf den getesteten DatensĂ€tzen zu Resultaten fĂŒhren, die konsistent mit anderen Analysen sind, und geeignet sind, um neue biologische Erkenntnisse zu gewinnen. SĂ€mtliche hier vorgestellten Methoden sind in unserer Software-Bibliothek genesis implementiert, die wir im Zuge dieser Arbeit entwickelt haben. Die Bibliothek ist in modernem C++11 geschrieben, hat einen modularen und funktions-orientierten Aufbau, ist auf Speichernutzung und Rechengeschwindigkeit optimiert, und nutzt vorhandene Multi-Prozessor-Umgebungen. Sie eignet sich daher sowohl fĂŒr schnelle Tests von Prototypen, als auch zur Entwicklung von Analyse-Software fĂŒr Endanwender. Wir haben genesis bereits erfolgreich in vielen unserer Projekte eingesetzt. Insbesondere bieten wir sĂ€mtliche hier prĂ€sentierten Methoden ĂŒber unser Software-Tool gappa an, das intern auf genesis basiert. Das Tool stellt einen einfachen Kommandozeilen-Zugriff auf die vorhandenen Analysemethoden bereit, und bietet ausreichend Optionen fĂŒr die Analysen der meisten End-Anwender. Im abschließenden Kapitel wagen wir einen Ausblick in weitere Forschungsmöglichkeiten im Bereich der Methoden-Entwicklung fĂŒr meta-genetische Fragestellungen im Allgemeinen, und der placement-basierten Methoden im Speziellen. Wir benennen verschiedene Herausforderungen in Bezug auf die Nutzbarkeit solcher Methoden fĂŒr Anwender und ihrer Skalierbarkeit fĂŒr immer grĂ¶ĂŸer werdende DatensĂ€tze. Außerdem schlagen wir verschiedene weitergehende AnsĂ€tze vor, die zum Beispiel auf neuronalen Netzwerken und Deep Learning basieren könnten. Mit aktuellen DatensĂ€tzen wĂ€ren solche Methoden nicht robust trainierbar; durch das in Zukuft zu erwartenden Wachstum an Daten kann dies allerdings bald in den Bereich des Möglichen kommen. Schließlich identifizierenden wir einige tiefer gehende Forschungsfragen aus der Biologie und Medizin, bei deren Beantwortung unsere Methoden in Zukunft helfen können

    Applied Metaheuristic Computing

    Get PDF
    For decades, Applied Metaheuristic Computing (AMC) has been a prevailing optimization technique for tackling perplexing engineering and business problems, such as scheduling, routing, ordering, bin packing, assignment, facility layout planning, among others. This is partly because the classic exact methods are constrained with prior assumptions, and partly due to the heuristics being problem-dependent and lacking generalization. AMC, on the contrary, guides the course of low-level heuristics to search beyond the local optimality, which impairs the capability of traditional computation methods. This topic series has collected quality papers proposing cutting-edge methodology and innovative applications which drive the advances of AMC

    Learning Collective Behavior in Multi-relational Networks

    Get PDF
    With the rapid expansion of the Internet and WWW, the problem of analyzing social media data has received an increasing amount of attention in the past decade. The boom in social media platforms offers many possibilities to study human collective behavior and interactions on an unprecedented scale. In the past, much work has been done on the problem of learning from networked data with homogeneous topologies, where instances are explicitly or implicitly inter-connected by a single type of relationship. In contrast to traditional content-only classification methods, relational learning succeeds in improving classification performance by leveraging the correlation of the labels between linked instances. However, networked data extracted from social media, web pages, and bibliographic databases can contain entities of multiple classes and linked by various causal reasons, hence treating all links in a homogeneous way can limit the performance of relational classifiers. Learning the collective behavior and interactions in heterogeneous networks becomes much more complex. The contribution of this dissertation include 1) two classification frameworks for identifying human collective behavior in multi-relational social networks; 2) unsupervised and supervised learning models for relationship prediction in multi-relational collaborative networks. Our methods improve the performance of homogeneous predictive models by differentiating heterogeneous relations and capturing the prominent interaction patterns underlying the network structure. The work has been evaluated in various real-world social networks. We believe that this study will be useful for analyzing human collective behavior and interactions specifically in the scenario when the heterogeneous relationships in the network arise from various causal reasons

    Wearable Sensors Applied in Movement Analysis

    Get PDF
    Recent advances in electronics have led to sensors whose sizes and weights are such that they can be placed on living systems without impairing their natural motion and habits. They may be worn on the body as accessories or as part of the clothing and enable personalized mobile information processing. Wearable sensors open the way for a nonintrusive and continuous monitoring of body orientation, movements, and various physiological parameters during motor activities in real-life settings. Thus, they may become crucial tools not only for researchers, but also for clinicians, as they have the potential to improve diagnosis, better monitor disease development and thereby individualize treatment. Wearable sensors should obviously go unnoticed for the people wearing them and be intuitive in their installation. They should come with wireless connectivity and low-power consumption. Moreover, the electronics system should be self-calibrating and deliver correct information that is easy to interpret. Cross-platform interfaces that provide secure data storage and easy data analysis and visualization are needed.This book contains a selection of research papers presenting new results addressing the above challenges

    A cluster-randomised, controlled trial to assess the impact of a workplace osteoporosis prevention intervention on the dietary and physical activity behaviours of working women: study protocol

    Get PDF
    Background Osteoporosis is a debilitating disease and its risk can be reduced through adequate calcium consumption and physical activity. This protocol paper describes a workplace-based intervention targeting behaviour change in premenopausal women working in sedentary occupations. Method/Design A cluster-randomised design was used, comparing the efficacy of a tailored intervention to standard care. Workplaces were the clusters and units of randomisation and intervention. Sample size calculations incorporated the cluster design. Final number of clusters was determined to be 16, based on a cluster size of 20 and calcium intake parameters (effect size 250 mg, ICC 0.5 and standard deviation 290 mg) as it required the highest number of clusters. Sixteen workplaces were recruited from a pool of 97 workplaces and randomly assigned to intervention and control arms (eight in each). Women meeting specified inclusion criteria were then recruited to participate. Workplaces in the intervention arm received three participatory workshops and organisation wide educational activities. Workplaces in the control/standard care arm received print resources. Intervention workshops were guided by self-efficacy theory and included participatory activities such as goal setting, problem solving, local food sampling, exercise trials, group discussion and behaviour feedback. Outcomes measures were calcium intake (milligrams/day) and physical activity level (duration: minutes/week), measured at baseline, four weeks and six months post intervention. Discussion This study addresses the current lack of evidence for behaviour change interventions focussing on osteoporosis prevention. It addresses missed opportunities of using workplaces as a platform to target high-risk individuals with sedentary occupations. The intervention was designed to modify behaviour levels to bring about risk reduction. It is the first to address dietary and physical activity components each with unique intervention strategies in the context of osteoporosis prevention. The intervention used locally relevant behavioural strategies previously shown to support good outcomes in other countries. The combination of these elements have not been incorporated in similar studies in the past, supporting the study hypothesis that the intervention will be more efficacious than standard practice in osteoporosis prevention through improvements in calcium intake and physical activity

    Computational methods to improve genome assembly and gene prediction

    Get PDF
    DNA sequencing is used to read the nucleotides composing the genetic material that forms individual organisms. As 2nd generation sequencing technologies offering high throughput at a feasible cost have matured, sequencing has permeated nearly all areas of biological research. By a combination of large-scale projects led by consortiums and smaller endeavors led by individual labs, the flood of sequencing data will continue, which should provide major insights into how genomes produce physical characteristics, including disease, and evolve. To realize this potential, computer science is required to develop the bioinformatics pipelines to efficiently and accurately process and analyze the data from large and noisy datasets. Here, I focus on two crucial bioinformatics applications: the assembly of a genome from sequencing reads and protein-coding gene prediction. In genome assembly, we form large contiguous genomic sequences from the short sequence fragments generated by current machines. Starting from the raw sequences, we developed software called Quake that corrects sequencing errors more accurately than previous programs by using coverage of k-mers and probabilistic modeling of sequencing errors. My experiments show correcting errors with Quake improves genome assembly and leads to the detection of more polymorphisms in re-sequencing studies. For post-assembly analysis, we designed a method to detect a particular type of mis-assembly where the two copies of each chromosome in diploid genomes diverge. We found thousands of examples in each of the chimpanzee, cow, and chicken public genome assemblies that created false segmental duplications. Shotgun sequencing of environmental DNA (often called metagenomics) has shown tremendous potential to both discover unknown microbes and explore complex environments. We developed software called Scimm that clusters metagenomic sequences based on composition in an unsupervised fashion more accurately than previous approaches. Finally, we extended an approach for predicting protein-coding genes on whole genomes to metagenomic sequences by adding new discriminative features and augmenting the task with taxonomic classification and clustering of the sequences. The program, called Glimmer-MG, predicts genes more accurately than all previous methods. By adding a model for sequencing errors that also allows the program to predict insertions and deletions, accuracy significantly improves on error-prone sequences

    Holistic interpretation of visual data based on topology:semantic segmentation of architectural facades

    Get PDF
    The work presented in this dissertation is a step towards effectively incorporating contextual knowledge in the task of semantic segmentation. To date, the use of context has been confined to the genre of the scene with a few exceptions in the field. Research has been directed towards enhancing appearance descriptors. While this is unarguably important, recent studies show that computer vision has reached a near-human level of performance in relying on these descriptors when objects have stable distinctive surface properties and in proper imaging conditions. When these conditions are not met, humans exploit their knowledge about the intrinsic geometric layout of the scene to make local decisions. Computer vision lags behind when it comes to this asset. For this reason, we aim to bridge the gap by presenting algorithms for semantic segmentation of building facades making use of scene topological aspects. We provide a classification scheme to carry out segmentation and recognition simultaneously.The algorithm is able to solve a single optimization function and yield a semantic interpretation of facades, relying on the modeling power of probabilistic graphs and efficient discrete combinatorial optimization tools. We tackle the same problem of semantic facade segmentation with the neural network approach.We attain accuracy figures that are on-par with the state-of-the-art in a fully automated pipeline.Starting from pixelwise classifications obtained via Convolutional Neural Networks (CNN). These are then structurally validated through a cascade of Restricted Boltzmann Machines (RBM) and Multi-Layer Perceptron (MLP) that regenerates the most likely layout. In the domain of architectural modeling, there is geometric multi-model fitting. We introduce a novel guided sampling algorithm based on Minimum Spanning Trees (MST), which surpasses other propagation techniques in terms of robustness to noise. We make a number of additional contributions such as measure of model deviation which captures variations among fitted models

    The contribution of walkability to geographic variation in physical activity, high body mass and psychosocial distress in Sydney, Australia

    Get PDF
    Improving the walkability of built environments to promote healthy lifestyles is increasingly considered in urban development plans. This thesis investigated if walkability in Sydney, Australia, was associated with physical activity, high body mass and psychosocial distress when measured at the aggregate postal area level, and whether walkability contributed to geographic variation in health outcomes at this scale. Walkability indexes using residential density, intersection density, land use mix, with and without retail floor area ratio were calculated at the Census Collection District level for Sydney and compared for reliability, latent variable structure, and predictive validity for utilitarian walking using travel to work data from the 2006 Australian Census. An abridged index without retail floor area ratio retained 87% of the variability in a full index including retail floor area ratio and predicted increases in odds of utilitarian walking to work with increasing walkability. The abridged index was aggregated to postal areas to match the spatial unit of health data from Sydney respondents to the 45 and Up Study baseline questionnaire (2006–2010). Cross-sectional associations between walkability and prevalence of health-enhancing physical activity (including walking), high body mass, and psychosocial distress at the postal area level were investigated using Bayesian spatial regressions adjusted for individual-level factors. Prevalence of health-enhancing walking and total physical activity were higher in high walkability postal areas, while prevalence of overweight and obesity were lower in medium high and high walkability postal areas. Psychosocial distress was not associated with walkability at the postal area level. This thesis demonstrated the utility of spatial analysis for walkability research and planning, and illustrates how walkability indexes can inform population-level action aimed at increasing physical activity and reducing high body mass

    AN EXPLORATORY SECONDARY DATA ANALYSIS OF THE IMPACT OF HETEROGENEITY ON ASSISTIVE TECHNOLOGY TO REDUCE SAFETY AND WANDERING RISKS FOR PEOPLE WITH DEMENTIA LIVING AT HOME

    Get PDF
    Introduction: There is an acknowledged gap between the potential and achieved benefit of assistive technology in the care of people with dementia. In order to make better use of this resource, this research aimed to investigate the heterogeneity of population characteristics of people with dementia living at home who have safety and wandering risks and how this is related to assistive technology recommended and installed to meet their needs. Methods: This research consisted of two studies; a systematic review and secondary data analysis. Initially, published quantitative data describing the needs of people with dementia living at home was subjected to meta-analysis in order to explore the prevalence of needs reported by people with dementia and their caregivers and associated heterogeneity. Following univariate analyses, ordinal models were developed using secondary data which described the needs of people with dementia, and their level of wandering and safety risk, to explore the relationship between needs and risks in this population. The possibility of grouping participants according to data describing multiple needs, predisposing characteristics and enabling resources was investigated using cluster analysis. Associations between these groups and recommended and installed Assistive Technology were investigated. Results: Prevalence estimates for twenty-four needs reported by people with dementia and their caregivers were provided for the first time. Heterogeneity was associated with the person reporting the needs and age of onset. Level of need was often not recorded in the dataset indicating limited assessment. Wandering risks were shown to be associated with posture and mobility, routine and cognition needs, whilst safety risks were associated with posture and mobility, and problem-solving needs. Partitioning Around Medoids cluster analysis demonstrated that robust clustering solutions could be created from data describing participants. Clustering solutions were then validated through exploring their association with recommended and installed Assistive Technology data and the published literature. Caregiver support and living situation impact Assistive Technology installed for people with dementia. Discussion: This research advances understanding of the impact that needs, safety and wandering risks, caregiver support and the living situation of the person with dementia have on variation in the assistive technology interventions recommended and installed for people with dementia. Results have implications for needs assessment and for the tailoring of Assistive Technology for this population. Keywords: dementia, assistive technology, community dwelling, meta-analysis, cluster analysis, ordinal regression, wandering, safety, risk, needs
    • 

    corecore