826 research outputs found

    Advancing the Study of Functional Connectome Development

    Get PDF
    A better understanding of functional changes in the brain across childhood offers the potential to better support neurodevelopmental and learning challenges. However, neuroimaging tools such as functional magnetic resonance imaging (fMRI) and electroencephalography (EEG) are vulnerable to head motion and other artifacts, and studies have had limited reproducibility. To accomplish research goals, we need to understand the reliability and validity of data collection, processing, and analysis strategies. Neuroimaging datasets contain individually unique information, but identifiability is reduced by noise or lack of signal, suggesting it can be a measure of validity. The goal of this thesis was to use identifiability to benchmark different methodologies, and describe how identifiability associates with age across early childhood. I first compared several different fMRI preprocessing pipelines for data collected from young children. Preprocessing techniques are often controversial due to specific drawbacks and have typically been assessed with adult datasets, which have much less head motion. I found benefits to the use of global signal regression and temporal censoring, but overly strict censoring can impact identifiability, suggesting noise removed must be balanced against signal retained. I also compared several different EEG measures of functional connectivity (FC). EEG can be vulnerable to volume conduction artifacts that can be mitigated by only considering shared information with a time delay between signals. However, I found that mitigation strategies result in lower identifiability, suggesting that while removing confounding noise they also discard substantial signal of interest. Individual experiences may shape development in an individually unique way, which is supported by evidence that adults have more individually identifiable patterns of FC than children. I found that across 4 to 8 years of age, identifiability increased via increased self-stability, but without changes in similarity-to-others. In the absence of ground truth, it is difficult to argue for or against analysis decisions based solely on a theoretical framework and need to also be validated. My work highlights the importance of not thinking about techniques in a valid-invalid dichotomy; certain methods may be sub-optimal while still being preferable to alternatives if they better manage the trade off between noise removed and signal retained

    Reframing museum epistemology for the information age: a discursive design approach to revealing complexity

    Get PDF
    This practice-based research inquiry examines the impact of an epistemic shift, brought about by the dawning of the information age and advances in networked communication technologies, on physical knowledge institutions - focusing on museums. The research charts adapting knowledge schemas used in museum knowledge organisation and discusses the potential for a new knowledge schema, the network, to establish a new epistemology for museums that reflects contemporary hyperlinked and networked knowledge. The research investigates the potential for networked and shared virtual reality spaces to reveal new ‘knowledge monuments’ reflecting the epistemic values of the network society and the space of flows. The central practice for this thesis focuses on two main elements. The first is applying networks and visual complexity to reveal multi-linearity and adapting perspectives in relational knowledge networks. This concept was explored through two discursive design projects, the Museum Collection Engine, which uses data visualisation, cloud data, and image recognition within an immersive projection dome to create a dynamic and searchable museum collection that returns new and interlinking constellations of museum objects and knowledge. The second discursive design project was Shared Pasts: Decoding Complexity, an AR app with a unique ‘anti-personalisation’ recommendation system designed to reveal complex narratives around historic objects and places. The second element is folksonomy and co-design in developing new community-focused archives using the community's language to build the dataset and socially tagged metadata. This was tested by developing two discursive prototypes, Women Reclaiming AI and Sanctuary Stories

    Current Challenges in the Application of Algorithms in Multi-institutional Clinical Settings

    Get PDF
    The Coronavirus disease pandemic has highlighted the importance of artificial intelligence in multi-institutional clinical settings. Particularly in situations where the healthcare system is overloaded, and a lot of data is generated, artificial intelligence has great potential to provide automated solutions and to unlock the untapped potential of acquired data. This includes the areas of care, logistics, and diagnosis. For example, automated decision support applications could tremendously help physicians in their daily clinical routine. Especially in radiology and oncology, the exponential growth of imaging data, triggered by a rising number of patients, leads to a permanent overload of the healthcare system, making the use of artificial intelligence inevitable. However, the efficient and advantageous application of artificial intelligence in multi-institutional clinical settings faces several challenges, such as accountability and regulation hurdles, implementation challenges, and fairness considerations. This work focuses on the implementation challenges, which include the following questions: How to ensure well-curated and standardized data, how do algorithms from other domains perform on multi-institutional medical datasets, and how to train more robust and generalizable models? Also, questions of how to interpret results and whether there exist correlations between the performance of the models and the characteristics of the underlying data are part of the work. Therefore, besides presenting a technical solution for manual data annotation and tagging for medical images, a real-world federated learning implementation for image segmentation is introduced. Experiments on a multi-institutional prostate magnetic resonance imaging dataset showcase that models trained by federated learning can achieve similar performance to training on pooled data. Furthermore, Natural Language Processing algorithms with the tasks of semantic textual similarity, text classification, and text summarization are applied to multi-institutional, structured and free-text, oncology reports. The results show that performance gains are achieved by customizing state-of-the-art algorithms to the peculiarities of the medical datasets, such as the occurrence of medications, numbers, or dates. In addition, performance influences are observed depending on the characteristics of the data, such as lexical complexity. The generated results, human baselines, and retrospective human evaluations demonstrate that artificial intelligence algorithms have great potential for use in clinical settings. However, due to the difficulty of processing domain-specific data, there still exists a performance gap between the algorithms and the medical experts. In the future, it is therefore essential to improve the interoperability and standardization of data, as well as to continue working on algorithms to perform well on medical, possibly, domain-shifted data from multiple clinical centers

    Measuring the impact of COVID-19 on hospital care pathways

    Get PDF
    Care pathways in hospitals around the world reported significant disruption during the recent COVID-19 pandemic but measuring the actual impact is more problematic. Process mining can be useful for hospital management to measure the conformance of real-life care to what might be considered normal operations. In this study, we aim to demonstrate that process mining can be used to investigate process changes associated with complex disruptive events. We studied perturbations to accident and emergency (A &E) and maternity pathways in a UK public hospital during the COVID-19 pandemic. Co-incidentally the hospital had implemented a Command Centre approach for patient-flow management affording an opportunity to study both the planned improvement and the disruption due to the pandemic. Our study proposes and demonstrates a method for measuring and investigating the impact of such planned and unplanned disruptions affecting hospital care pathways. We found that during the pandemic, both A &E and maternity pathways had measurable reductions in the mean length of stay and a measurable drop in the percentage of pathways conforming to normative models. There were no distinctive patterns of monthly mean values of length of stay nor conformance throughout the phases of the installation of the hospital’s new Command Centre approach. Due to a deficit in the available A &E data, the findings for A &E pathways could not be interpreted

    Resource efficient action recognition in videos

    Get PDF
    This thesis traces an innovative journey in the domain of real-world action recognition, in particular focusing on memory and data efficient systems. It begins by introducing a novel approach for smart frame selection, which significantly reduces computational costs in video classification. It further optimizes the action recognition process by addressing the challenges of training time and memory consumption in video transformers, laying a strong foundation for memory efficient action recognition. The thesis then delves into zero-shot learning, focusing on the flaws of the currently existing protocol and establishing a new split for true zero-shot action recognition, ensuring zero overlap between unseen test classes and training or pre-training classes. Building on this, a unique cluster-based representation, optimized using reinforcement learning, is proposed for zero-shot action recognition. Crucially, we show that a joint visual-semantic representation learning is essential for improved performance. We also experiment with feature generation approaches for zero-shot action recognition by introducing a synthetic sample selection methodology extending the utility of zero-shot learning to both images and videos and selecting high-quality samples for synthetic data augmentation. This form of data valuation is then incorporated for our novel video data augmentation approach where we generate video composites using foreground and background mixing of videos. The data valuation helps us choose good composites at a reduced overall cost. Finally, we propose the creation of a meaningful semantic space for action labels. We create a textual description dataset for each action class and propose a novel feature generating approach to maximise the benefits of this semantic space. The research contributes significantly to the field, potentially paving the way for more efficient, resource-friendly, and robust video processing and understanding techniques

    Musiktheorie als interdisziplinĂ€res Fach: 8. Kongress der Gesellschaft fĂŒr Musiktheorie Graz 2008

    Get PDF
    Im Oktober 2008 fand an der UniversitĂ€t fĂŒr Musik und darstellende Kunst Graz (KUG) der 8. Kongress der Gesellschaft fĂŒr Musiktheorie (GMTH) zum Thema »Musiktheorie als interdisziplinĂ€res Fach« statt. Die hier vorgelegten gesammelten BeitrĂ€ge akzentuieren Musiktheorie als multiperspektivische wissenschaftliche Disziplin in den Spannungsfeldern Theorie/Praxis, Kunst/Wissenschaft und Historik/Systematik. Die sechs Kapitel ergrĂŒnden dabei die Grenzbereiche zur Musikgeschichte, MusikĂ€sthetik, zur Praxis musikalischer Interpretation, zur kompositorischen Praxis im 20. und 21. Jahrhundert, zur Ethnomusikologie sowie zur Systematischen Musikwissenschaft. Insgesamt 45 AufsĂ€tze, davon 28 in deutscher, 17 in englischer Sprache, sowie die Dokumentation einer Podiumsdiskussion zeichnen in ihrer Gesamtheit einen höchst lebendigen und gegenwartsbezogenen Diskurs, der eine einzigartige Standortbestimmung des Fachs Musiktheorie bietet.The 8th congress of the Gesellschaft fĂŒr Musiktheorie (GMTH) took place in October 2008 at the University for Music and Dramatic Arts Graz (KUG) on the topic »Music Theory and Interdisciplinarity«. The collected contributions characterize music theory as a multi-faceted scholarly discipline at the intersection of theory/practice, art/science and history/system. The six chapters explore commonalties with music history, music aesthetics, musical performance, compositional practice in twentieth- and twenty-first-century music, ethnomusicology and systematic musicology. A total of 45 essays (28 in German, 17 in English) and the documentation of a panel discussion form a vital discourse informed by contemporaneous issues of research in a broad number of fields, providing a unique overview of music theory today. A comprehensive English summary appears at the beginning of all contributions

    Pushing Light-Sheet Microscopy to Greater Depths

    Get PDF
    Light-sheet fluorescence microscopy (LSFM) has established itself as an irreplaceable imaging technique in developmental biology over the past two decades. With its emergence, the extended recording of in toto datasets of developing organisms across scales became possible. Remarkably, LSFM opened the door to new spatio-temporal domains in biology, offering cellular resolution on the one hand, and temporal resolution on the order of seconds on the other hand. As in any fluorescence microscopy technique, LSFM is also affected by image degradation at greater tissue depths. Thus far, this has been addressed by the suppression of scattered light, use of fluorophores emitting in the far red spectrum, multi-view detection and fusion, adaptive optics, as well as different illumination schemes. In this work, I investigate for the first time in vivo optical aberration reduction via refractive index matching in LSFM. Examples are shown on common model organisms as Arabidopsis thalina, Oryzias latipes, Mus musculus, as well as Drosophila. Additionally, I present a novel open-top light-sheet microscope, tailored for high-throughput imaging of mammalian samples, such as early stage mouse embryos. It is based on a three objective geometry, encompassing two opposing detection objective lenses with high light collection efficiency, and an invertedly mounted illumination lens. It bridges the spatial scale between samples by employing an extendible light-sheet illumination via a tunable acoustic gradient index lens. Both parts of this work improve the image quality across the 3D volume of specimens, paving the way for more quantitative recordings at greater tissue depths

    Organotypische Schnittkulturen aus Glioblastomgewebe als prÀklinisches Testsystem

    Get PDF
    Glioblastoma multiforme (GBM) ist der hĂ€ufigste bösartige Hirntumor bei Erwachsenen. Unbehandelt liegt das mediane Überleben bei circa drei Monaten. Mithilfe maximal möglicher Resektion des Tumors und anschließender aggressiver kombinierter Radiochemotherapie, bestehend aus Bestrahlung und dem Zytostatikum Temozolomid, wird das mediane Überleben auf circa 15 Monate nach Diagnosestellung angehoben. Trotz intensiver Forschung ist ĂŒber die Entstehung des GBMs wenig bekannt, der einzige bisher bestĂ€tigte prĂ€disponierende Faktor ist eine Bestrahlung des Kopfes, insbesondere im Kindes- und Jugendalter. Ein charakteristisches Merkmal des GBMs ist seine große HeterogenitĂ€t sowohl innerhalb des Tumors eines Patienten als auch zwischen den Tumoren verschiedener Patienten. Dadurch werden die erfolgreiche Behandlung und eine mögliche Heilung erschwert, da sich bis heute nicht zuverlĂ€ssig vorhersagen lĂ€sst, wie gut ein Patient von der Standardtherapie profitieren wird. Das infiltrative Wachstum von GBMs entlang von Nervenbahnen in der gesunden weißen Substanz oder mithilfe der BlutgefĂ€ĂŸe macht es nahezu unmöglich, die gesamte Tumormasse chirurgisch zu entfernen, was eine hohe Rezidivrate zur Folge hat. Ein grĂ¶ĂŸeres VerstĂ€ndnis fĂŒr die Entstehungsmechanismen des GBMs und seiner Therapieresistenzen ist essenziell fĂŒr die Entwicklung besserer Therapiemöglichkeiten und verlangt dringend nach geeigneten Modellen fĂŒr deren Erforschung. In der Krebsforschung bedient man sich hĂ€ufig an Zellkultur- oder Tiermodellen. Zellkulturen bieten den Vorteil, dass sie preisgĂŒnstig in der Unterhaltung sind und sich in relativ kurzer Zeit große Datenmengen durch einen hohen experimentellen Durchsatz erzielen lassen. Nachteilig ist, dass jeglicher Gewebeverband fehlt und das Modell daher nicht die reale Situation in einem ganzheitlichen Organismus widerspiegelt. Im Tiermodell ist der Organismus mitsamt verschiedenen Zelltypen, extrazellulĂ€rer Matrix und Blutkreislauf gegeben, jedoch gibt es mitunter gravierende Interspeziesunterschiede, die eine erfolgreiche klinische Translation der Ergebnisse aus Tierversuchen in das humane System erschweren. Patient-derived xenografts, also Transplantate aus Patientengewebe, machen sich den Organismus des Versuchstieres zunutze, erhalten aber dabei auch die Charakteristik des ursprĂŒnglichen Tumors weitgehend. Um eine Abstoßung des transplantierten Tumorgewebes zu verhindern, werden zumeist immundefiziente Tiere verwendet, bei denen die immunologische Komponente fehlt, was das Modell artifizieller macht. Zudem ist das erzeugte Tierleid ein nicht zu unterschĂ€tzender Faktor, denn Überlebenszeitanalysen mit dem Tod des Versuchstieres als Endpunkt, spielen eine wesentliche Rolle in der onkologischen Forschung. Um das Tierleid in wissenschaftlichen Experimenten zu verringern, wurde 1959 erstmals das 3R-Prinzip (Reduction, Replacement, Refinement) definiert, wonach Tierversuche möglichst komplett ersetzt, Tierzahlen reduziert und die Bedingungen fĂŒr Versuchstiere verbessert werden sollen. Diesem Prinzip folgend wurden im Institut fĂŒr Anatomie der UniversitĂ€t Leipzig die organotypischen Schnittkulturen aus Patientengewebe als Alternative zum Tierversuch etabliert. Hierbei wird operativ entnommenes Tumorgewebe von Patienten mithilfe eines Tissue Choppers in 350 ”m dĂŒnne Scheiben geschnitten und auf Membranen an einer Luft-Medium-Grenze kultiviert. Gewebe aus humanem GBM kann auf diese Weise bis zu zwei Wochen vital erhalten und fĂŒr Versuche verwendet werden. In der hier vorliegenden Promotionsarbeit wurden Schnittkulturen aus GBM-Gewebe von 25 Patienten angelegt und der Standardbehandlung aus Temozolomid und Bestrahlung unterzogen. Anschließend wurde das Gewebe histologisch aufgearbeitet, um einerseits die QualitĂ€t des Gewebeerhalts mittels klassischer FĂ€rbungen mit HĂ€matoxylin und Eosin beurteilen und um andererseits Marker fĂŒr Proliferation (Ki67) und Apoptose (TUNEL-Assay) anfĂ€rben und quantifizieren zu können. In der Vergangenheit beschrĂ€nkte sich die Auswertung solcher FĂ€rbungen vorrangig auf die manuelle Quantifizierung, was zeitintensiv und abhĂ€ngig von der durchfĂŒhrenden Person zu abweichenden Ergebnissen fĂŒhrt. Im Rahmen dieser Arbeit gelang die automatisierte quantitative Auswertung histologischer FĂ€rbungen von kultivierten Gewebeschnitten und deren Veröffentlichung. Durch die Automatisierung kann die Analyse deutlich schneller erfolgen, ist objektiver und damit auch geeigneter fĂŒr eine klinische Anwendung. ZusĂ€tzlich zur histologischen Aufarbeitung des Gewebes wurde aus den Schnittkulturen RNA extrahiert, um Behandlungseffekte auf Expressionsebene untersuchen zu können. FĂŒr einen Patienten gelang der Vergleich zwischen Tumorgewebe und angrenzendem Tumorzugangsgewebe, da von beiden Gewebetypen Schnittkulturen angelegt und die Behandlung durchgefĂŒhrt werden konnte. Mit einer Sequenziertiefe von bis zu 368 Millionen Reads pro Probe, wurden 1888 Gene identifiziert, die im Vergleich zum angrenzendem Gewebe im Tumorgewebe signifikant herunterreguliert waren. Fast 2400 Gene waren entsprechend hochreguliert. Zwischen behandeltem und unbehandeltem Tumorgewebe gab es ĂŒber 3400 Transkripte, die signifikant unterschiedlich exprimiert wurden. Die Signalweganalyse mit der IPA Software (Qiagen) ergab eine reduzierte Proliferation in behandeltem GBM-Gewebe, was sich mit den Befunden aus der Quantifizierung der Ki67-FĂ€rbung deckte. Eine Subgruppenanalyse ergab, dass Gewebekulturen von langzeitĂŒberlebenden Patienten (GesamtĂŒberleben > 24 Monate) besser auf die Behandlung anzusprechen scheinen, was sich in einer signifikant erhöhten Apoptoserate im Vergleich zu Patienten mit kurzem Überleben zeigte. Schnittkulturen aus Patienten mit einem progressionsfreien Überleben (PFS) von mehr als 7 oder 12 Monaten zeigten eine signifikant höhere Proliferation als Patienten mit einem PFS von unter 7 Monaten. BegrĂŒndbar ist das mit einer höheren SuszeptibilitĂ€t von proliferierendem Gewebe gegenĂŒber SchĂ€den durch Bestrahlung und Zytostatika. Die Expressionsanalyse aller 25 Patientenproben ergab eine Hochregulierung von 58 proteinkodierenden Genen. 32 Gene waren im Vergleich zu den unbehandelten Kontrollen im behandelten Gewebe herunterreguliert. Durch die funktionelle Analyse dieser differentiell exprimierten Gene konnte gezeigt werden, dass der p53-Signalweg, die Zellzykluskontrolle, sowie mit DNA-SchĂ€den und deren Reparatur assoziierte Gene und Signalwege nach der Behandlung vermehrt aktiviert sind. Insgesamt zeigen die Ergebnisse der vorliegenden Arbeit, dass Schnittkulturen aus GBM-Gewebe nicht nur histologisch aufgearbeitet werden können, sondern dass es zudem möglich ist, weitreichende molekulare Untersuchungen und Genexpressionsanalysen erfolgreich durchzufĂŒhren. Weiterhin sieht man eine gute Korrelation der aus den Kulturen gewonnenen Ergebnisse mit dem klinischen Verlauf der jeweiligen Patienten, was den RĂŒckschluss zulĂ€sst, dass die Schnittkulturen ein gutes Abbild der tatsĂ€chlichen Situation im Patienten darstellen. Damit wird die Nutzbarkeit des Modells als Alternative zum Tierversuch weiter erhöht und klinisch interessant. Die Robustheit der Methode zeigt sich dadurch, dass RNA-Analysen aus den 25 Patienten umgesetzt werden konnten, obwohl es zum Teil gravierende Unterschiede in der QualitĂ€t des kultivierten Gewebes gab. Die inter- und intratumorale HeterogenitĂ€t des GBMs stellt eine große Herausforderung dar, die mit der Verwendung von biologischen und technischen Replikaten adressiert wurden. Die Korrelationsanalyse der einzelnen Replikate zeigte, dass zumindest die intratumorale HeterogenitĂ€t weitgehend ausgeglichen werden konnte. Die HeterogenitĂ€t zwischen den einzelnen Patienten blieb jedoch erhalten und erschwerte allgemeine Aussagen und generelle RĂŒckschlĂŒsse. Auch im GBM besteht daher der dringende Bedarf an individualisierten und auf den einzelnen Patienten ausgerichteten TherapieansĂ€tzen. HierfĂŒr bedarf es zukĂŒnftig weiterer Forschung an potenziellen Biomarkern mit grĂ¶ĂŸeren Patientenkohorten. Gewebekulturen können hierfĂŒr sowohl fĂŒr die Untersuchung von Patientengewebe als auch fĂŒr die Testung neuartiger TherapieansĂ€tze eine Rolle spielen.:Einleitung 3 Glioblastoma multiforme 3 Standardtherapie und MGMT 4 Immuntherapie 5 HeterogenitĂ€t im GBM 6 Individualisierte Therapie 7 RNA-Sequenzierung 8 Modelle in der Krebsforschung 10 Schnittkulturen aus Patientengewebe 11 Zielstellung der Arbeit 13 Publikation I 14 Publikation II 33 Zusammenfassung 63 Referenzen 66 Darstellung des eigenen Beitrags 72 ErklĂ€rung ĂŒber die eigenstĂ€ndige Abfassung der Arbeit 76 Lebenslauf 77 Publikationen 78 VortrĂ€ge 78 Danksagung 7

    A Routine and Post-disaster Road Corridor Monitoring Framework for the Increased Resilience of Road Infrastructures

    Get PDF
    • 

    corecore