4 research outputs found

    Ein Framework für ProSA

    Get PDF
    ProSA ist ein Werkzeug zum Forschungsdatenmanagement, das größtenteils auf dem Papier, aber noch nicht in einer praktischen Implementierung vorliegt. Das Werkzeug soll Forschungsergebnisse reproduzierbar machen, indem es die minimale Teildatenbank berechnet, die mit dem Forschungsergebnis veröffentlicht, und mit dem dieses Ergebnis dann reproduziert werden kann. Neben der Reduzierung des Speicherbedarfs durch die Minimierung wird von ProSA auch eine Anonymisierung vorgenommen, um dem Datenschutz gerecht zu werden und sensible Daten zu maskieren. Die einzelnen Ideen und Komponenten für ProSA wurden im Laufe der letzten Jahre in verschiedenen Projektgruppen und Abschlussarbeiten relativ unabhängig voneinander entwickelt. Ziel dieser Arbeit ist nun die Zusammensetzung dieser Komponenten zu einem vollständigen Gesamtgerüst, sodass die vorgesehene Pipeline von der Eingabe einer SQL-Anfrage bis hin zur letztendlichen Ausgabe einer minimalen, anonymisierten Teildatenbank durchlaufen werden kann. Des Weiteren betrifft eine größere Teilaufgabe den "Provenancer", eine Komponente zur Behebung von verfahrensbedingtem Informationsverlust in der minimalen Teildatenbank, welcher durch Einarbeitung von sogenannten Provenance-Informationen ausgeglichen werden kann. Vom Provenancer gab es schon eine eigenständige, aber inzwischen veraltete und im ProSA-Kontext inkompatible Version, die in dieser Arbeit neu konzipiert und implementiert wird. Weiterhin werden in Zusammenarbeit mit den Entwicklern an anderen Komponenten die Menge von unterstützten Anfragen um solche mit Aggregatfunktionen erweitert. Zusätzliche Qualitätsanforderungen an diese Arbeit sind dem Bereich der Softwaretechnik anzuordnen: das entwickelte Rahmengerüst soll natürlich leicht erweiterbar, modular, verständlich, effzient und gut dokumentiert sein

    Qualitätssicherung für ChaTEAU

    Get PDF
    Im Sommersemester 2021 im Modul KSWS hatten wir als Gruppe 3 als Oberthema die Qualitätssicherung des Programms ChaTEAU. Die Aufgabe bezog sich auf das Programm aus Sicht eines Programmierers und umfasste deshalb, den Quellcode des Programms durchzusehen und hinsichtlich Benutzbarkeit, Verständlichkeit und Erweiterbarkeit zu überprüfen, die Funktionalität der Anwendung zu testen und gegebenenfalls zu überarbeiten oder reparieren, sowie eine Dokumentation zu erstellen. Begleitend gab es einen Vorlesungsteil, der die mit ChaTEAU umgesetzten theoretischen Grundlagen behandelte. Wir nutzen für die Arbeit das GitLab der IEF, wo die Änderungen auf Code-Ebene einsehbar sind und die Diagramme in voller Auflösung vorliegen. Die Ergebnisse unserer Arbeit werden in diesem Bericht festgehalten

    Improving 3D convolutional neural network comprehensibility via interactive visualization of relevance maps: Evaluation in Alzheimer's disease

    Get PDF
    Background: Although convolutional neural networks (CNN) achieve high diagnostic accuracy for detecting Alzheimer's disease (AD) dementia based on magnetic resonance imaging (MRI) scans, they are not yet applied in clinical routine. One important reason for this is a lack of model comprehensibility. Recently developed visualization methods for deriving CNN relevance maps may help to fill this gap. We investigated whether models with higher accuracy also rely more on discriminative brain regions predefined by prior knowledge. Methods: We trained a CNN for the detection of AD in N=663 T1-weighted MRI scans of patients with dementia and amnestic mild cognitive impairment (MCI) and verified the accuracy of the models via cross-validation and in three independent samples including N=1655 cases. We evaluated the association of relevance scores and hippocampus volume to validate the clinical utility of this approach. To improve model comprehensibility, we implemented an interactive visualization of 3D CNN relevance maps. Results: Across three independent datasets, group separation showed high accuracy for AD dementia vs. controls (AUC≥\geq0.92) and moderate accuracy for MCI vs. controls (AUC≈\approx0.75). Relevance maps indicated that hippocampal atrophy was considered as the most informative factor for AD detection, with additional contributions from atrophy in other cortical and subcortical regions. Relevance scores within the hippocampus were highly correlated with hippocampal volumes (Pearson's r≈\approx-0.86, p<0.001). Conclusion: The relevance maps highlighted atrophy in regions that we had hypothesized a priori. This strengthens the comprehensibility of the CNN models, which were trained in a purely data-driven manner based on the scans and diagnosis labels.Comment: 24 pages, 9 figures/tables, supplementary material, source code available on GitHu

    ProSA Pipeline: Provenance conquers the Chase

    No full text
    One of the main problems in data minimization is the determination of the relevant data set. Combining the Chase — a universal tool for transforming databases — and data provenance, a (anonymized) minimal sub-database of an original data set can be calculated. To ensure reproducibility, the evaluations performed on the original data set must be feasible on the sub-database, too. For this, we extend the Chase&Backchase with additional why-provenance to handle lost attribute values, null tuples, and duplicates occurring during the query evaluation and its inversion. In this article, we present the ProSA pipeline, which describes the method of data minimization using the Chase&Backchase extended with additional provenanc
    corecore