Hochschulschriftenserver der Hochschule Heilbronn
Not a member yet
    137 research outputs found

    Modelling and simulating the scalability of e-commerce web application architectures

    No full text
    The e-commerce turnover has a constant growth rate of about 10%. An additional increase in complexity and traffic spikes clarify the need for a scalable software architecture to prevent a potential technical debt, higher financial cost, longer maintenance, or a reduced reliability. Due to the fact, that existing approaches like the Palladio Approach require a high modelling overhead and the importance of dropping this overhead was identified this master thesis is focused on the modelling and simulation of e-commerce web application architectures using a high-level approach to provide a faster, but possibly more inaccurate prediction of the scalability. This is done by the usage of the Design Science Research Process as a frame, a scientific literature review for use of the existing knowledge base and the Conical Methodology for the artefact creation. The artefact is a graphical model which is evaluated using a simulation developed with Python and its framework SimPy. For model creation and evaluation a total of twelve papers investigating the scalability of e-commerce web application architectures is split into a test and train group. The training group and parts of the scientific research are used to identify the components load balancer, application server, web tier, ERP system, legacy system and database as well as some general characteristics that need to be considered. The components with the most modelling variables are the application server and web tier with a total of thirteen, while the ERP and legacy system only required five. The model is evaluated using a total of three papers from the test group, where an average throughput error of 5.78% and a response time error of 46.55% or 26.46% was identified. An additional evaluation based on two non-e-commerce architectures shows the usability of the model for other types of architectures. Even though the average error gives the impression, that the model is not providing a good estimation, the graphical results show, that the model and its simulation can be used to provide a faster scalability prediction. The model is least accurate for the prediction of the situation, where the response time increases exponentially, as this is the point, where variables, only accountable for some percentage and thus ignored for the model, have the highest influence. Future research can be found in the extension of the model by either adding or investigating additional components, adding features ignored within this work or applying it to other types of web application architectures. Additionally, both the low-level and the high-level approaches can be brought together to combine the advantages from both approaches

    Entwicklung eines haptischen Interfaces für die roboterassistierte Ultraschallbildakquisition

    No full text
    Motivation: Die Bedienung eines Roboters bei einer roboterassistierten Ultraschallbildakquisition zur Lagekontrolle eines Tumors während einer Strahlentherapie ist mit einem groÿen Aufwand verbunden. Eine externe Applikation oder ein externes Bediengerät ist dazu notwendig. In dieser Arbeit wird die intuitivere Möglichkeit erforscht, dem Roboter Befehle durch Berührungen zu erteilen. Für eine solche Gestensteuerung wird anhand von Sensordaten eines sensitiven Leichtbauroboters bewertet, inwieweit eine Steuerung durch ein haptisches Interface umsetzbar ist und dafür ein Klassifikator entwickelt. Methodik: Die Erhebung der Sensordaten erfolgte an einem KUKA LBR-iiwa7-800 Roboter. Es wurden acht repräsentative Gesten für ein haptisches Interface definiert. Diese Gesten wurden an verschiedenen Roboterposen von Probanden ausgeführt, während Sensordaten erhoben wurden. Die Messungen wurden im statischen Zustand des Roboters und im Impedanzmodus des Roboters durchgeführt, da mithilfe des Impedanzmodus die Atemkompensation während einer Ultraschallbildakquisition realisiert wird. Die Messdaten wurden in Matlab ausgewertet. Ergebnisse: Vier der definierten Gesten sind allein durch Bestimmung der kartesischen Kräfte x, y z detektierbar und voneinander unterscheidbar. Diese vier Gesten sind Gesten, die durch Berührung am Tool (Ultraschallkopf) oder Toolnähe (Roboterhand) ausgeführt werden. Die Unterscheidung von Gesten, die am Roboterellenbogen ausgeführt wurden, ist anhand der kartesischen Kräfte nicht möglich. An Roboterposen, die singularnahe oder singulare Achsstellungen aufweisen, ist eine Detektion von Gesten ebenfalls problematisch. Ansonsten ist eine Detektion posen- und nutzer-unabhängig durchführbar. In Messungen während einer Atemkompensation wurden diese Gesten ebenfalls richtig detektiert. Fazit: Ein haptisches Interface für roboterassistierte Ultraschallbildakquisition ist realisierbar für Gesten, die am Roboter in der Nähe des TCPs ausgeführt werden. Für die Detektion und Klassifizierung dieser Gesten ist die Krafteinschätzung am TCP ausreichend

    Development and validation of a neural network for adaptive gait cycle detection from kinematic data

    Get PDF
    (1) Background: Instrumented gait analysis is a tool for quantification of the different aspects of the locomotor system. Gait analysis technology has substantially evolved over the last decade and most modern systems provide real-time capability. The ability to calculate joint angles with low delays paves the way for new applications such as real-time movement feedback, like control of functional electrical stimulation in the rehabilitation of individuals with gait disorders. For any kind of therapeutic application, the timely determination of different gait phases such as stance or swing is crucial. Gait phases are usually estimated based on heuristics of joint angles or time points of certain gait events. Such heuristic approaches often do not work properly in people with gait disorders due to the greater variability of their pathological gait pattern. To improve the current state-ofthe- art, this thesis aims to introduce a data-driven approach for real-time determination of gait phases from kinematic variables based on long short-term memory recurrent neural networks (LSTM RNNs). (2) Methods: In this thesis, 56 measurements with gait data of 11 healthy subjects, 13 individuals with incomplete spinal cord injury and 10 stroke survivors with walking speeds ranging from 0.2 m s up to 1 m s were used to train the networks. Each measurement contained kinematic data from the corresponding subject walking on a treadmill for 90 seconds. Kinematic data was obtained by measuring the positions of reflective markers on body landmarks (Helen Hayes marker set) with a sample rate of 60Hz. For constructing a ground truth, gait data was annotated manually by three raters. Two approaches, direct regression of gait phases and estimation via detection of the gait events Initial Contact and Final Contact were implemented for evaluation of the performance of LSTM RNNs. For comparison of performance, the frequently cited coordinate- and velocity-based event detection approaches of Zeni et al. were used. All aspects of this thesis have been implemented within MATLAB Version 9.6 using the Deep Learning Toolbox. (3) Results: The mean time difference between events annotated by the three raters was −0.07 ± 20.17ms. Correlation coefficients of inter-rater and intra-rater reliability yielded mainly excellent or perfect results. For detection of gait events, the LSTM RNN algorithm covered 97.05% of all events within a scope of 50ms. The overall mean time difference between detected events and ground truth was −11.62 ± 7.01ms. Temporal differences and deviations were consistently small over different walking speeds and gait pathologies. Mean time difference to the ground truth was 13.61 ± 17.88ms for the coordinate-based approach of Zeni et al. and 17.18 ± 15.67ms for the velocity-based approach. For estimation of gait phases, the gait phase was determined as a percentage. Mean squared error to the ground truth was 0.95 ± 0.55% for the proposed algorithm using event detection and 1.50 ± 0.55% for regression. For the approaches of Zeni et al., mean squared error was 2.04±1.23% for the coordinate-based approach and 2.24±1.34% for the velocity-based approach. Regarding mean absolute error to the ground truth, the proposed algorithm achieved a mean absolute error of 1.95±1.10% using event detection and one of 7.25 ± 1.45% using regression. Mean absolute error for the coordinate-based approach of Zeni et al. was 4.08±2.51% and 4.50±2.73% for the velocity-based approach. (4) Conclusion: The newly introduced LSTM RNN algorithm offers a high recognition rate of gait events with a small delay. Its performance outperforms several state-of-theart gait event detection methods while offering the possibility for real-time processing and high generalization of trained gait patterns. Additionally, the proposed algorithm is easy to integrate into existing applications and contains parameters that self-adapt to individuals’ gait behavior to further improve performance. In respect to gait phase estimation, the performance of the proposed algorithm using event detection is in line with current wearable state-of-the-art methods. Compared with conventional methods, performance of direct regression of gait phases is only moderate. Given the results, LSTM RNNs demonstrate feasibility regarding event detection and are applicable for many clinical and research applications. They may be not suitable for the estimation of gait phases via regression. For LSTM RNNs, it can be assumed, that with a more optimal configuration of the networks, a much higher performance is achieved

    Bedeutung von Telemetrie für den Software Development Life Cycle

    Get PDF
    Die heutige Software-Entwicklung ist davon geprägt, dass Anwendungen immer komplexer und aufwändiger werden. Gleichzeitig steigen die Erwartungen der Kunden an die Qualität der Software. Für die Software-Entwickler ist die Telemetrie zu einem unverzichtbaren Werkzeug geworden. Sie ist ein wesentlicher Baustein, um die Beobachbarkeit (� Observability� ) von Applikationen zu erhöhen und somit die Grundlage für eine bessere Qualität in der Software Entwicklung. Hierbei ist zu analysieren, welche Bedeutung die Telemetrie für den gesamten Software Development Life Cyle hat. Der aktuelle Stand der Software-Telemetrie wird am Beispiel des Projektes OpenTelemetry dargelegt. OpenTelemetry hat sich zum Ziel gesetzt, die universelle Plattform für den Austausch von Telemetriedaten zu werden. Die Ergebnisse des Projektes OpenTelemetry werden analysiert und bewertet

    Erstellung einer Education App im Fach Mathematik für die strukturierte und inhaltliche Zusammenfassung der schulischen Themen am Beispiel der 8. Klasse Realschule

    Get PDF
    Auf dem Markt der Android Applikationen gibt es ein breites Spektrum an Lernanwendungen. Allerdings exisitiert ein Mangel an gut strukturierten inhaltlichen Zusammenfassungen der schulischen Themen, gerade im Fach Mathematik. Mein Ziel der Bachelorarbeit ist, eine Education App zu entwickeln, diese im realen Betrieb zu testen und somit einen Lösungsansatz für den Mangel an solchen Apps zu erhalten. Ich werde am Beispiel der 8. Klasse Realschule im Fach Mathematik eine thematische Zusammenfassung erzeugen und als App umsetzen. Mathematische Grundlage hierfür bildet das Schulbuch Schnittpunkt 8 des Klettverlages (Differenzierende Ausgabe, 2015). Bugfixing und Evaluierung verläuft Hand in Hand, um am Ende des Entwicklungsprozesses eine voll funktionsfähige, getestete App zu bekommen. Mit Hilfe eines Fragebogens wird dabei direkt auf die Zielgruppe eingegangen. Die App wird im Anschluss des Entwicklungsprozesses nach dem Open- Closed Prinzip fungieren. Ist also für Erweiterungen offen. Diese Funktion erreiche ich durch genau definierte Schnittstellen. Es wird möglich sein, neue Klassen ebenso wie Schularten hinzuzufügen. Als Entwicklungsumgebung dient mir IntelliJ, als Testgerät ein Samsung Smartphone. Die App wird den Namen MaTHive Spectre tragen, um direkt auf das Potential aufmerksam zu machen und einen einprägsamen Namen zu erhalten

    Softwarebasierte Planung von patientenindividuellen Sägeschnittschablonen für die tumorbedingte Unterkieferrekonstruktion

    No full text
    Ein Tumor ist eine örtlich umschriebene Zunahme des Gewebevolumens, im engeren Sinn eine gewebliche Neubildung, ein Geschwür in Form eines enthemmten und irreversiblen Überschusswachstums von körpereigenem Gewebe [33]. ,,In Europa sind 3-5% [...] aller malignen Tumoren des Menschen Tumoren der Mundhöhle, davon stellen die Plattenepithelkarzinome mit 95% den größten Anteil.” [28]. Nur 25-40% der Patienten mit Lymphknotenmetastasierung erreichen die 5-Jahres-Überlebensrate im Gegensatz zu ca. 90% der Patienten ohne Metastatisierung [29]. Oft werden diese Tumore spät erkannt und müssen deshalb durch eine Operation entfernt werden. Das Plattenepithelkarzinom kann den Kiefer infiltrieren, die notwendige Resektion des Tumors kann zu einer Verschlechterung der Ästhetik, zum Verlust der Kaufunktionalität und der Sprechfunktionalität führen. Im Universitätsklinikum Heidelberg (UKHD) werden verschiedene Verfahren zur Rekonstruktion angewandt, wie die Rekonstruktion mithilfe der körpereigenen Fibula(dt.Wadenbein), deren Schaft dafür entnommen wird. Aus diesem Schaft werden Segmente gesägt, mit welchen dann der ursprüngliche Verlauf der Mandibula (dt. Unterkiefer), in dem resezierten Bereich, rekonstruiert wird. Die Rekonstruktion erfolgt mit einer speziellen Platte auf welcher die Fibulasegmente befestigt werden. Diese Platte wird anschließend am Restunterkiefer fixiert. Die Schwierigkeit besteht in der Nachbildung des Unterkieferverlaufs und der Erhaltung des Kiefergelenks. Bei dieser Operation muss die Ischämiezeit, die Zeit, welche ein Organ ohne Blutversorgung schadlos überstehen kann, berücksichtigt werden. Ohne eine genaue Schnittführung ist die Wahrscheinlichkeit größer, dass die gesägten Segmente nachbearbeitet werden müssen, was wiederum ein zeitliches Problem ist. Deshalb wird Rekonstruktion mit Cutting-Guides (dt. Sägeschnittschablone) unterstützt. Diese Guides werden nach der Planung der Operation angefertigt. Sie werden in der Mund-, Kiefer- und Gesichtschirurgie (MKG) des UKHD von einem Zahntechniker hergestellt. Alternativ gibt es industrielle Dienstleister, die diese Guides herstellen können. Diese sind jedoch wesentlich teurer als die in der MKG etablierte Lösung

    Virtuelle und reale Objekte als natürliche Bewegungsgrenzen in der Virtual Reality Exposure Therapy

    Get PDF
    Zur Behandlung von Angststörungen – welche mit zu den häufigsten psychischen Erkrankungen in Deutschland gehören – bietet die klassische Expositionstherapie gute Erfolgsaussichten [1]. In den letzten Jahren entwickelte sich die Virtual Reality Exposure Therapy (VRET), welche eine interessante Alternative darstellt. Eine Studie zeigte 2013 die Effektivität einer VRET [2]. Problematisch ist allerdings die Lokomotion in psychotherapeutischen Praxen mit geringem Raumangebot. Gängige Sicherheitssysteme zur Kollisionsvermeidung wie Lighthouse‘s Chaperone [3] [4] oder Occulus Guardian [5] zeigen bei Annäherung an die Grenzen des sicheren Bereiches eine auffällige optische Warnung an. Dies kann jedoch bei den Benutzern zu unerwünschten Präsenzeinbrüchen (breaks in presence) führen. Simeone et al. [6] konnten nachweisen, dass in einer virtuellen Umgebung rein virtuelle Gegenstände oder Wände von den Benutzern als real wahrgenommen und umgangen werden. Dieser Effekt liess sich durch zusätzliche reale Gegenstände im Raum noch verstärken. In dieser Masterarbeit wurde untersucht, ob sich die Ergebnisse von Simeone et al. [6] auch auf die Anwendung der VRET übertragen lassen. Dazu wurde eine Studie mit 2 Gruppen zu je 12 Probanden durchgeführt. Alle hielten 2 Vorträge in einer virtuellen Umgebung, je einen Vortrag mit Avatar und einen ohne. Während eine Gruppe sich in einer virtuellen Umgebung mit ausschliesslich virtuellen Objekten bewegte, waren in der anderen Gruppe zusätzlich reale Gegenstände vorhanden. In der vorliegenden Masterarbeit konnte gezeigt werden, dass die Ergebnisse von Simeone et al. [6] auch für VRET Anwendungen gültig sind. Virtuelle Objekte werden auch von Patienten eines VRET Systems als Begrenzungen akzeptiert. Zudem lassen sich physische Objekte in die virtuelle Umgebung integrieren, ohne dass es zu Kollisionen mit den Benutzern kommt oder die Benutzer eine erhöhte Angst vor Kollisionen haben. Obwohl das Vorhandensein eines Avatars in der durchgeführten Studie keinen Einfluss auf die Ergebnisse hatte, wünschen sich die Benutzer einen Avatar in der VR. Der sichere Aufenthaltsbereich kann also bereits in der virtuellen Umgebung durch virtuelle Objekte abgegrenzt werden, wodurch - zugunsten der Vermeidung von Präsenzeinbrüchen - auf ein System wie Lighthouse`s Chaperone [3] [4] verzichtet werden kann. Ausserdem müssen reale Gegenstände nicht aus dem Bewegungsbereich der Benutzer ausgeschlossen werden, sondern lassen sich in die virtuelle Umgebung integrieren. Dies stellt eine praktikable Möglichkeit dar, den für VRET nutzbaren Raum in psychotherapeutischen Einrichtungen zu optimieren. Somit stellt die VRET eine echte Alternative zur klassischen Expositionstherapie dar

    Prediction of the influenza virus propagation by using different epidemiological and machine learning models

    No full text
    In this bachelor thesis, different models for predicting the influenza virus are examined in more detail. The focus is on epidemiological compartmental models, as well as on different Machine Learning approaches. In particular, the basics chapter presents the SIR model and its various extensions. Furthermore, Deep Learning and Social Network approaches are investigated and the applied methods of a selected article are analysed in more detail. The practical part of this work consists in the implementation of a Multiple Linear Regression model and an Artificial Neural Network. For the development of both models the programming language Python was chosen using the Deep Learning Framework Keras. Tests were performed with real data from the Réseau Sentinelles, a French organisation for monitoring national health. The results of the tests show that the Neural Network is able to make better predictions than the Multiple Linear Regression model. The discussion shows ideas for improving influenza prediction including the establishment of a worldwide collaboration between the surveillance centres as well as the consolidation of historical data with real-time social media data. Therefore, this work consists of a state-of-the art of models regarding the spread of influenza virus, the development and comparison of several models programmed in Python, evaluated on real data

    Implementation of an interactive pattern mining framework on electronic health record datasets

    Get PDF
    Large collections of electronic patient records contain a broad range of clinical information highly relevant for data analysis. However, they are maintained primarily for patient administration, and automated methods are required to extract valuable knowledge for predictive, preventive, personalized and participatory medicine. Sequential pattern mining is a fundamental task in data mining which can be used to find statistically relevant, non-trivial temporal dependencies of events such as disease comorbidities. This works objective is to use this mining technique to identify disease associations based on ICD-9-CM codes data of the entire Taiwanese population obtained from Taiwan’s National Health Insurance Research Database. This thesis reports the development and implementation of the Disease Pattern Miner – a pattern mining framework in a medical domain. The framework was designed as a Web application which can be used to run several state-of-the-art sequence mining algorithms on electronic health records, collect and filter the results to reduce the number of patterns to a meaningful size, and visualize the disease associations as an interactive model in a specific population group. This may be crucial to discover new disease associations and offer novel insights to explain disease pathogenesis. A structured evaluation of the data and models are required before medical data-scientist may use this application as a tool for further research to get a better understanding of disease comorbidities

    Generative adversarial networks for automated hippocampus segmentation : development of an artificial neural network and integration in a generative adversarial network scheme to improve the segmentation of the hippocampus and its substructures

    No full text
    Alzheimer’s Disease affects millions of people worldwide, but till today, the gold standard for definitive diagnosis of this disease is a biopsy. Nevertheless, with the progress of the disease, a volume loss in the Hippocampus can be observed. Therefore, good segmentation methods are crucial to facilitate quantification of this loss. The focus of this work is on the development of a Machine Learning algorithm, more precisely a Generative Adversarial Network, for the automated segmentation of the human Hippocampus and its substructures in Magnetic Resonance Images. In particular, the task is to determine if the integration of a pre-trained network that generates segmentations into a Generative Adversarial Network scheme can improve generated segmentations. In this context, a segmentation network in form of a U-net corresponds to the generator. The discriminator is developed separately and merged in a second step with the generator for combined training. With a literature review regarding the automated segmentation of the Hippocampus, current methods in this field and their medical and technological basics were identified. The datasets were preprocessed to make them suitable for the use in a neural network. In the training process, the generator was trained first until convergence. Then, the Generative Adversarial Network including the pre-trained generator was trained. The outcomes were evaluated via cross-validation in two different datasets (Kulaga-Yoskovitz and Winterburn). The Generative Adversarial Network scheme was tested regarding different architectural and training aspects, including the usage of skip-connections and a combined loss function. The best results were achieved in the Kulaga-Yoskovitz dataset with a Dice coefficient of 90.84 % after the combined training of generator and discriminator with a joined loss function. This improves the current state of the art method in the same task and dataset with a Dice index of 88.79 % by Romero [Rom17]. Except of two cases in the Winterburn dataset, the proposed combined method could always improve the Dice results after the training of only the generator, even though only by a small amount

    97

    full texts

    137

    metadata records
    Updated in last 30 days.
    Hochschulschriftenserver der Hochschule Heilbronn is based in Germany
    Access Repository Dashboard
    Do you manage Open Research Online? Become a CORE Member to access insider analytics, issue reports and manage access to outputs from your repository in the CORE Repository Dashboard! 👇