9 research outputs found

    ERP-Einführungen im öffentlichen Bereich in Deutschland – Best Practice-Analyse aus Sicht von Unternehmen und öffentlichen Einrichtungen

    Get PDF
    Durch den internationalen Wettbewerb zwischen den Hochschuleinrichtungen ist ein Umstellungsprozess in Form neuer, der heutigen Zeit entsprechender IT-Strukturen notwendig. Dieser Digitalisierungsprozess umfasst in zunehmendem Maße die Erarbeitung einer Digitalisierungsstrategie und die Einführung einer integrativen Software, welche die heterogene IT-Landschaft der Hochschulen durch eine zentralisierte Komponente miteinander verknüpft. Die Einführung von Enterprise-Resource-Planning-Systemen (ERP) an Hochschulen stellt den gesamten Verwaltungsapparat vor große Herausforderungen, nicht nur in Form von logistischen und zeitlichen Problemen, sondern auch vor einen organisationalen Wandel und den damit verbundenen dringend erforderlichen Kommunikationsaufwand. Eine essenzielle Maßnahme, um ein solches Projekt zum Erfolg zu führen, besteht in der Aufnahme und softwarebezogenen Weiter-entwicklung aller Verwaltungsprozesse der jeweiligen Hochschule, um im Rahmen eines vorgeschalteten Organisationsentwicklungsprojektes die Hochschule auf die Einführung eines ERP-Systems vorzubereiten. Die Änderungen in der Ausrichtung der Hochschulen in Thürin-gen, wie ebenfalls in anderen Bundesländern Deutschlands, beruhen auf neuen gesetzlichen Regelungen. Dies bewirkte den Wechsel der thüringischen Hochschulen von der kameralistischen auf die doppische Buchführung und die Einführung des ERP-Systems durch die MACH AG. Im Zuge dieser Neuerungen sollen die Leitungen der Hochschulen neue ausführlichere Arten von Berichten zur Planung und Steuerung einsehen können und in der Lage sein, den externen Institutionen aussagekräftige Berichte vorzulegen. Auf Grundlage dessen soll ermöglicht werden, Prognosen für die Zukunft zu erarbeiten und somit ein schnelleres Eingreifen bei Problemen bzw. negativen wie auch positiven Änderungen der Situation der gesamten Hochschule(n) herbeizuführen. Die angestrebte Dissertation beschäftigt sich mit der Frage, wie ERP-Projekte im öffentlichen Bereich an Hochschulen zum Erfolg geführt werden können. Es wird das Ziel verfolgt, eine Handlungsempfehlung mit einzelnen positiven und negativen Faktoren zu erstellen, welche eine grundlegende Untersetzung für den Projektaufbau und die Durchführung des ERP-Einführungsprojektes bietet. Hierbei soll ebenfalls ein Leitfaden zur Einführung von ERP-Systemen erarbeitet werden, welcher auf Basis der geplanten und bereits geführten qualitativen Experteninterviews ausgearbeitet werden soll. Die Best Practice-Analyse soll gleichzeitig die Sicht der Hochschulen wie auch die Sicht der Unternehmen wider-spiegeln und die Zusammenarbeit zur gemeinsamen Zielerreichung fördern

    Generisches Mehrbenutzer-Framework auf Basis von Node.js und Webtechnologien am Beispiel eines Stundenplan-Gestalters

    Get PDF
    Einleitend wird der Kontext der Aufgabenbeschreibung vorgestellt. In einer Umgebung, in der Internet jederzeit und überall abrufbar ist, macht die Entwicklung von Web-Applikationen gegenüber systemeigenen Applikationen immer mehr Sinn. Hier gilt es, die im Multimedia- Bereich etablierte Flash-Programmierung wegen des immer geringer werdenden Supports durch offene Lösungen des HTML5-Standards zu ersetzen. Konkret wird dies hier mit dem Canvas-Element gelöst. Außerdem dienen WebSockets der Synchronität in Echtzeit zu kollaborativen Zwecken. In Kapitel zwei geht es um die Theorie, die dem Framework zugrunde liegt. Es ist in zwei Abschnitte eingeteilt. Im ersten Abschnitt werden Vor- und Nachteile sowie Konzepte von generischen Frameworks aufgezeigt. Weiterhin wird auf funktionale und nicht-funktionale Anforderungen an derartige Frameworks eingegangen. Beendet wird der Abschnitt mit der Vorstellung einiger Frameworks, die in der Praxis häufig verwendet werden. Der zweite Abschnitt befasst sich mit Kollaboration im Zusammenhang mit Echtzeit-Webanwendungen. Zu Beginn wird erläutert, wie die Begriffe „Kollaboration“, „Echtzeit“ und „Web- Anwendung“ definiert sind. Im weiteren Verlauf wird auf Techniken der Kollaboration in der Raum-Zeit-Klassifizierung eingegangen. Abgeschlossen wird das Kapitel mit der Vorstellung diverser technischer Umsetzungsmöglichkeiten sowie einem Beispiel aus der Praxis. Kapitel drei befasst sich mit den Webtechnologien, die im Rahmen dieser Thesis verwendet werden. Der erste Teil des Kapitels beinhaltet neben einer Kurzzusammenfassung über die Neuerungen in HTML5 eine detaillierte Vorstellung des HTML5-Canvas und der WebSockets. Es folgt ein kurzer Abriss über die Programmiersprache JavaScript. Im zweiten Teil des Kapitels wird Node.js als serverseitige Infrastruktur präsentiert. Weiterhin werden Produkte für die serverseitige Speicherung der Daten vorgestellt und verglichen. Zum Abschluss werden einige Canvas-Bibliotheken gegenübergestellt. Kapitel vier beschäftigt sich mit den konkreten Anforderungen an das Framework. Sie sind gegliedert in Oberfläche, Anwendung, Technik und Implementierung. Als letztes Kapitel des Hauptteils beinhaltet Kapitel fünf die Konzeption und Implementierung des Frameworks. Nach einer kurzen Übersicht über die Dateistruktur folgen konkrete Konzepte zur Client-Server-Kommunikation. Es wird verglichen, wie Design und Funktionalität des aktuellen Flash-Stundenplan-Gestalters Verwendung im Prototyp der zu entwickelnden HTML5-Version finden. Schließlich werden Entwurf und Umsetzung des Frameworks mit Codebeispielen präsentiert. Abschließend wird ein Zwischenfazit zur Implementierung gezogen, welches auf Schwierigkeiten und Erkenntnisse im Entwicklungsprozess sowie mögliche Funktionen in künftigen Versionen eingeht

    Active Fault-Tolerance in Wireless Networked Control Systems

    Get PDF
    In a Wireless Networked Control System (WNCS), several nodes or components of the system may communicate over the common network that connects them together. Thus, there may be communication taking place between the sensors and the controller nodes, among the controllers themselves, among the sensors themselves, among the actuator themselves, and between the controller and the actuator nodes. The purpose of this communication is to improve the performance of the control system. The performance may be a measurable quantity defined in terms of a performance criterion, as in the case of optimal control or estimation, or it may be a qualitative measure described as a desired behaviour. Each node of the WNCS may act as a decision maker, making control as well as communication decisions. The presence of a network brings in constraints in the design of the control system, as information between the various decision makers must be exchanged according to the rules and dynamics of the network. Our goal is to quantify some of these constraints, and design the control system together with the communication system so as both do their best given the constraints. This work in no way attempts to suggest the best way to design a communication network that suits the needs of a particular control system, but some of the results obtained here may be used in conjunction with other results in forming an understanding as to how to proceed in the design of such systems in the future. The work proposes a novel real-time communication protocol based on the Time Division Multiple Access (TDMA) strategy, which has built-in tolerance against the network-induced effects like lost packets, assuring a highly deterministic and reliable behaviour of the overall networked control system, thus allowing the use of classical control design methods with WNCS. Determinism in the transmission times, for sending and for receiving, is assured by a communication schedule that is dynamically updated based on the conditions of the network and the propagation environment. An advanced experimentation platform has been developed, called WiNC, which demonstrates the efficiency of the protocol with two well-known laboratory benchmarks that have very different dynamics, namely the three-tank system and the inverted pendulum system. Wireless nodes belonging to both systems are coordinated and synchronized by a master node, namely the controller node. The WiNC platform uses only open source software and general-purpose (commercial, off-the shelf) hardware, thus making it with a minimal investment (low cost) a flexible and easily extendable research platform for WNCS. And considering the general trend towards the adoption of Linux as a real-time operating system for embedded system in automation, the developed concepts and algorithms can be ported with minimum effort to the industrial embedded devices which already run Linux

    Situationsbasiertes Scheduling von Echtzeit-Tasks in verteilten eingebetteten Systemen

    Get PDF
    Die Anforderungen an die verfügbare Rechenkapazität von Steuergeräten in der Automotive und Avionik-Domäne steigen kontinuierlich an. Dieser Anstieg ist auf die steigende Bedeutung von softwarebasierten Funktionen zurückzuführen, sowie auf die damit einhergehende steigende Anzahl und Komplexität der softwarebasierten Funktionen. In dieser Dissertation wird die Berücksichtigung der Situation (z. B. die geographische Position oder die Geschwindigkeit) als ein möglicher Ansatz beschrieben, um den steigenden Bedarf an Rechenkapazität der softwarebasierten Funktionen zu decken. Die benötigte Rechenkapazität einer softwarebasierten Funktion verändert sich in Abhängigkeit von der momentanen Situation. Durch die Berücksichtigung der Situation bei der Verteilung der Rechenkapazitäten entstehen freie Rechenkapazitäten, welche durch komplementäre softwarebasierte Funktion verwendet werden können. Die Zielsetzung dieser Dissertation ist es, eine situationsbasierte Verteilung der Rechenkapazität auf die softwarebasierten Funktionen des verteilen eingebetteten Systems zu erreichen.:1 Einleitung 1.1 Motivation 1.2 Zielsetzung 1.3 Struktur der Arbeit 1.4 Zusammenfassung 2 Grundlagen 2.1 Situationsbasierte Systeme 2.2 Eingebettete verteilte Systeme 2.2.1 Architektur 2.2.2 Echtzeit-Tasks 2.2.3 Echtzeit-Scheduling 2.2.4 Echtzeit-Kommunikation 2.2.5 Steuergeräte der Zieldomänen 2.3 Prozessmigration in verteilten Systemen 2.3.1 Prozesssegmente 2.3.2 Möglichkeiten der Prozessmigration 2.4 Application checkpointing 2.5 Zusammenfassung 3 Stand der Forschung 3.1 Situationsbasiertes Scheduling für eingebettete verteilte Systeme 3.1.1 Semi-Statische Systeme 3.1.2 Dynamische Systeme 3.2 Situationsbasiertes Scheduling für Multi-Core Systeme 3.2.1 Situationen in HAMS 3.2.2 HAMS Architektur 3.2.3 Wissensdatenbank 3.3 Semi-Statische Netzwerkkonfiguration 3.4 Zusammenfassung 4 Situationsbasiertes Scheduling in verteilten eingebetteten Systemen 4.1 Analyse der Zielsetzung 4.2 Technische Ziele 4.3 SiVES-Sched Konzept 4.3.1 Erweiterter HAMS 4.3.2 Situations-Wissensdatenbank 4.3.3 TLS Master 4.3.4 Task-Migration 4.3.5 TLS Slave 4.3.6 Software Defined Network 4.3.7 TLS-KM 4.4 Zusammenfassung 5 Evaluation 5.1 Konzept der Evaluation 5.2 Evaluationsumgebung 5.2.1 Hardwareumgebung 5.2.2 Softwareumgebung 5.3 Rekonfiguration des verteilten eingebetteten Systems 5.3.1 Evaluation I: Erstellung der SWDB 5.3.2 Evaluation II: Durchführung der Rekonfiguration 5.3.3 Evaluation III: Dauer des kritischen Abschnitts 5.3.4 Evaluation IV: Vermeidung von Informationsverlust 5.4 Zusammenfassung 6 Zusammenfassung und Ausblick 6.1 Ergebnisse dieser Arbeit 6.1.1 Konzept 6.1.2 Evaluation 6.2 Ausblick 7 Appendix Literaturverzeichnis Nomenklatur Thesen Eigene Veröffentlichunge

    Methodik zur durchgängigen Entwicklung verteilter Systeme mit Echtzeitbedingungen für Rundrufnetze

    Get PDF

    Ein Beitrag zur Anwendung von Support-Vektor-Maschinen zur robusten nichtlinearen Klassifikation komplexer biologischer Daten

    Get PDF
    Die vorliegende Arbeit untersucht die Eigenschaften der Support-Vektor-Maschine (SVM) für die Anwendung der Klassifikation komplexer Biosignale. Dabei wird eine Methode zur Erzeugung robuster Klassifikatoren für diese Art von Daten mit Hilfe der SVM vorgestellt. Biologische Daten weisen mehrere Faktoren auf, die eine automatische Klassifikation erschweren. Sie sind von Natur aus stark ungleich verteilt und zeigen starke inter- und intraindividuelle Ausprägungen. Weiterhin weichen die als Belehrungsgrundlage verwendeten Expertenbewertungen bedingt durch die Komplexität der Probleme zu einem bestimmten Grad voneinander ab. Als Basis für die Entwicklung und Erprobung der Methoden werden Schlaf-EEG-Daten verwendet. Die SVM ist eine anerkannte und oft empfohlene Klassifikationsmethode für verschiedene Aufgabenstellungen. So werden im Laufe der Untersuchungen die Vor- und Nachteile dieser Methode beleuchtet. Es finden an allen Schritten der Modellbildung Untersuchungen zu möglichen Optimierungen statt. So kann diese Arbeit zeigen, dass der SVM-Klassifikator stark von den Eigenschaften der ausgewählten Belehrungsdaten abhängig ist. Sowohl die Komplexität als auch die resultierende Klassifikationsgüte werden hierdurch stark beeinflusst. Es wird anhand künstlicher Probleme anschaulich gezeigt, wie die SVM parameterabhängig auf ungleichverteilte und untypische Daten reagiert. Als Konsequenz dessen wird eine zusätzliche Bearbeitung der Belehrungsdaten zur Modelloptimierung eingeführt. Durch den hierbei entwickelten Algorithmus, dem DiLa-Filter, stellt diese Arbeit eine neuartige und universelle Methode zur Datenfilterung vor und belegt dessen Funktion an realen Daten. Weiterhin wird ein neuer multikriterieller genetischer Algorithmus zur Parameteroptimierung, der SIGA, beschrieben. Dieser kann durch den Einsatz einer neuen genetischen Operation, der Immigration, zur verbesserten Konvergenz der genetischen Algorithmen beitragen. Liegen statistische Abhängigkeiten zwischen zeitlich aufeinanderfolgenden Klassifikationen vor, so können diese zum einen in einer kontextbasierten Vorhersage angewendet und zum anderen für die Kombination mehrerer SVM-Modelle (Bagging) genutzt werden. Somit wird eine Methode zur Erzeugung robuster Klassifikatoren mit Hilfe der SVM vorgestellt. Die Einbindung der SVM auf eine ressourcenarme Plattform zeigt die Restriktionen für den Einsatz der SVM für mobile Anwendungen. Die erzielten Resultate werden direkt mit Ergebnissen der Klassifikation durch neuronale Netze verglichen. Dabei schneiden die Netze in fast allen Gütekriterien besser ab. Die These, die SVM sei ein Ersatz für die neuronalen Netze, kann widerlegt werden. Aus den in dieser Arbeit erlangten Erkenntnissen werden weitere Forschungsfragen für zukünftige Arbeiten formuliert.This thesis analyzes the characteristics of the Support Vector Machine (SVM) for the classification of complex biosignals. An approach for the generation of robust classifiers for such kind of data using the SVM is presented. Biological data exhibit several factors that complicate automatic classification processes. They are distributed in a highly imbalanced way and show many inter- and intra-individual variations. Furthermore, the expert scorings as base of supervised learning can differ to a certain extent, caused by the complexity of the problems. In the validation step we focus on sleep EEG data to verify the developed method. The SVM is a recognized and recommended method for a variety of application tasks. In analyzing the SVM, the advantages and disadvantages of this method are highlighted. Moreover, this work will address optimizations in all stages of the modeling. This thesis demonstrates, that the SVM classifier strongly depends on the characteristics of chosen training data, influencing both, the complexity and the resulting classification quality. Based on artificial problems it illustrates, how the SVM deals with imbalanced and untypical data depending on the SVM-parameter. As a consequence, training data are modified to optimize the model. With the developed algorithm, the DiLa filter, this thesis presents a novel and universal method for data filtering and proves its performance, using real data. Furthermore a new multi-criteria genetic algorithm for parameter optimization, the SIGA, is integrated. Introducing a new genetic operation, the immigration, this algorithm improves the convergence of genetic algorithms. When statistical dependencies between consecutive classifications are available, these in turn can be applied for context-based prediction on the one hand and can be used for the combination of several SVM-classifiers (Bagging) on the other hand. As a result, an approach for the generation of robust classifiers using the SVM is presented. The implementation of SVM software in an embedded resource-limited platform shows the restrictions for the use of SVM for mobile applications. The achieved results are directly com-pared with the results of the neural networks. Thereby the neural networks obtain better results in almost any quality criteria. The hypothesis that the SVM replaces neural networks can thus be disproven. From the findings of this thesis future research questions are identified

    Das Internet der Dinge für Bildung nutzbar machen

    Get PDF
    corecore