7 research outputs found

    Entwicklung eines Expertensystems für die Planung kerntechnischer Rückbauprojekte

    Get PDF
    Der Rückbau einer kerntechnischen Anlage ist ein Großprojekt mit geschätzten Rückbaukosten von mehreren hundert Millionen Euro und einer Projektlaufzeit von mehr als zehn Jahren. Aufgrund von politischen, technischen oder ökonomischen Gründen nimmt die Anzahl an rückzubauenden kerntechnischen Anlagen stetig zu. Während der Planung und Durchführung kerntechnischer Rückbauprojekte sind vielfältige Bedingungen und Vorgaben zu beachten. Des Weiteren sind die aufgrund weniger Erfahrungswerte bestehenden Unsicherheiten zu berücksichtigen. Um diese Unsicherheiten so gut wie möglich zu reduzieren, sollten die bereits gemachten Erfahrungen für die Planung genutzt sowie die noch kommenden Erfahrungen im Rückbau kerntechnischer Anlagen bestmöglich dokumentiert werden. Auf der Basis dokumentierter Erfahrungen können zukünftige Rückbauprojekte deutlich genauer und effizienter geplant werden. Das Ziel dieser Studie besteht in der Entwicklung eines Expertensystems für den Rückbau kerntechnischer Anlagen. Zunächst wird eine Erfahrungsdatenbank entwickelt, die Teil des Expertensystems ist. In der Erfahrungsdatenbank können Erfahrungswerte dokumentiert werden. Auf Basis einer Anforderungsanalyse wird ein konzeptionelles Datenmodell erstellt, welches nach der Auswahl des relationalen Datenbankmodells als Ziel-Datenbankmanagementsystem schließlich in ein auf dieses abgestimmte logische Datenbankdesign umgewandelt wird. Das logische Datenbankdesign wird in Microsoft Access implementiert. Für ein neu zu planendes kerntechnisches Rückbauprojekt soll durch gezielte Abfragen auf die in der Erfahrungsdatenbank gespeicherten Erfahrungswerte zugegriffen werden. Hierzu werden im Expertensystem regelbasierte Abfragen erstellt, mit denen relevante Erfahrungswerte für ein neu zu planendes kerntechnisches Rückbauprojekt aus der Erfahrungsdatenbank gefiltert und exportiert werden können

    Konzeption und prototypische Entwicklung einer Web-Applikation für kollaboratives Schreiben fiktiver Texte im Rollenspiel-Stil

    Get PDF
    Die vorliegende Bachelor-Arbeit beschreibt die Konzeption und prototypische Entwicklung einer Web-Applikation für kollaboratives Schreiben fiktiver Texte im Rollenspiel-Stil. Sie klärt dabei die Frage, wie eine Web-Applikation für kollaboratives Schreiben fiktiver Texte im Rollenspiel-Stil funktions-technisch und software-technisch umgesetzt werden kann. Die Applikation soll sowohl sequentielles als auch reagierendes kollaboratives Schreiben unterstützen. Der Prototyp dieser Applikation wurde mittels Requirements Engineering entwickelt. Bei der Analyse wurden funktionale und nicht-funktionale Anforderungen über die Definitionen für Rollenspiele (J. Arjoranta, 2011) und kollaboratives Schreiben (Paul Benjamin Lowry, Aaron Curtis und Michelle René Lowry, 2004) aufgestellt. Anschließend wurde ein Funktionsumfang der Grundfunktionen und Erweiterungen erarbeitet. Zudem wurden vorhandene und aktuell verwendete Applikationen für kollaboratives Schreiben und Schreibrollenspiele auf ihren Funktionsumfang analysiert. Durch den Vergleich der Funktionsumfänge wurde so herausgestellt, dass eine Applikation für kollaboratives Schreiben fiktiver Texte benötigt wird. Im praktischen Teil der Thesis wurden Entwurfsmuster für die Web-Applikation er-stellt. Dazu wurden Use-Case-Diagramme und -Beschreibungen angefertigt. Außerdem wurden Sequenzdiagramme der technischen Abläufe der einzelnen Use-Cases beschrieben. Implementiert wurde die Web-Applikation ausgehend von der Anforderungsanalyse mit einem RESTful Web-Service und Web-Client. Der Web-Service basiert auf Java Spring und einer relationalen Datenbank. Der Web-Client wurde auf Basis von JavaScript, Backbone.js, jQuery, HTML 5 und CSS 3 entwickelt. Der vorläufige Prototyp wurde auf Basis einer qualitativen und quantitativen Umfrage evaluiert. Auf Grundlage der Evaluationsergebnisse wurde der Prototyp angepasst. Ergebnis der Arbeit ist ein evaluierter und verbesserter Prototyp für kollaboratives Schreiben fiktiver Texte im Rollenspiel-Stil

    Generisches Mehrbenutzer-Framework auf Basis von Node.js und Webtechnologien am Beispiel eines Stundenplan-Gestalters

    Get PDF
    Einleitend wird der Kontext der Aufgabenbeschreibung vorgestellt. In einer Umgebung, in der Internet jederzeit und überall abrufbar ist, macht die Entwicklung von Web-Applikationen gegenüber systemeigenen Applikationen immer mehr Sinn. Hier gilt es, die im Multimedia- Bereich etablierte Flash-Programmierung wegen des immer geringer werdenden Supports durch offene Lösungen des HTML5-Standards zu ersetzen. Konkret wird dies hier mit dem Canvas-Element gelöst. Außerdem dienen WebSockets der Synchronität in Echtzeit zu kollaborativen Zwecken. In Kapitel zwei geht es um die Theorie, die dem Framework zugrunde liegt. Es ist in zwei Abschnitte eingeteilt. Im ersten Abschnitt werden Vor- und Nachteile sowie Konzepte von generischen Frameworks aufgezeigt. Weiterhin wird auf funktionale und nicht-funktionale Anforderungen an derartige Frameworks eingegangen. Beendet wird der Abschnitt mit der Vorstellung einiger Frameworks, die in der Praxis häufig verwendet werden. Der zweite Abschnitt befasst sich mit Kollaboration im Zusammenhang mit Echtzeit-Webanwendungen. Zu Beginn wird erläutert, wie die Begriffe „Kollaboration“, „Echtzeit“ und „Web- Anwendung“ definiert sind. Im weiteren Verlauf wird auf Techniken der Kollaboration in der Raum-Zeit-Klassifizierung eingegangen. Abgeschlossen wird das Kapitel mit der Vorstellung diverser technischer Umsetzungsmöglichkeiten sowie einem Beispiel aus der Praxis. Kapitel drei befasst sich mit den Webtechnologien, die im Rahmen dieser Thesis verwendet werden. Der erste Teil des Kapitels beinhaltet neben einer Kurzzusammenfassung über die Neuerungen in HTML5 eine detaillierte Vorstellung des HTML5-Canvas und der WebSockets. Es folgt ein kurzer Abriss über die Programmiersprache JavaScript. Im zweiten Teil des Kapitels wird Node.js als serverseitige Infrastruktur präsentiert. Weiterhin werden Produkte für die serverseitige Speicherung der Daten vorgestellt und verglichen. Zum Abschluss werden einige Canvas-Bibliotheken gegenübergestellt. Kapitel vier beschäftigt sich mit den konkreten Anforderungen an das Framework. Sie sind gegliedert in Oberfläche, Anwendung, Technik und Implementierung. Als letztes Kapitel des Hauptteils beinhaltet Kapitel fünf die Konzeption und Implementierung des Frameworks. Nach einer kurzen Übersicht über die Dateistruktur folgen konkrete Konzepte zur Client-Server-Kommunikation. Es wird verglichen, wie Design und Funktionalität des aktuellen Flash-Stundenplan-Gestalters Verwendung im Prototyp der zu entwickelnden HTML5-Version finden. Schließlich werden Entwurf und Umsetzung des Frameworks mit Codebeispielen präsentiert. Abschließend wird ein Zwischenfazit zur Implementierung gezogen, welches auf Schwierigkeiten und Erkenntnisse im Entwicklungsprozess sowie mögliche Funktionen in künftigen Versionen eingeht

    «Dipl. Informatiker:in HF» : Bildungsbedarfsanalyse zur Überprüfung der Praxisorientierung des Lehrgangs

    Get PDF
    Es gibt einen Mangel an ICT-Fachkräften in der Schweiz. Bis im Jahr 2030 ist mit einem Bedarf an 119’700 ICT-Fachkräften zu rechnen – es besteht ein zusätzlicher Bildungsbedarf von etwa 38’300 Fachkräften. Um diesen Bildungsbedarf decken zu können, spielen die Höheren Fachschulen eine wichtige Rolle. Die Bildungsinstitution HSO will neu den Lehrgang «Dipl. Informatiker:in HF» anbieten. Um praxisorientierte Aus- und Weiterbildungen entwickeln zu können, muss bekannt sein, welche Kompetenzen Unternehmen von ICT-Fachkräften erwarten. Im Rahmenlehrplan sind diese Kompetenzanforderungen an die Absolventinnen und Absolventen des Lehrgangs definiert. Das Ziel der vorliegenden Untersuchung war es, zu eruieren, inwieweit die im Rahmenlehrplan «Dipl. Informatiker: in HF» definierten Kompetenzanforderungen an ICT-Fachkräfte mit den Anforderungen des Schweizer Arbeitsmarkts bereits übereinstimmen und wo noch Anpassungsbedarf besteht. Für die Untersuchung wurde eine Bildungsbedarfsanalyse durchgeführt. Sie basierte auf einer Auswertung der Fachliteratur und der Analyse von 54 Online-Stelleninseraten mit insgesamt 747 Kompetenzanforderungen. Diese wurde mittels Text Mining unter Verwendung der Programmiersprache Python in der Entwicklungsumgebung Jupyter Notebook durchgeführt. Die Analyseergebnisse wurden anschliessend durch ein Experteninterview erweitert und validiert. Die Untersuchung ergab, dass die Kompetenzanforderungen im Rahmenlehrplan mit denjenigen auf dem Schweizer Arbeitsmarkt vor allem in fünf Punkten nicht übereinstimmen: Datenanalyse/-wissenschaft; Entwickeln/Durchführen, Anwenderbetreuung/Service- Administration/Systemmanagement, Management von Geschäftsbeziehungen, Anwendungs- und Produktorientierung. Der Bildungsinstitution HSO wird auf dieser Basis für die Konzeption des Lehrgangs «Dipl. Informatiker:in HF» konkret unter anderem empfohlen: Ein Qualifikationsprofil, das Kompetenzen auf Arbeitssituationen bezieht; ein daraus abgeleiteter Lernzielkatalog; eine diversifizierte und praxisorientierte Modulplanung

    Robuste und kontextbezogene Ausführung mobiler Aktivitäten in Prozessumgebungen

    Get PDF
    IT-Trendanalysten sehen das Thema "Mobilität" als eine wichtige Säule nachhaltiger IT-Lösungen. Der Trend in Richtung mobiler IT-Anwendungen wird maßgeblich durch Millenials getrieben, d.h. Menschen die mit dem digitalen Zeitalter aufgewachsen sind. Diese erwarten insbesondere auch eine Integration von Smart-Mobilgeräten in bestehende IT-Lösungen. In Bezug auf Prozess-Management-Technologie bedeutet dieser Trend, dass Smart-Mobilgeräte in IT-gestützte Arbeits- bzw. Prozessabläufe nahtlos integriert werden können müssen. Insbesondere sollten sowohl einzelne Aktivitäten (d.h. Prozessschritte) als auch ganze Prozessfragmente (d.h. Ausschnitte eines Prozesses) auf Smart-Mobilgeräten ausführbar sein. Die vorliegende Arbeit adressiert eine solche Integration von Prozess-Management-Technologie und Smart-Mobilgeräten. Konkret wird untersucht, wie ausgewählte Aktivitäten eines Prozesses robust und kontextbezogen auf Smart-Mobilgeräten ausgeführt werden können und welche weitergehenden Anforderungen sich für mobil ausgeführte Aktivitäten im Vergleich zur Ausführung von Aktivitäten auf stationären Systemen ergeben. Da Smart-Mobilgeräte beschränkte Ressourcen besitzen und das Risiko eines Ausfalls höher als bei stationären Systemen ist, erfordern diese Aspekte tiefergehende Untersuchungen. Darüber hinaus erfordert die Unterstützung mobiler Aktivitäten eine technische Umgebung, in der Prozesse ausgeführt werden (sog. Prozessumgebung). Die Arbeit zeigt, dass die nahtlose Integration von Smart-Mobilgeräten in eine Prozessumgebung einen mobilen Kontext (d.h. Attribute wie z.B. Ausführungsort, Geräteeigenschaften und Netzverbindung) erfordert. Auf dessen Basis wird ein umfassendes Rahmenwerk eingeführt, mit dem sich mobile Aktivitäten robust und kontextbezogen in einer Prozessumgebung ausführen lassen. Das Rahmenwerk fußt auf fünf technischen Säulen, deren Konzepte die robuste und kontextbezogene Ausführung bewerkstelligen. Darüber hinaus wird gezeigt, wie sich die vorgestellte Lösung in existierende Prozess-Management-Technologie integrieren lässt. Insgesamt eröffnet eine robuste und kontextbezogene Ausführung mobiler Aktivitäten in einer Prozessumgebung neue Perspektiven für die Einbindung von Endanwendern in ihre Prozesse

    Orts-, zeit- und kostenbasiertes Ressourcenmanagement im Cloud Computing

    Get PDF
    Cloud Computing bietet dem Nutzer die Möglichkeit, virtualisierte Applikationen, Plattformen und sogar Hardware wie Dienste zu nutzen. Der bereitstellende Provider kann die nötige Dienstkapazität in der Cloud elastisch an den aktuellen Bedarf anpassen. Durch die beliebige Ressourcenzuschaltung erwächst jedoch eine erhebliche ökologische und ökonomische Verantwortung. Zudem wird meist teuer überprovisioniert, um im Falle von Lastspitzen das Ablehnen von Anfragen zu vermeiden. Bis heute bietet noch kein Anbieter eine voll automatisierte Lösung zum optimalen Ressourcenmanagement an. Zur Gewährleistung der Skalierbarkeit eines Cloud-basierten Systems bestehen lediglich regelbasierte Mechanismen. Der Nutzer muss die Logik manuell einstellen, um die benötigte Anzahl an Maschinen und ihre Lokalität festzulegen. So sind viele Fragen zu der Ressourcenverwaltung und den entstehenden Kosten für den Cloud-Anwender ungelöst. In dieser Arbeit wird ein Protokoll entwickelt, das eine verbesserte Reihenfolge der Anfragenbearbeitung festlegt und die nötige Ressourcenmenge bestimmt. Die Ressourcenzuteilung basiert zum einen auf der Bedarfsreservierung durch die Ressourcen. Zum anderen kann das Nutzungsverhalten durch den Dienst beeinflusst werden. Die Simulationsergebnisse zeigen so stark reduzierte Antwortzeiten und Verwurfsraten. Im Cloud-Umfeld ist die effiziente Bearbeitung der Anfragen allerdings häufig aufgrund von Abhängigkeiten zwischen den dienstbetreibenden Maschinen beeinträchtigt. Deshalb wird das Protokoll um einen Selbstkalibrierungsmechanismus und ein Ressourcenregelverfahren erweitert. Mit der Abbildung der Abhängigkeiten auf einen Graphen ist das Gesamtsystem skalierbar, ohne die Auslastung aller Ressourcen einzeln kontrollieren zu müssen. Vom menschlichen Benutzer kann man jedoch keine Vorabreservierung bezüglich des Zeitpunkts seiner Dienstnutzung fordern - so wie das von Maschinen problemlos möglich ist. Für diesen Fall ermöglicht die vorliegende Arbeit deshalb die Extrapolation der Nutzerdaten aus Aufzeichnungen sozialer Netzwerke. Ohne Belastung der Anwender wird die Identifikation des Ressourcenbedarfs an einem bestimmten Ort realisiert. Für eine solche Systemadaption führt der in dieser Arbeit entworfene Algorithmus eine ortsspezifische Vorhersagende der nötigen Ressourcenanzahl durch. Diese Informationen dienen als Input für das entwickelte Protokoll und bieten so eine wohlproportionierte Provisionierung. Die bei Skalierungen entstehenden Kosten sind meist schwer abzuschätzen. Aus diesem Grund werden im Verlauf dieser Arbeit Kostenfunktionen für den Nutzer und den Anbieter erstellt. Sie machen das optimale Mittel zwischen geringeren Kosten bei niedriger Ressourcenmenge und höherer Nutzerzufriedenheit bei großzügiger Kapazitätsabdeckung berechenbar. Eine prototypische Umsetzung einschließlich verschiedener Simulationen zeigt, dass die entwickelten Ansätze ein deutlich verbessertes automatisiertes Ressourcenmanagement umsetzen.Cloud computing offers the possibility to use virtual applications, platforms and even hardware as a service. The cloud provider can elastically adapt resource capacity to the users' demand. However, from any desired resource provisioning also an enormous ecological and economical responsibility accrues. Besides, often costly overprovisioning is conducted in order to avoid request drops on load peaks. Until today, instance allocation is not yet fully automated by vendors. Only rule-based mechanisms exist to react on load changes. The user needs to manually implement logics for defining the amount of resources, as well as the instance location. Hence, many questions about resource management and emerging costs remain. In this work, a protocol is developed, which defines an optimal schedule for all clients and needed resources. The resource management is based on the demand reservation by the user. On the other hand the client usage can be delayed by the cloud service. The simulation shows good results regarding response times and drop rates. Efficient scheduling in cloud systems, however, is often restricted by dependencies among the claimed resources. For that reason, the protocol was extended by a self-calibration- and a resource-regulation-method. With an appropriate mapping, it is possible to scale the whole system based on the dependency model without observing each instance utilization. Human users can - contrary to machines - not be forced to determine their service usage in advance. By extrapolating records of the social Web, resource demands can be procured without burden the user. With this data, increasing load on popular services at a specific location can be deducted and resources can be scaled accordingly. For system adaptation, the algorithm presented in this work enables location-based determination of required resource amounts. This serves as input for the developed protocol, while offering well-proportioned provisioning. On scaling, generally emerging costs are difficult to estimate. For that reason cost functions for users and providers are developed. This enables the finding of an optimized trade-off between low emerging costs and a high user satisfaction. Proven by prototypical implementation and simulations, all developed approaches enable an optimized and automated resource management

    A microservice architecture for the processing of large geospatial data in the Cloud

    Get PDF
    With the growing number of devices that can collect spatiotemporal information, as well as the improving quality of sensors, the geospatial data volume increases constantly. Before the raw collected data can be used, it has to be processed. Currently, expert users are still relying on desktop-based Geographic Information Systems to perform processing workflows. However, the volume of geospatial data and the complexity of processing algorithms exceeds the capacities of their workstations. There is a paradigm shift from desktop solutions towards the Cloud, which offers virtually unlimited storage space and computational power, but developers of processing algorithms often have no background in computer science and hence no expertise in Cloud Computing. Our research hypothesis is that a microservice architecture and Domain-Specific Languages can be used to orchestrate existing geospatial processing algorithms, and to compose and execute geospatial workflows in a Cloud environment for efficient application development and enhanced stakeholder experience. We present a software architecture that contains extension points for processing algorithms (or microservices), a workflow management component for distributed service orchestration, and a workflow editor based on a Domain-Specific Language. The main aim is to provide both users and developers with the means to leverage the possibilities of the Cloud, without requiring them to have a deep knowledge of distributed computing. In order to conduct our research, we follow the Design Science Research Methodology. We perform an analysis of the problem domain and collect requirements as well as quality attributes for our architecture. To meet our research objectives, we design the architecture and develop approaches to workflow management and workflow modelling. We demonstrate the utility of our solution by applying it to two real-world use cases and evaluate the quality of our architecture based on defined scenarios. Finally, we critically discuss our results. Our contributions to the scientific community can be classified into three pillars. We present a scalable and modifiable microservice architecture for geospatial processing that supports distributed development and has a high availability. Further, we present novel approaches to service integration and orchestration in the Cloud as well as rule-based and dynamic workflow management without a priori design-time knowledge. For the workflow modelling we create a Domain-Specific Language that is based on a novel language design method
    corecore