233 research outputs found

    Reengineering von Kernanwendungssystemen auf Großrechnern

    Get PDF
    Nach der Euro-Einführung und der Jahr-2000-Umstellung stellt der Umbau der heutigen Kernanwendungssysteme auf den Großrechnersystemen unter z/OS die nächste große Herausforderung dar, insbesondere bei Unternehmen im Financial-Services-Bereich (Banken und Versicherungen). Der vorliegende Beitrag führt in die Systemarchitektur einer „Transaktionsmaschine“ ein, die als Middlewarekomponente für das Reengineering von Kernanwendungssystemen verwendet werden kann. Die Transaktionsmaschine stellt einen neuartigen Ansatz dar, der geeignet ist, die Herausforderungen im zentralen Serverbereich der großen Unternehmen und staatlichen Organisationen zu adressieren. Der Fokus liegt hierbei auf dem Entwurf der abstrakten Systemarchitektur und deren Charakteristika, geprägt durch funktionale und nichtfunktionale Anforderungen. Als praktische Beispielszenarien werden Projekterfahrungen der Firma IBM im Umfeld von Abwicklungssystemen bei Transaktionsbanken aufgezeigt.This Paper introduces a new System Architecture of a Transaction Engine which can be used as a middleware component to reengineer core application systems. Starting with the requirement analysis in an existing customer environment and mapping these to key design criteria’s this paper leads to the design of an abstract System Architecture. At the end we show how this Transaction Engine could be used in a real customer environment as a platform for reengineering core application systems. We are using some practical example scenarios based on IBM’s experience in the transaction banking area

    SCC-News. 2019,1

    Get PDF

    Informatics Inside : Grenzen überwinden - Virtualität erweitert Realität : Informatik-Konferenz an der Hochschule Reutlingen, 11. Mai 2011

    Get PDF
    Die Informatics Inside-Konferenz findet in diesem Jahr zum dritten Mal statt. Mit dem Thema "Grenzen überwinden – Virtualität erweitert Realität" stellt sich die Veranstaltung einem aktuellen Schwerpunkt, der viele Interessierte aus Wirtschaft, Wissenschaft und Forschung anzieht. Die Konferenz hat sich von einer Veranstaltung für die Masterstudenten des Studiengangs Medien- und Kommunikationsinformatik zu einer offenen Studentenkonferenz entwickelt. Um die Qualität weiter zu steigern wurde parallel dazu ein zweistufiges Review-Verfahren für Beiträge dieses Tagungsbandes eingeführt

    Analyse und Prognose von Umweltdaten in Geschäftsprozessen

    Get PDF
    Die Mehrzahl der Geschäftsprozessen, die in den heutigen Unternehmen laufen, werden von der IT unterstützt. Diese Prozesse werden in den Rechenzentren der Unternehmen ausgeführt und dadurch entstehen hohe Kosten für den verbrauchten Strom. Eine der Aufgaben, mit denen das Management dabei konfrontiert wird, ist die Senkung dieser Kosten. Davon profitiert die Green IT, die sich in den letzten Jahren von einem Trend hin zu einer neuen Denkweise entwickelt hat. Große IT-Unternehmen setzen auf den Ideen, die Green IT mit sich bringt, weil damit eine große Reduktion der Energiekosten entsteht. Solche Ansätze sind bei Google und Facebook schon vor langer Zeit eine wichtiges Teil der IT-Strategie geworden. Diese neue Ansätze finden man nicht nur beim Bau von neuen Rechenzentren, sondern auch bei Wahl der Software, die darauf läuft. Die Geschäftsprozesse lassen sich optimieren und mit einer besseren Ökobilanz betreiben. Wie das gemacht wird, zeigt das KEI Framework. Es überwacht laufende Prozesse, simuliert neue und sammelt Informationen über den Energieverbrauch der einzelnen Aktivitäten. Damit diese Informationen von den Interessierten ausgewertet werden können, müssen sie graphisch dargestellt werden. Zur Vereinfachung dieser Aufgabe wurde das KEI Dashboard entwickelt. Es setzt auf Ideen aus dem Business Intelligence und stellt die Information, die sich im Data Warehouse befindet, in einer geeigneten und leicht verständlichen Form dem Benutzer zur Verfügung. Der Benutzer ist dann in der Lage, schnell nachvollzuziehen, wo die Problemstellen im Prozess sind. Falls Alternativen vorhanden sind, die sich mit den bestehenden Aktivitäten des Prozesses austauschen lassen, kann der Benutzer die neuen Werte einsetzen und sofort die Verbesserung/Verschlechterung der Ökobilanz des Prozesses zu sehen. Diese Studienarbeit gibt einen Überblick über die Ideen, Konzepte und die Umsetzung, die hinter dem KEI Dashboards stehen

    SCC-News. 2019,2

    Get PDF

    Umsetzung eines sicheren Systems zur Verwaltung und Bereitstellung von Gesundheitsdaten

    Get PDF
    Im Rahmen dieser Arbeit wurden Teile des Backends für das deutsch-griechische Forschungsprojekt ECHO (Enhancing Chronic patients’ Health Online) entwickelt. Das Ziel des Projekts ist es mit Hilfe von Cloud-Computing-Technologien, Data Mining und Smartphones die Situation von Patienten mit chronischen Lungenkrankheiten zu verbessern. Unter anderem soll es für den Patienten möglich sein, jeden Tag Fragen via Smartphone zu beantworten. Diese Antworten sollen bei der Früherkennung von dauerhaften Verschlimmerungen der Krankheit, auch Exazerbationen genannt, helfen. Vor dem Start des ECHO Projekts wurden die Patientendaten und Untersuchungsergebnisse mit Hilfe einer Microsoft Access Datenbank verwaltet. Um die tägliche Dateneingabe zu ermöglichen, musste die Access Datenbank in eine relationale Datenbank überführt werden. Um die Daten vor unautorisiertem Zugriff zu schützen, wurde für jeden Benutzer des Backends ein Datenbankbenutzer erstellt, der nur Zugriff auf die Views und Stored Procedures hat, die er im Rahmen seiner Rolle (Arzt, Patient oder Administrator) benötigt. Zum Zugriff auf die Datenbank wurde eine REST API implementiert, die mittels OAuth 2.0 und TLS/SSL gesichert wurde. Außerdem wurden mögliche Analysen vorgestellt, die auf den erhobenen Daten durchgeführt werden können

    Evaluierung einer cloud-native Entwicklungsumgebung für das modellbasierte Systems Engineering für Raumfahrtsysteme

    Get PDF
    MBSE must support a wide variety of configurations because it works with a variety of soft-ware and interfaces. The resource requirements of the software used can exceed the capaci-ties of a local computer. Cloud computing promises to meet the increasing demands. MBSE tools exist for space systems, but none of these tools take advantage of a cloud environment. In recent years, open-source projects such as Eclipse Theia, EMF.Cloud and Eclipse Che have been developed which make it possible to develop a cloud-native development envi-ronment for MBSE. However, no development environment has yet been implemented that takes advantage of the cloud for computation. To determine the requirements for an MBSE tool in the cloud, a questionnaire with two rounds is conducted. In the first round, requirements are collected as user stories. In the second round, the requirements are categorized according to the Kano model. A total of 52 requirements were identified, of which 19 were identified as enthusiasm, 20 as basic, 3 as performance and 10 as irrelevant. The performance analysis showed that complex computations scale similarly to local execution. If simpler computations are performed, the local computation is significantly faster due to the elimination of the com-munication overhead

    Entwicklung eines Monitoringtool in einer J2EE-Umgebung als Teil eines Community Portals

    Get PDF
    Gegenstand dieser Arbeit ist ein Tool, das das Monitoring von Tabellen über mehrere SAP R/3-Systeme hinweg ermöglichen soll. Es wird in einer J2EE Umgebung implementiert und in ein Community Portal eingebettet. Das Tool soll dabei periodisch, innerhalb von vorgebbaren Zeitabständen automatisch starten. Für diese Aufgabe gibt es ein R/3-Programm, das abgelöst werden soll und dessen Funktionsumfang Grundlage der Neuentwicklung ist. Es müssen drei Tabellen aus den R/3- Systemen gelesen werden: die Tabelle, welche die Loginzeiten der Benutzer je System und Mandant beinhaltet, die Tabellen mit den Systemmeldungen und die mit den Transporten. Die Tabellen werden im neuen Tool über den RFC (Remote Funktion Call) Funktionbaustein RFC_READ_TABLE aus den R/3-Systemen gelesen. Diese Daten werden dann in einer externen Datenbank gespeichert. Um über ein Portal auf die Daten zugreifen zu können, wird eine entsprechende Schnittstelle entwickelt. Die gewünschten Tabellen und Einschränkungen werden über eine Konfigurationsdatei definiert. Somit ist es möglich, nicht nur die drei genannten Tabellen aus den R/3-Systemen zu lesen. Es werden für alle Systeme und deren Mandanten auftretende Fehler dokumentiert, um dem Administrator des Monitors die Möglichkeit zu geben, einfach herauszufinden, warum bestimmte Systeme eventuell nicht ausgelesen werden konnten.. Eine Fehlermeldung aus dem Portal kann, im internen R/3-Fehlermeldungssystem, für das entsprechende System angelegt werden. Zudem wird bei jedem Durchlauf die Anzahl der gelesenen Datensätze je System und Tabelle für mögliche Auswertungen dokumentiert. Abschliessend werden Erweiterungen beschrieben, welche in möglichen weiteren Versionen umgesetzt werden könnten. Dazu müssen allerdings noch eingehendere Vor- und Nachteils Betrachtungen angestellt werden
    corecore