4 research outputs found

    Integration von Persistenzkonzepten in eine Prototyping-Sprache und Realisierung mit Hilfe eines Nicht-Standard-Datenbanksystems

    Get PDF
    Die mengentheoretisch-orientierte Prototyping-Sprache ProSet unterstützt die Modellierung von Programmen und von Daten. Hierzu stellt die Programmiersprache neben den üblichen primitiven Typen Mengen, Tupel, Funktionen und Moduln als grundlegende Datentypen zur Verfügung. Desweiteren bietet ProSet die Möglichkeit Daten persistent zu machen, d.h. Daten oder Programmeinheiten über eine Programmausführung hinweg zu erhalten und sie anderen Programmen zugänglich zumachen. Operationen auf persistenten Daten werden in ProSet im Rahmen von geschachtelten Transaktionen ausgeführt. Zudem werden Mittel zur expliziten Parallelprogrammierung zur Verfügung gestellt.Prototyping ist Teil eines umfassenden Software-Entwicklungsprozesses, der durch eine offene, integrierte Software-Entwicklungsumgebung (SEU) unterstützt werden sollte. Die Komponenten der SEU sollten in mehrfacher Hinsicht integriert sein. Portable Common Tool Environment (PCTE) ist ein internationaler Standard, der u.a. ein verteiltes, strukturell objektorientiertes Datenbankmanagementsystem definiert, welches wiederum die Datenintegration unterstützt.Die Aufgabe der Diplomarbeit besteht in der Realisierung der in ProSet integrierten Konzepte und Mechanismen persistenter Daten mit Hilfe des Nicht-Standard-Datenbanksystems H-PCTE. Dabei muß insbesondere die Integration des Systems in eine Software-Entwicklungsumgebung (SEU) berücksichtigt werden. Desweiteren sollen die programmiersprachlichen Anforderungen an das Prototyping mit persistenten Daten analysiert werden. Auf der Basis dieser Analyse sollen die bisherigen Persistenzkonzepte erweitert, gegebenenfalls in die Sprache integriert und anschließend realisiert werden.Die Diplomarbeit umfaßt folgende Teilaufgaben:Zunächst soll die Verwaltung der persistenten Daten mit Hilfe von H-PCTE realisert werden. Dies erfordert folgende Schritte: Entwicklung eines Datenbankschemas für die persistenten Daten. Das Datenmodell von PCTE basiert auf einem Entity-Relationship-Attribut-Modell. Entwurf und Implementierung einer Objektverwaltungsschnittstelle, über welche die Dienste von H-PCTE benutzt werden können. Diese Schnittstelle soll auf den Bedarf von ProSet sowie von Werkzeugen der SEU bezüglich der Verwaltung persistenter Daten zugeschnitten sein. Diese beiden Schritte werden in Zusammenarbeit mit Jörg Heinrich durchgeführt, der in einer weiteren Diplomarbeit Werkzeuge zur Verwaltung der persistenten Daten entwickelt. Der gemeinsame Anteil ist auf die persistente Datenhaltung von primitiven und zusammengesetzten ProSet-Datentypen sowie auf die Implementierung von allgemein benötigten Diensten beschränkt. Im Rahmen dieser Diplomarbeit soll das Datenbankschema sowie die Objektverwaltungsschnittstelle für die höheren ProSet-Datentypen function, mod_type und instance erweitert werden. Zudem soll der Transaktionsmechanismus von ProSet realisiert werden. Die Arbeit ist jedoch auf sequentielle ProSet-Programme beschränkt. Alle Operationen müssen zudem für das Laufzeitsystem von ProSet zur Verfügung gestellt werden. Eine Teilaufgabe besteht in der Analyse der programmiersprachlichen Anforderungen an das Prototyping mit persistenten Daten. In diesem Rahmen sollen weitere Persistenzkonzepte betrachtet und im Hinblick auf ihre Eignung für das Prototyping eingeordnet werden. Einige der betrachteten Konzepte sollen in ProSet integriert und anschließend realisiert werden. Hierbei können beispielsweise Schutzmechanismenbehandelt werden. Ziel dieser Arbeit ist, zusammen mit der von Jörg Heinrich durchgeführten Diplomarbeit, die Realisierung der Verwaltung persistenter Daten in einer Prototyping-Umgebung. Dies beinhaltet sowohl die Unterstützung der Entwickler und der Benutzer von Prototypen als auch der Datenbankadministratoren

    Meta-Modellierung in EIA/CDIF

    Get PDF
    Die vorliegende Arbeit setzt sich folgende Ziele: - erstmals den seit 1987 entwickelten EIA/CDIF-Standard systematisch und umfassend in zusammenhängender Form darzustellen, mit entsprechenden Quellen zu verknüpfen und damit einer wissenschaftlichen Diskussion zuzuführen, - die Detailliertheit der Darstellung der EIA/CDIF-Standards so zu wählen, daß wissenschaftliche Einrichtungen und Unternehmen imstande sind, EIA/CDIF-Meta-Modelle selbständig zu erstellen beziehungsweise zu evaluieren, - erstmals das hypothetische „Integrierte EIA/CDIF-Meta-Modell“ auf Basis der per 1. Jänner 1998 standardisierten EIA/CDIF-Meta-Modelle zu erstellen und im Rahmen dieser Arbeit zu dokumentieren; - erstmals Auswertungen über sämtliche bis 1. Jänner 1998 standardisierte EIA/CDIF-Meta-Modelle so aufzubereiten, daß sie einerseits Einsichten in die Struktur geben und andererseits auch für weitere Arbeiten und Auswertungen weiterverwendbar sind, - erstmals ein EIA/CDIF-konformes Meta-Modell zu definieren, das demonstrieren soll, wie man strukturelle Informationen auf der Meta-Modellebene ohne Änderung am Meta-Meta-Modell erfassen und auswerten kann, - Spezifikationen des EIA/CDIF-Standards für die Verteilung von EIA/CDIFMeta-Modelldaten und Modelldaten mit Hilfe von OMG’s CORBA beziehungsweise der OMG IDL so einzuarbeiten, daß sie im Kontext der entsprechenden Modellierungsschichten dargestellt und verstanden werden können, - erstmals Spezifikationen für relationale Datenbankverwaltungssysteme für die Abbildung des EIA/CDIF-Meta-Meta-Modells zu entwerfen und öffentlich zu dokumentieren, - erstmals Spezifikationen für die objektorientierte Programmiersprache Object Rexx für die Abbildung des EIA/CDIF-Meta-Meta-Modells zu geben, um damit die Repräsentation der Konzepte direkt in Form von Klassenhierarchien und den zu den Klassen gehörenden Attributmethoden zu ermöglichen

    Gewinnung, Verwaltung und Anwendung von Performance-Daten zur Unterstützung des autonomen Datenbank-Tuning

    Get PDF
    In den letzten Jahrzehnten ist die Komplexität und Heterogenität von Informationssystemen rapide gestiegen. Die Folge ist, dass viele moderne IT-Systeme aufgrund ihrer heterogenen Architektur- und Applikationsvielfalt sehr kostenintensiv in der Entwicklung, fehleranfällig in der Nutzung und schwierig durch Administratoren kontrollier- bzw. konfigurierbar sind. Initiativen wie das Autonomic Computing helfen, der steigenden Komplexität Herr zu werden, indem sie den „Problemfaktor Mensch“ entlasten und Technik nutzen, um Technik zu verwalten. Durch die Anpassung bzw. Erweiterung der System-Umgebung versuchen derartige Ansätze neben derzeitiger manueller, reaktiver Performance-Optimierung, eine automatisierte reaktive und proaktive Performance-Kontrolle zu gewährleisten. Zentrale Grundvoraussetzung für eine autonome Infrastruktur ist eine verlässliche, globale Daten- bzw. Wissensbasis. Wir erarbeiten, wie Performance-Daten über das Verhalten und den Zustand des Systems mit aus dem Data-Warehousing bekannten Techniken gesammelt, konsolidiert, verwaltet und zur Laufzeit ausgewertet werden können. Neben der Architektur und den funktionalen Komponenten eines solchen Performance Data Warehouse wird zudem dessen Datenmodell erläutert und die Anbindung an das vorausgehende Monitoring sowie die nachfolgende Analyse spezifiziert. Mit dem Ziel, die menschliche Vorgehensweise „nachzuahmen“ und somit die Administratoren bei ihren Routine-Tätigkeiten zu entlasten, widmen wir uns der Konzipierung und Beschreibung einer möglichen Infrastruktur zur Automatisierung typischer Tuning-Aufgaben. Wir erarbeiten allgemein und anhand von Beispielen, wie Tuning-Wissen und bewährte Praktiken von DBAs abgebildet, in Form von Workflows formalisiert und zur Laufzeit für die Problemlösung angewendet werden können

    Lernen, Lehren und Forschen in einer digital geprägten Welt. Gesellschaft für Didaktik der Chemie und Physik. Jahrestagung in Aachen 2022

    Full text link
    Die Tagung der Gesellschaft für Didaktik der Chemie und Physik (GDCP) fand vom 12. bis zum 15. September 2022 an der RWTH Aachen statt. Der vorliegende Band umfasst die ausgearbeiteten Beiträge der Teilnehmenden zum Thema: "Lernen, Lehren und Forschen in der digital geprägten Welt"
    corecore