28 research outputs found

    DynaMod: Dynamische Analyse für modellgetriebene Software-Modernisierung

    Get PDF
    Erfolgreiche Softwaresysteme leben lange. Gleichzeitig sind diese jedoch der enormen Geschwindigkeit der Fortentwicklung der technischen Komponenten und Plattformen unterworfen, so dass die Anwendungen technisch sehr schnell altern. Von dieser Alterung sind jedoch nicht nur Programmiertechniken betroffen, sondern auch die Softwarearchitekturen erodieren sehr schnell. Um dieser Alterung entgegenzuwirken, neue technologische Potentiale zu nutzen und auch auf zukünftige Anforderungen flexibel reagieren zu können, ist eine kontinuierliche Modernisierung von Softwaresystemen erforderlich. Bei der Neuentwicklung von Softwaresystemen hat sich mit der Modellgetriebenen Softwareentwicklung (Model-Driven Software Development, MDSD) ein Konzept etabliert, das eine elegante Lösung dieser Problematik bietet: Anstatt das System vollständig in einer technischen Programmiersprache zu entwickeln, werden fachliche Aspekte mittels geeigneter, abstrakter Modellierungssprachen dargestellt. Hierbei handelt es sich oftmals um sogenannte domänenspezifische Sprachen (Domain Specific Languages, DSLs), die speziell auf die betreffende Anwendungsdomäne zugeschnitten sind und dadurch eine knappe und präzise Formulierung der relevanten Sachverhalte ermöglichen. Die Überführung dieser abstrakten Modelle in technische Artefakte, beispielsweise Quellcode in einer Programmiersprache, wird automatisiert durch Codegeneratoren vorgenommen. Auf diese Weise ist es möglich, durch Anpassung der Generatoren die Implementierung der Modelle zu verändern, ohne Modifikationen an den zugrundeliegenden Modellen vornehmen zu müssen. Im Gegensatz zu Neuentwicklungen stehen bei vielen Bestandssystemen keine derartigen Modelle zur Verfügung. Klassische Ansätze der Modernisierung von Bestandssystemen versuchen stattdessen, die im Quellcode unmittelbar codierten Strukturen des bestehenden Systems automatisiert in Quellcode des Neusystems zu überführen. Da durch diesen Ansatz eine Transformation auf sehr elementarer Ebene stattfindet, kann dieser Ansatz der zuvor erwähnten Erosion der Anwendungsarchitektur nicht begegnen. Zudem ist auch die Übertragung elementarer Strukturen zwischen Programmiersprachen nicht trivial; häufig muss in der Zielsprache das originäre Konstrukt mit zusätzlichem Aufwand simuliert werden. Dadurch kommt es zu einer Aufblähung des Quellcodes, was der Wartbarkeit abträglich ist. Zuletzt bleiben technologische Potentiale der Zielplattform häufig ungenutzt, da das ursprüngliche System letztlich strukturuell unverändert übertragen wird. Im DynaMod-Projekt wurde mit der modellgetriebenen Modernisierung (Model Driven Modernisation, MDM) ein neuer, innovativer Ansatz untersucht, Modelle aus bestehenden Softwaresystemen abzuleiten, die in einem MDSD-Prozess genutzt werden können und dem Bestandssystem auf diese Weise die zuvor beschriebene Flexibilität der Implementierung verleiht. Zur Ableitung dieser Modelle werden nicht nur die statischen Strukturen des Softwaresystems betrachtet; ein besonderer Schwerpunkt ist die Nutzung dynamischer Analyseverfahren, d.h. der Untersuchung des Verhaltens des Softwaresystems zur Laufzeit. Diese dynamischen Analysen erlauben Einblick in die tatsächliche Nutzung des Systems durch die Nutzer und produziert somit Informationen, die zur Modernisierung eines Systems unabdingbar sind. Von besonderem Interesse ist eine gleichzeitige Betrachtung statisch und dynamisch gewonnener Informationen, eine sogenannte hybride Analyse. Hierbei entfaltet die Nutzung abstrakter Modelle eine besondere Stärke, da die Modelle eine Plattform bieten, auf der die verschiedenen Daten zusammengeführt werden können. Auch Daten aus anderen Quellen, beispielsweise Expertenwissen, können den Modellen hinzugefügt werden und führen Wissen auf der Semantikebene hinzu, das automatisiert nicht erhoben werden kann. Auf diese Weise zeigen die Modelle ein strukturiertes und umfangreiches Bild der Anwendung, das als Grundlage für eine Modernisierung dienen kann. Neben der eigentlichen Modernisierung lag ein weiterer Fokus auf der Nutzung der gewonnenen Analysedaten zum systematischen Testen der modernisierten Anwendung. Hier bestand das Ziel darin, Methoden zu entwickeln und zu erproben, die Tests zur Prüfung funktionaler und nicht-funktionaler Eigenschaften der Anwendung aus den Analysedaten generieren können

    Annual Report 1999 / Department for Computer Science

    Get PDF
    Selbstdarstellung des Instituts für Informatik der BTU Cottbus und Berichte der Lehrstühle für das Jahr 1999.Presentation of the Department for Computer Science of the BTU Cottbus and reports of the chairs at the department for the year 1999

    Entwicklung eines Data Warehouse für das Produktionscontrolling:Konzepte und Erfahrungen

    Full text link
    Aufgabe eines Data Warehouse ist die schnelle und flexible Bereitstellung entscheidungsrelevanter Daten. Es stellt damit - je nach Interpretation - eine Weiterentwicklung der Entscheidungsunterstützungssysteme oder eine auf Analyseaufgaben ausgerichtete Datenbank dar. Um seine Aufgabe erfüllen zu können, muß ein Data Warehouse heterogene Datenquellen zu einer stabilen, konsistenten Datenbasis zusammenführen, Detaildaten für die analytischen Auswertungen (vor-)verdichten sowie auch zeitraumbezogene Längsschnittanalysen unterstützen. Die Entwicklung eines Warehouse unterscheidet sich deshalb in vielen Punkten von der Entwicklung eines traditionellen, transaktionsorientierten Anwendungssystems. Der folgende Beitrag diskutiert, welche Aufgaben jeweils in den verschiedenen Phasen einer Data Wareouse-Entwicklung anfallen und wie diese Aufgaben durchgeführt werden können. Die vorgestellten Konzepte und Erfahrungen sind Ergebnisse eines Kooperationsprojekts zwischen dem Institut und einem großen Maschinenbauunternehmen.<br/

    Wissensextraktion durch linguistisches Postprocessing bei der Corpusanalyse

    Get PDF
    Der vorliegende Beitrag befaßt sich mit einem mehrstufigen Ansatz zur Analyse großer Textcorpora. Dabei liegt der Schwerpunkt auf der Untersuchung sekundärer, insbesondere linguistischer Filter für die Optimierung statistischer Analyseverfahren. Neben Beispielen für solche Filterverfahren werden auch praktische Anwendungen aufgezeigt

    Issues in NASA Program and Project Management: Focus on Project Planning and Scheduling

    Get PDF
    Topics addressed include: Planning and scheduling training for working project teams at NASA, overview of project planning and scheduling workshops, project planning at NASA, new approaches to systems engineering, software reliability assessment, and software reuse in wind tunnel control systems

    Eine empirische Untersuchung von Kosteneinflußfaktoren bei integrationsorientierten Reengineering-Projekten

    Full text link
    Die Zusammenhänge zwischen Merkmalen eines Software-Altsystems und den daraus resultierenden Kosten für bestimmte Reengineering-Aktivitäten sind nahezu unerforscht. Der vorliegende Arbeitsbericht schildert die experimentelle Untersuchung von drei ausgewählten Einflußfaktoren bei einer für das integrationsorientierte Reengineering typischen Aufgabenstellung. Untersucht wurden die Wirkungen der Komplexität des Quelltexts, der Dokumentiertheit der Datenstrukturen sowie der Verfügbarkeit von Tages- bzw. Testdaten

    Qualitätsmanagementsysteme und ihre Anwendung auf Serviceeinrichtungen der WGL

    Full text link
    "Der Arbeitsbericht gibt einen Überblick über häufig verwendete Begriffe und Konzepte im Bereich von Qualitätsmanagementsystemen. Neben der Normenfamilie ISO 9000 - 9004 sowie Total Quality Management (TQM) werden spezielle Maßnahmen wie Benchmarking und Re-Engineering angesprochen sowie Probleme der Anwendung dieser Systeme im Bereich von Forschungs- und Serviceeinrichtungen diskutiert. Auf die Evaluation und die geplanten Maßnahmen zur Qualitätssicherung im Rahmen der Institute der Wissenschaftsgemeinschaft Gottfried Wilhelm Leibniz (WGL) und die Besonderheiten von Serviceeinrichtungen wird eingegangen." (Autorenreferat

    Qualitätsmanagementsysteme und ihre Anwendung auf Serviceeinrichtungen der WGL

    Full text link
    "Der Arbeitsbericht gibt einen Überblick über häufig verwendete Begriffe und Konzepte im Bereich von Qualitätsmanagementsystemen. Neben der Normenfamilie ISO 9000 - 9004 sowie Total Quality Management (TQM) werden spezielle Maßnahmen wie Benchmarking und Re-Engineering angesprochen sowie Probleme der Anwendung dieser Systeme im Bereich von Forschungs- und Serviceeinrichtungen diskutiert. Auf die Evaluation und die geplanten Maßnahmen zur Qualitätssicherung im Rahmen der Institute der Wissenschaftsgemeinschaft Gottfried Wilhelm Leibniz (WGL) und die Besonderheiten von Serviceeinrichtungen wird eingegangen." (Autorenreferat

    Veröffentlichungen und Vorträge 2001 der Mitglieder der Fakultät für Informatik

    Get PDF

    Möglichkeiten der Software-Wiederverwendung durch komponentenbasierte Anwendungsentwicklung in einem Versicherungsunternehmen

    Get PDF
    Die Idee der komponentenbasierten Anwendungsentwicklung besteht darin, einen Teil der Möglichkeiten der Objektorientierung in die bestehende Software-Entwicklung einzubringen. Insbesondere der Kapselung und der Überwindung der Trennung der Daten und Funktionen kommen im Hinblick auf Wiederverwendbarkeit große Bedeutung zu. Die Möglichkeiten der komponentenbasierten Anwendungsentwicklung im bestehenden Umfeld der R+V-Versicherung sollen in dieser Arbeit untersucht werden
    corecore