697 research outputs found

    Wirtschaftlichkeitsfaktoren beim integrationsorientierten Reengineering:Verteilungsarchitektur und Integrationsschritte aus ökonomischer Sicht

    Full text link
    Im Rahmen des integrationsorientierten Reengineering sollen in Betrieb befindliche und neu zu entwickelnde Softwaresysteme in ein integriertes verteiltes Anwendungssystem (IVAS) integriert werden. Zu diesem Zweck muß vor Beginn des Integrationsprozesses die Verteilungsarchitektur festgelegt werden. Anschließend können durch einzelne nacheinander erfolgende Integrationsschritte vorhandene bzw. neu entwickelte Softwaresysteme in das IVAS integriert werden. Der vorliegende Arbeitsbericht beschäftigt sich zum einen mit den Faktoren, die aus ökonomischer Sicht einen Einfluß auf die Wahl der Verteilungsarchitektur haben. Zum anderen wird untersucht, welche Faktoren einen Einfluß auf die Entscheidung haben, ob ein Altsystem einem Reengineering-Prozeß unterzogen oder ersetzt werden soll.<br/

    Nachvollziehbarkeit von den Anforderungen zum entwickelten System durch den Einsatz von Piktogrammen

    Get PDF
    Ein Piktogramm ist eine stilisierte bildliche Darstellung zur Informationsvermittlung. Solche graphischen Darstellungen haben i.a. eine spezifische Bedeutung für verschiedene Anwendungsbereiche (z.B. ein Halteverbotszeichen für den Straßenverkehr). Im vorliegenden Beitrag berichten wir über unsere Erfahrungen mit dem Einsatz von Techniken zur interdisziplinären Anforderungsanalyse für Krankenhausinformationssysteme und über die dabei erreichte Nachvollziehbarkeit von den Anforderungen zum entwickelten System mit ilfe des durchgängigen Einsatzes von anwendungsorientierten Piktogrammen in den verschiedenen Phasen der Modellierung bis hin zur Implementierung, wobei auch das frühzeitige Prototyping eine wichtige Rolle spielt. Die Unterstützung der Nachvollziehbarkeit durch den Einsatz von Piktogrammen in Modellierungswerkzeugen wird kurz diskutiert

    Evaluierungsbericht Systems Engineer von LBMS

    Get PDF
    Hersteller von Systems Engineer ist die 1977 gegründete Firma Learmonth and Burchen Management Systems Pie. (LBMS) mit Sitz in London. Systems Engineer ist eine Client-Server-Lösung unter DOS/Windows, die standardmäßig aus den Komponenten Systems Engineer (Analyse und Design, Projektadministration), SE/Repository (Konfigurations management, Entwicklungsdatenmanagement) und SE/Workplace (Dokumentation) besteht. Als jeweils separat zu erwerbende Komponenten werden darüber hinaus Process Engineer (Projektmanagement), SE/Server Builder (Datenbankdesign und -generierung) und SE/Client Builder (Entwicklung grafischer Benutzeroberflächen) angeboten. Alle Moduln greifen auf dieselbe Entwicklungsdatenbank zu, nämlich der Standard SQL-Datenbank SQLBase von Gupta. Beim Netzbetrieb wird jedes NETBIOS kompatible Netzwerkbetriebssystem, wie z. B. Novell, unterstützt. Im Rahmen eines Novell-Netzwerks kann Systems Engineer auch als NLM installiert werden

    Beschreibung von web-basierten Informationssystemen mittels RDF-Metadaten

    Get PDF
    RDF ist die technologische Grundlage des sich in Entwicklung befindlichen Semantic Web. RDF wird durch das World Wide Web Consortium (W3C) entwickelt. Das Semantic Web soll es ermöglichen, Daten derart auszutauschen, dass deren Bedeutung/Semantik (engl. semantic) automatisiert interpretiert werden kann. Web-Anwendungen des Semantic Web sollen mittels der ausgetauschten Daten 'Schlussfolgerungen ziehen' (engl. inferencing) bzw. 'Überlegungen' (engl. reasoning) anstellen können, um so z.B. als intelligente Agenten stellvertretend für einen Benutzer agieren zu können. Zum Aufbau des Semantic Web sind neue Technologien notwendig, die nicht nur syntaktische, sondern auch semantische Interoperabilität ermöglichen sollen. Syntaktische Interoperabilität kann durch den Einsatz von XML erreicht werden. Die RDF-Spezifikationen wurden entworfen, um durch den Einsatz von XML die Semantik von Daten auf interoperable Art zu spezifizieren: '... one of the goals of RDF is to make it possible to specify semantics for data based on XML in a standardized, interoperable manner'. Es gibt bisher jedoch noch keine Einigung darüber, inwieweit RDF diese Anforderung erfüllt. Eine wesentliche Fragestellung der vorliegenden Arbeit ist, ob RDF 'semantische Interoperabilität' ermöglicht (und damit eine geeignete technologische Grundlage für das Semantic Web ist). Diese Frage kann bedingt positiv beantwortet werden. Die zu erfüllende Bedingung ist eine Formalisierung der durch die RDF-Spezifikationen intendierten Semantik. In der vorliegenden Arbeit wird eine Formalisierung der RDF-Semantik in Prädikatenlogik erster Ordnung vorgeschlagen. Ausgehend von dieser formalen Grundlage wird eine Implementierung der RDF-Semantik in Prolog entwickelt und erläutert. Weitere Fragestellung der Arbeit ist, ob sich RDF zur formalen Beschreibung der Inhalte, Strukturen und Zusammenhänge der Bestandteile einer Web-Anwendung und davon ausgehend für das Web-Engineering einsetzen lässt. Zur Beantwortung dieser Frage werden Anforderungen aufgestellt, die ein derartiges Beschreibungsmodell erfüllen soll. Es wird nachgewiesen, dass der im Rahmen dieser Arbeit entwickelte XWMF-Ansatz diese Anforderungen erfüllt. Die praktische Einsetzbarkeit des Ansatzes wird durch die Entwicklung einer Beispielanwendung gezeigt. Weiter wird XRDF, ein zu RDF alternativer Ansatz entwickelt und erläutert. Die RDF-Syntax ist nicht durch einen XML-Validator überprüfbar und es gibt keine eindeutige und standardisierte Abbildung der RDF-Syntax in das RDF-Datenmodell und vice versa. XRDF ist ein Datenmodell und eine validierbare XML-Syntax zur Repräsentation von Beschreibungsmodellen. Das XRDF-Datenmodell ist in das RDF-Datenmodell abbildbar. Eine eindeutige Abbildung der XRDF-Syntax in das XRDF-Datenmodell (und damit auch in das RDF-Datenmodell) ist bei diesem Ansatz gegeben. Insofern ist XRDF zu RDF kompatibel

    Data Model Canvas fĂĽr die IT-SystemĂĽbergreifende Integration von Datenmodellen zur UnterstĂĽtzung von Datenanalyse-Anwendungen im Produktlebenszyklus

    Get PDF
    Der Data Model Canvas (DMC) unterstützt methodisch und informationstechnisch den Aufbau der für ein durchgängiges und interdisziplinäres Engineering benötigten fachlichen Datengrundlage und deren Abbildung in den betreffenden IT-Systemen. Basierend auf konkreten Analyse-Szenarien erfolgt eine Modellierung der erforderlichen Datenvernetzung, die wiederum die explizit benötigten Datenquellen umfasst. Im Mittelpunkt dieses Ansatzes steht die Entwicklung eines fachlichen Verständnisses über die zur Analyse notwendigen roduktdaten. Unterstützt wird der Ansatz durch ein Softwaretool zur Erstellung der benötigten Datenmodelle

    EXMARaLDA und Datenbank "Mehrsprachigkeit" - Konzepte und praktische Erfahrungen

    Get PDF
    In diesem Aufsatz geht es um die Datenbank ‚Mehrsprachigkeit’ und das System EXMARaLDA, die am SFB 538 ‚Mehrsprachigkeit’ der Universität Hamburg entwickelt werden. Da deren konzeptuelle und technische Details bereits an anderer Stelle ausführlich dargestellt worden sind (z.B. Schmidt 2004), soll der Schwerpunkt hier einerseits auf solchen Aspekten liegen, die – gemäß dem Thema des Workshops – mit allgemeineren Fragen zum Umgang mit computerverwertbaren, heterogenen linguistischen Datenbeständen zu tun haben. Andererseits soll versucht werden, aus den praktischen Erfahrungen der nunmehr vierjährigen Projektarbeit einige Erkenntnisse abzuleiten, die über den konkreten Projektzusammenhang hinaus für die weitere Arbeit auf diesem Gebiet interessant sein könnten.This paper presents some concepts and principles used in the development of a database of multilingual spoken discourse at the University of Hamburg. The emphasis of the first part is on general considerations for the handling of heterogeneous data sets: After showing that diversity in transcription data is partly conceptually and partly technologically motivated, it is argued that the processing of transcription corpora should be approached via a three-level architecture which separates form (application) and content (data) on the one hand, and logical and physical data structures on the other hand. Such an architecture does not only pave the way for modern text-technological approaches to linguistic data processing, it can also help to decide where and how a standardization in the work with heterogeneous data is possible and desirable and where it would run counter to the needs of the research community. It is further argued that, in order to ensure user acceptance, new solutions developed in this approach must take care not to abandon established concepts too quickly. The focus of the second part is on some practical experiences with users and technologies gained in the four years’ project work. Concerning the practical development work, the value of open standards like XML and Unicode is emphasized and some limitations of the “platform-independent” JAVA technology are indicated. With respect to users of the EXMARaLDA system, a predominantly conservative attitude towards technological innovations in transcription corpus work can be stated: individual users tend to stick to known functionalities and are reluctant to adopt themselves to the new possibilities. Furthermore, an active commitment to cooperative corpus work still seems to be the exception rather than the rule. It is concluded that technological innovations can contribute their share to a progress in the work with heterogeneous linguistic data, but that they will have to be supplemented, in the long run, with an adequate methodological reflection and the creation of an appropriate infrastructure

    Evaluierung einer cloud-native Entwicklungsumgebung fĂĽr das modellbasierte Systems Engineering fĂĽr Raumfahrtsysteme

    Get PDF
    MBSE must support a wide variety of configurations because it works with a variety of soft-ware and interfaces. The resource requirements of the software used can exceed the capaci-ties of a local computer. Cloud computing promises to meet the increasing demands. MBSE tools exist for space systems, but none of these tools take advantage of a cloud environment. In recent years, open-source projects such as Eclipse Theia, EMF.Cloud and Eclipse Che have been developed which make it possible to develop a cloud-native development envi-ronment for MBSE. However, no development environment has yet been implemented that takes advantage of the cloud for computation. To determine the requirements for an MBSE tool in the cloud, a questionnaire with two rounds is conducted. In the first round, requirements are collected as user stories. In the second round, the requirements are categorized according to the Kano model. A total of 52 requirements were identified, of which 19 were identified as enthusiasm, 20 as basic, 3 as performance and 10 as irrelevant. The performance analysis showed that complex computations scale similarly to local execution. If simpler computations are performed, the local computation is significantly faster due to the elimination of the com-munication overhead

    Implementation des ATKIS in GIS mit relationaler Attributverwaltung unter dem Aspekt der FortfĂĽhrung

    Get PDF
    Das Amtliche Topographisch-Kartographische Informationssystem (ATKIS) ist ein Vorhaben der Landesvermessungsverwaltungen der Bundesrepublik Deutschland zum Aufbau digitaler Landschaftmodelle (DLM) und digitaler Kartenmodelle (DKM). In der Arbeit werden zunächst die Grundideen von ATKIS und von temporalen Datenmodellen dargestellt. Auf Grund einer Analyse des ATKIS-Objektartenkatalogs wurde ein Metainformationssystem DST entwickelt und mit Unterstützung des Instituts für Angewandte Geodäsie / Außenstelle Leipzig (IfAG) praktisch eingeführt. Weiterhin wurden Vorschläge für temporale Erweiterungen des DLM unterbreitet, die insbesondere die Gewinnung inkrementeller Fortführungsinformationen unterstützen
    • …
    corecore