653 research outputs found

    Prediction of available computing capacities for a more efficient use of Grid resources

    Get PDF
    Vor allem in der Forschung und in den Entwicklungsabteilungen von Unternehmen gibt es eine Vielzahl von Problemen, welche nur mit Programmen zu lösen sind, für deren Ausführung die zur Verfügung stehende Rechenleistung kaum groß genug sein kann. Gleichzeitig ist zu beobachten, dass ein großer Teil der mit der installierten Rechentechnik vorhandenen Rechenkapazität nicht ausgenutzt wird. Dies gilt insbesondere für Einzelrechner, die in Büros, Computer-Pools oder Privathaushalten stehen und sogar während ihrer eigentlichen Nutzung selten ausgelastet sind. Eines der Ziele des Grid-Computings besteht darin, solche nicht ausgelasteten Ressourcen für rechenintensive Anwendungen zur Verfügung zu stellen. Die eigentliche Motivation für die beabsichtigte bessere Auslastung der Ressourcen liegt dabei nicht primär in der höhreren Auslastung, sondern in einer möglichen Einsparung von Kosten gegenüber der Alternative der Neuanschaffung weiterer Hardware. Ein erster Beitrag der vorliegenden Arbeit liegt in der Analyse und Quantifizierung dieses möglichen Kostenvorteils. Zu diesem Zweck werden die relevanten Kosten betrachtet und schließlich verschiedene Szenarien miteinander verglichen. Die Analyse wird schließlich konkrete Zahlen zu den Kosten in den verschiedenen Szenarien liefern und somit das mögliche Potential zur Kosteneinsparung bei der Nutzung brach liegender Rechenkapazitäten aufzeigen. Ein wesentliches Problem beim Grid-Computing besteht jedoch (vor allem bei der Nutzung von Einzelrechnern zur Ausführung länger laufender Programme) darin, dass die zur Verfügung stehenden freien Rechenkapazitäten im zeitlichen Verlauf stark schwanken und Berechnungsfortschritte durch plötzliche anderweitige Verwendung bzw. durch Abschalten der Rechner verloren gehen. Um dennoch auch Einzelrechner sinnvoll für die Ausführung länger laufender Jobs nutzen zu können, wären Vorhersagen der in der nächsten Zeit zu erwartenden freien Rechenkapazitäten wünschenswert. Solche Vorhersagen könnten u. a. hilfreich sein für das Scheduling und für die Bestimmung geeigneter Checkpoint-Zeitpunkte. Für die genannten Anwendungszwecke sind dabei Punktvorhersagen (wie z. B. Vorhersagen des Erwartungswertes) nur bedingt hilfreich, weshalb sich die vorliegende Arbeit ausschließlich mit Vorhersagen der Wahrscheinlichkeitsverteilungen beschäftigt. Wie solche Vorhersagen erstellt werden sollen, ist Gegenstand der restlichen Arbeit. Dabei werden zunächst Möglichkeiten der Bewertung von Prognoseverfahren diskutiert, die Wahrscheinlichkeitsverteilungen vorhersagen. Es werden wesentliche Probleme bisheriger Bewertungsverfahren aufgezeigt und entsprechende Lösungsvorschläge gemacht. Unter Nutzung dieser werden in der Literatur zu findende und auch neue Vorgehensweisen zur Prognoseerstellung empirisch miteinander verglichen. Es wird sich zeigen, dass eine der neu entwickelten Vorgehensweisen im Vergleich zu bisher in der Literatur dargestellten Vorhersageverfahren klare Vorteile bzgl. der Genauigkeit der Prognosen erzielt.Although computer hardware is getting faster and faster, the available computing capacity is not satisfying for all problem types. Especially in research and development departments the demand for computing power is nearly unlimited. On the same time, there are really large amounts of computing capacities being idle. Such idle capacities can be found in computer pools, on office workstations, or even on home PCs, which are rarely fully utilized. Consequently, one of the goals of the so called “grid computing” is the use of underutilized resources for the execution of compute-intensive tasks. The original motivation behind this idea is not primarily the high utilization of all resources. Instead, the goal is a reduction of costs in comparison to classical usage scenarios. Hence, a first contribution of the thesis at hand is the analysis of the potential cost advantage. The analysis quantifies the relevant cost factors and compares different usage scenarios. It finally delivers tangible figures about the arising costs and, consequently, also about the potential cost savings when using underutilized resources. However, the realization of the potential cost savings is hampered by the variability of the available computing capacities. The progress of a computational process can be slowed down or even lost by sudden increments of the resource utilization or (even worse) by shutdowns or crashes. Obviously, accurate predictions of the future available computing capacities could alleviate the mentioned problem. Such predictions were useful for several purposes (e.g. scheduling or optimization of checkpoint intervals), whereas in most cases the prediction of a single value (for example the expectancy) is only of limited value. Therefore, the work at hand examines predictions of probability distributions. First, the problem of the assessment of different prediction methods is extensively discussed. The main problems of existing assessment criteria are clearly identified, and more useful criteria are proposed. Second, the problem of the prediction itself is analyzed. For this purpose, conventional methods as described in the literature are examined and finally enhanced. The modified methods are then compared to the conventional methods by using the proposed assessment criteria and data from real world computers. The results clearly show the advantage of the methods proposed in the thesis at hand

    Precision in gel electrophoresis for the quality control of pharmaceuticals

    Get PDF
    Die Gelelektrophorese (GE) ist bekannt für ihre unzureichende Präzision. In quantitativen Analysen werden relative Standardabweichungen (RSD%) von bis zu 60% erhalten. Eine Verbesserung der Präzision und der Empfindlichkeit für die Detektion von Proteinen ist somit unbedingt notwendig, besonders im Bereich der pharmazeutischen Qualitätskontrolle von biopharmazeutischen Arzneimitteln. Als Hauptfehlerquellen für die unzureichende Präzision wurden das Sichtbarmachen bzw. die Detektion der getrennten Proteine, der Transfer der Proteine von der ersten auf die zweite Dimension (2-DE) sowie die Erfahrung des Analytikers identifiziert. Starke Schwankungen in der Gelhintergrundfärbung, die sich in der stark schwankenden Basislinie äußern, stellen die Hauptfehlerquelle dar. Das Hintergrundsignal kann durch die Detektion der Proteine im Nahen-Infrarot-Wellenlängenbereich extrem reduziert werden. Diese Detektionsmethode stellt die zurzeit empfindlichste Detektion für konventionelle Coomassie gefärbte Gele dar, was sich in einer quantitativen Reproduzierbarkeit von 3-10% RSD% äußert. Eine weitere Alternative ist die Detektion aufgrund der Nativen Fluoreszenz der Proteine. Gut definierte Peaks und ein dreifach besseres Signal-zu-Rausch Verhältnis, obwohl die Probe in einer 800-fach geringeren Konzentration eingesetzt wurde, führen zu einer Verbesserung der Präzision von 12-16% RSD%. Für die Untersuchung weiterer Varianzkomponenten wurde ein Plackett-Burman Screening-Versuchsdesign mit Proteinen unterschiedlicher Eigenschaften durchgeführt. Für jedes Protein wurden unterschiedliche Einflussfaktoren als signifikant identifiziert. Nur vier der sieben untersuchten Faktoren zeigten jedoch einen signifikanten Effekt auf einige der untersuchten Proteine. Somit kann eine Verbesserung der Präzision nur individuell für die einzelnen Proteine erfolgen. Ein größeres Verständnis über die Einzigartigkeit der Proteine ermöglicht eine weitere Verbesserung der Präzision in der GE.Gel electrophoresis (GE) is known for its often unsatisfactory precision. In quantitative analysis percental relative standard deviations (RSD%) up to 60% have been reported. Thus, an improvement of precision and sensitivity is absolutely essential for protein detection using GE, especially for the quality control of pharmaceuticals. Potential major sources of variability for this technique include staining or rather detection of separated proteins, the transfer between the first and the second dimension (2-DE) and the analyst’s expertise. The remarkable and completely irregular changes of the background signal from gel to gel were identified as one of the governing error sources. These background changes can be strongly reduced by using a signal detection in the near-infrared range. This detection method provides the most sensitive approach for conventional Coomassie stained gels which is reflected in a total error of just 3-10% RSD% with a quite good signal-to-noise ratio for simple one-dimensional separations. A further alternative is the direct detection of separated proteins by utilising their native fluorescence. Well-defined peaks and a threefold better signal-to-noise ratio were found compared to conventional fluorescence or Coomassie staining, although the sample was used in an 800-fold lower concentration. These resulted in a better quantitative spot reproducibility of approx. 12-16% RSD%. In order to investigate further variance components, an experimental Plackett-Burman screening design was performed using proteins with different properties. Completely different factors were identified to be significant for each protein. Out of seven investigated parameters, just four showed a significant effect on some proteins. Precision can only be improved individually for each protein. A more understanding of the unique properties of proteins should enable us to further improve precision in GE

    Ansätze zur Qualitätsverbesserung von Wissensprozessen

    Get PDF
    Durch Prozessverbesserungen ist es möglich, den Ressourcenverbrauch einer Unternehmung zu reduzieren, ohne an den Eigenschaften des erstellten Gutes Abstriche vornehmen zu müssen. Intuitiv ist ersichtlich, dass eine bessere Ausnutzung der vorhandenen Ressourcen vorteilhaft für die Unternehmung ist. Mit dem Übergang zur Informationsgesellschaft stellt sich die Frage, inwiefern traditionelle Verfahren zur Prozessverbesserung sich auf die immer bedeutender werdende Ressource „Wissen“ anwenden lassen. Hat Wissen in Verfahren zur Erstellung physischer Güter noch eine nur unterstützende Funktion, so stellt es in Branchen, deren Focus in der Entwicklung von Wissen liegt, den wichtigsten „Produktionsfaktor“ dar. In vorliegendem Text wird der Versuch unternommen, bekannte Verfahren zur Qualitätsverbesserung von Prozessen dahingehend zu betrachten, inwieweit sie für eine Anwendung auf den Umgang mit Wissen geeignet sind. Dazu erfolgt eine Darstellung grundlegender Begriffe, gefolgt von Kriterien, anhand derer die Qualität von Wissensprozessen beurteilt werden kann. Danach werden verschiedene Qualitätsverbesserungsverfahren dargestellt und ihre Eignung zur Anwendung auf Wissensprozesse beurteilt. Abschließend findet sich ein Ausblick darauf, in welchen Gebieten weitere Überlegungen zu diesem Thema angebracht sind. Hingewiesen werden muss auf dem Umstand, dass vorliegende Arbeit aus Platzgründen einige mehr oder minder starke Reduzierungen enthält. Bekannte Qualitätsverbesserungsverfahren wurden in verschiedene Kategorien eingeteilt, aus diesen Kategorien wurden dann exemplarisch einige Verfahren für die nähere Betrachtung ausgewählt. Einen Anspruch auf Vollständigkeit erhebt der vorliegende Text somit nicht. Auch die Kategorisierung kann nicht als allgemeingültig angesehen werden, da die meisten Qualitätsverbesserungsverfahren starke Unterschiede aufweisen und somit das Einordnen in ein einheitliches Schema erschweren. Dennoch wurden gemeinsame Merkmale identifiziert und zur Bildung von Kategorien verwandt

    Ein pragmatischer Ansatz zur individuellen Integration von IT-Risikomanagement in Unternehmen

    Get PDF
    In diesem Arbeitspapier werden die aktuellen Ergebnisse des Forschungsprojektes PAuR, Verbesserung der IT-Projektsachstandsverfolgung basieren auf Aufwandschätzungen und Risikomanagement, zusammengetragen. Das Projekt läuft seit 01.01.2004 und endet zum 31.12.2005. Prof. Dr. Stephan Kleuker leitet das Projekt und wird von der Wissenschaftlichen Mitarbeiterin Roya Ebrahim-Pour unterstützt. IT-Projekte scheitern häufig, weil sie die Qualitätsanforderungen nicht erfüllen, Zeitvorgaben überschreiten oder weit mehr als die geplanten Ressourcen verbrauchen. Die Gründe liegen in der unzureichenden Betrachtung von verschiedenen internen und externen Randbedingungen. Diese Bedingungen werden im Projektalltag aus verschiedenen Anlässen vernachlässigt, übersehen oder ignoriert, obwohl sie den Projektverlauf negativ beeinflussen können. Risikomanagement (RM) beschäftigt sich mit diesen Vernachlässigungen. Beginnend in der Angebotsphase und durchgehend bis zum Projektende werden die unterschiedlichen Problemquellen und ihre Ursachen systematisch erfasst, analysiert und ihre Bearbeitung in die Planung sowie Durchführung aufgenommen. --

    Bewertung von Unsicherheiten bei werkstoffmechanischen Fragestellungen mit dem Bayes-Verfahren

    Get PDF

    Bewertung von Unsicherheiten bei werkstoffmechanischen Fragestellungen mit dem Bayes-Verfahren

    Get PDF

    Effizienter interaktiver Entwurf von Klassifikationssystemen

    Get PDF

    Nachfragebeeinflussung im Schienenpersonenverkehr in Störfallsituationen - Entwicklung einer Methodik zur Modellierung des Entscheidungsverhaltens von Reisenden

    Get PDF
    Kleinere und größere Unregelmäßigkeiten, wie bspw. technische Störungen und größere Störfallsituationen lassen sich im Betriebsablauf des Schienenpersonenverkehrs nicht immer vermeiden. Dies ist insbesondere auf die vorhandenen hohen Abhängigkeiten im Bahnbetrieb zurückzuführen, wodurch sich aus nur einer kleinen Störung einer Zugverbindung ein großes Störfallereignis ergeben kann, in welchem dann eine Vielzahl an Zugverbindungen und somit eine sehr große Anzahl an Reisenden negativ betroffen sind. Es sind entsprechende Maßnahmen erforderlich, welche die Zufriedenheit der Reisenden auch in solchen Situationen nicht gefährden und trotz der Unregelmäßigkeit einen effizienten Betrieb gewährleisten. Bestenfalls sind die Maßnahmen auf die Bedürfnisse der Reisenden abgestimmt, so dass gute Möglichkeiten zur Fortsetzung der Reise geschaffen werden. Neben den gängigen Maßnahmen rücken hierbei die nachfragebeeinflussenden Maßnahmen mehr und mehr in den Fokus. Im Rahmen der Innovationsallianz zwischen der Deutschen Bahn AG (DB AG) und der Technischen Universität Darmstadt wurde in der Arbeitsgruppe Connected Mobility die Implementierung einer Nachfragebeeinflussung, in Form einer sogenannten Reisendenstromlenkung, als ein zusätzliches Instrument zur optimierten Lenkung von Reisendenströmen untersucht. Ein wesentlicher Aspekt der Nachfragebeeinflussung ist die Kenntnis über die Akzeptanz von Handlungsempfehlungen bzw. die Kenntnis über das wahrscheinliche Verhalten der jeweiligen Reisenden in Abhängigkeit einer Vielzahl an gleichzeitig wirkenden Einflussfaktoren. Sofern das Verhalten der Reisenden abgeschätzt werden kann, können geeignete nachfragebeeinflussende Maßnahmen ausgewählt und die Reisenden im Falle einer Unregelmäßigkeit optimal auf das (ggf. noch) vorhandene Verkehrsangebot verteilt werden. Die gezielte Beeinflussung der Verkehrsnachfrage im Schienenpersonenverkehr erfordert jedoch ein geeignetes Modell zur Prognose des Entscheidungsverhaltens der Reisenden, welches die wirkenden Einflussfaktoren einschließt, ein sogenannten Entscheidungsverhaltensmodell. In der vorliegenden Dissertation wird eine Methodik zur Erzeugung eines solchen Entscheidungsverhaltensmodells von Reisenden im Bahnbetrieb entwickelt, vorgestellt und validiert. Hierzu werden im ersten Schritt die relevanten Einflussfaktoren auf die Akzeptanz von Handlungsempfehlungen auf Basis einer durchgeführten Fahrgastbefragung (N = 1961) von Reisenden im Nah- und Fernverkehr identifiziert. Es wird dabei aufgezeigt, dass neben der Veränderung der Reisezeit und der Anzahl an Umstiegen als externale Einflussfaktoren im Entscheidungsprozess der Reisenden auch eine Vielzahl an internalen Einflussfaktoren, bspw. die Nutzungshäufigkeit des Schienenpersonenverkehrs, das Alter und die Komfortanforderungen der Reisenden, bei der Auswahl einer Handlungsoption durch den Reisenden zu berücksichtigen sind. Mit Hilfe der in der Fahrgastbefragung erfassten Merkmale wurde weiterhin eine Einteilung der Reisenden in acht stereotypische Reisendengruppen mit ähnlichen Eigenschaften und Verhaltensweisen vorgenommen, so dass die Reisendengruppe selbst als ein abgeleiteter internaler Einflussfaktor zur Prognose des Entscheidungsverhaltens berücksichtigt werden kann. Die Annahmewahrscheinlichkeit einer Handlungsempfehlung durch einen Reisenden wird mit Hilfe einer binär-logistischen Regressionsanalyse auf Basis des in den Fragebögen erfassten hypothetischen Verhaltens in zwei unterschiedlichen Szenarien (Zugausfall und Auslastungsproblem) bestimmt. Hierzu werden unterschiedliche Entscheidungsverhaltensmodelle entwickelt, wodurch die Auswirkungen bei der Variation der Einflussfaktoren inkl. dem Einbezug der Reisendengruppen auf die relevanten Kenngrößen zur Beurteilung der Klassifikationsgüte, Modellgüte, Ergebnisstabilität und Prognosegenauigkeit dargestellt werden können. Das final entwickelte Entscheidungsverhaltensmodell E5 (Zielmodell) zum Szenario 1 (Zugausfall) erzielt eine Steigerung der Klassifikationsgüte von 51,6 % auf 67,3 %. Werden lediglich die externalen Einflussfaktoren (die Veränderung der Reisezeit und die Anzahl an Umstiegen) in ein Entscheidungsverhaltensmodell eingeschlossen (Ausgangsmodell E1), so wird lediglich eine Klassifikationsgüte von 60,2 % erreicht. Bei Berücksichtigung der Reisendengruppen (Zielmodell R5) wurde hingegen eine Klassifikationsgüte von 68,1 % erzielt. Beide Entscheidungsverhaltensmodelle (E5 und R5) liegen im Bereich einer akzeptablen Modellgüte. Die Wirkungen von zusätzlichen Handlungsanreizen auf die Annahmequote einer Handlungsempfehlung, bspw. die temporäre Aufwertung des Reisetickets (Upgrade 1. Klasse) und die Ausstellung von Wertgutscheinen (bspw. kostenfreier Kaffee), werden ergänzend analysiert. Die durchgeführten Untersuchungen zeigen, dass durch die Nutzung von zusätzlichen Handlungsanreizen die Lenkungswirkung nachfragebeeinflussender Maßnahmen gesteigert werden kann. Insbesondere jene Handlungsanreize, aus denen eine Steigerung des Reisekomforts resultiert, bspw. eine Sitzplatzgarantie oder die Weiterfahrt in der 1. Klasse, weisen die größten Verbesserungen in der Annahmequote auf. So konnte in Szenario 1 (Zugausfall) die Annahmequote von 56,9 % auf 66,1 % bei Ausweisung einer Sitzplatzgarantie gesteigert werden. In Szenario 2 (Auslastungsproblem) lässt sich bei diesem Handlungsanreiz eine Steigerung der Annahmequote von 26,7 % auf 36,8 % erreichen. Die größte Wirkung in Szenario 2 resultiert jedoch aufgrund einer rechtzeitigen Informationsbereitstellung, wodurch eine Annahmequote 46,6 % erzielt wird. Insgesamt wurden je Szenario 14 Entscheidungsverhaltensmodelle entwickelt, welche sich bzgl. der eingeschlossenen Modellierungsparameter unterscheiden, um die Auswirkungen bei einer Variation auf die untersuchten Kenngrößen darstellen zu können. Weiterhin wurden bei der Entwicklung der Modelle unterschiedliche Anwendungsfälle berücksichtigt, um spezifische Modelle (bspw. bezogen auf den Nahverkehr, den Fernverkehr, eine geringe Datenlage oder die Nutzung von Reisendengruppen) zu erhalten. Die Vorgehensweise zur Auswahl eines Entscheidungsverhaltensmodells auf Basis einer Entscheidungslogik wird vorgestellt. Zukünftig wird es möglich sein, mit einer solchen Entscheidungslogik das passende Entscheidungsverhaltensmodell systematisch auszuwählen, um letztlich die Wirkungen von Maßnahmen abschätzen zu können. Die Methodik wurde durch die Erzeugung und Analyse der Kenngrößen der Entscheidungsverhaltensmodelle validiert und ermöglicht zukünftig die Entwicklung von Umlegungsmodellen in Störfällen auf Grundlage externaler und internaler Einflussfaktoren. Um ein in der Praxis anwendbares Modell zu erhalten, sind die erzeugten Entscheidungsverhaltensmodelle durch die Nutzung von Daten einer realen Störfallsituation zu validieren und ggf. zu kalibrieren. Die aktuelle Datenlage auf der einen Seite und der hohe Aufwand zur Erfassung solcher Realdaten auf der anderen Seite lassen zum heutigen Stand eine Validierung und Kalibrierung der Entscheidungsverhaltensmodelle nicht zu. Es ist aber davon auszugehen, dass die fortschreitende Digitalisierung die technischen Möglichkeiten liefert, so dass die Ergebnisse dieser Arbeit die ersten Ansätze für eine zukünftige Umsetzung einer gezielten Nachfragebeeinflussung im Schienenpersonenverkehr bereithält

    Evolution und Komposition von Softwaresystemen: Software-Produktlinien als Beitrag zu Flexibilität und Langlebigkeit

    Get PDF
    Software systems are today bigger, more complex and of higher importance for products and services than a decade before. At the same time changes are required many more frequently and of a larger size. Furthermore, they have to be implemented faster. Additionally, the software must achieve a higher life span, particularly because of the cost of its development. In the past, Object-Oriented Programming and Reuse techniques did not provide the expected success. The introduction of software product lines respectively system families makes possible it to reach a degree of prefabrication similar to the one of serial production. At the same time they facilitate the delivery of product variants with a short time to market. In this work methods of the methods of domain analysis are integrated with Reuse approaches and techniques of Generative Programming, and a methodology for product line development is presented. Feature models are used as means expressing variability and product configurations, so that the prefabrication be planned and the production of customer-specific products can be controlled. By enforcing the formalization in terms of syntax and semantics, feature models are made accessible to tools and automation. Object-oriented design models and architecture are separated into fine-granular components in such a way that new products can easily be developed as combinations of those components. The implementation of such products is automated by the composition of source code components. The composition of object models separated similarly enables a uninterrupted automation for the product development, which is controlled by a customer by means of a feature selection. To facilitate such a composition, the Hyperspace approach is applied to UML to Hyper/UML, which makes possible a feature-driven separation and composition of object models. In this way slim products can be developed, containing only the actually needed functionality. For the evolution of product lines and for the integration of existing solutions and components into the evolution, Reverse Engineering and Refactoring techniques are integrated. Requirements, models and implementation are connected by Traceability links to perform changes consistently. As a consequence, the loss of architectural quality - so-called Architectural Decay - can be avoided during the iterative development process. Measures for the improvement of the project and quality management are regarded briefly, as far as they are of importance for the effectiveness of the developed methods. The applicability and suitability of the results of the work were examined in several industrial projects.Softwaresysteme sind heute umfangreicher, komplexer und von entscheidenderer Bedeutung für Produkte und Dienstleistungen als eine Dekade zuvor. Gleichzeitig sind Änderungen viel häufiger und in größerem Umfang erforderlich. Sie müssen auch schneller realisierbar sein. Zudem muss die Software eine höhere Lebensdauer erreichen, vor allem wegen des Aufwandes zu ihrer Entwicklung. Objektorientierte Programmierung und Wiederverwendungstechniken haben dabei nicht den erwarteten Erfolg gebracht. Die Einführung von Software-Produktlinien beziehungsweise Systemfamilien ermöglichen es, einen der Serienfertigung ähnlichen Vorfertigungsgrad zu erreichen und erlauben es gleichzeitig, kurzfristig Produktvarianten zu erstellen. In dieser Arbeit werden Methoden der Domänenanalyse mit Wiederverwendungsansätzen und Generativen Programmiertechniken verknüpft und eine Methodik zur Produktlinien-Entwicklung vorgestellt. Featuremodelle werden als Ausdrucksmittel für Variabilität und Produktkonfigurationen eingesetzt, damit die Vorfertigung geplant und die Erstellung von kundenspezifischen Produkten gesteuert werden kann. Durch Präzisierung ihrer Syntax und Erweiterung ihrer Semantik werden Featuremodelle einer Nutzung in Werkzeugen zugänglich gemacht. Objektorientierte Entwurfsmodelle und Architektur werden so in feingranulare Komponenten zerlegt, dass Varianten als neue Produkte mit geringem Aufwand erstellbar sind. Die Erstellung der Implementierung solcher Produkte wird durch die Komposition von Quelltext-Komponenten automatisiert. Die Komposition von ebenfalls zerlegten Objektmodellen ermöglicht eine durchgehende Automatisierung der Produkterstellung, die durch einen Kunden mittels der Feature-Auswahl gesteuert wird. Dafür wird mit Hyper/UML eine Umsetzung des Hyperspace-Ansatzes auf die Modellierungssprache UML entwickelt, die eine Feature-gesteuerte Zerlegung und Komposition von Objektmodellen ermöglicht. Damit lassen sich schlanke Produkte entwickeln, die nur die tatsächlich benötigte Funktionalität enthalten. Zur Evolution von Produktlinien und zur Einbindung existierender Lösungen und Komponenten in die Evolution werden Reverse-Engineering- und Refactoring-Techniken integriert. Anforderungen, Modelle und Implementierung werden durch Traceability-Links verbunden, damit Änderungen konsistent durchgeführt werden können. Diese Mittel tragen dazu bei, dass während einer iterativen Entwicklung der Verlust an Architektur-Qualität, das sogenannte Architectural Decay, vermieden werden kann. Maßnahmen zur Verbesserung des Projekt- und Qualitätsmanagements werden kurz betrachtet, soweit sie wichtige Randbedingungen für die Wirksamkeit der Methoden schaffen müssen. Die Anwendbarkeit und Eignung der Ergebnisse der Arbeiten wurde in mehreren industriellen Projekten überprüft.Ilmenau, Techn. Univ., Habil.-Schr., 200

    Customer-Relationship-Management-Systeme unter Nutzung mobiler Endgeräte

    Get PDF
    Customer Relationship Management (CRM) und die Unterstützung von CRM durch stationäre und mobile Informations- und Kommunikationstechnik (IKT) haben in der einschlägigen Literatur eine hohe Relevanz. In der Arbeit werden CRM-Pro­jekte in Unternehmen des Business-to-Business-Bereichs empirisch untersucht. Es werden besonders die Ausprägungen der IKT und die Auswirkungen im Außendienst berücksichtigt. Basierend auf den Untersuchungsergebnissen werden Handlungsempfehlungen für Unternehmen abgeleitet
    corecore