345 research outputs found

    Beschreibung, Verwaltung und Ausführung von Arbeitsabläufen im autonomen Datenbank-Tuning

    Get PDF
    In den letzten Jahrzehnten wurde die Administration von IT-Systemen zunehmend aufwendiger und kostspieliger. Zur Gewährleistung einer hohen Verfügbarkeit und Performance dieser Systeme reichen eine kontinuierliche manuelle Administration und Optimierung der Systeme im laufenden Betrieb kaum noch aus. Initiativen wie das Autonomic Computing versuchen daher, die Administrationskomplexität neuer Systeme zu reduzieren, indem sie eine Automatisierung der komplexen Systemverwaltungs- und -konfigurationsaufgaben und ihre anschließende Übertragung an die Systeme selbst ermöglichen. Die vorliegende Arbeit verfolgt das Ziel, die Übertragbarkeit der Konzepte des Autonomic Computing auf das Datenbank-Tuning zu untersuchen und eine Infrastruktur zur Automatisierung typischer Datenbank-Tuning-Aufgaben unter Reduzierung menschlicher Interaktion zu konzipieren. Als eine der Grundvoraussetzungen für die Automatisierung der Datenbank-Tuning-Aufgaben wurden hier die Beschreibung und Modellierung des Tuning-Wissens identifiziert. Die vorgestellten Konzepte ermöglichen es den Administratoren daher, sowohl die Problemsituationen als auch die entsprechenden bewährten Tuning-Abläufe zu erfassen und im System zu hinterlegen. Mit Hilfe einer auf diesen Konzepten aufbauenden Architektur lassen sich IT-Systeme kontinuierlich überwachen und beim Feststellen eines problematischen Verhaltens entsprechende, vorab im System hinterlegte Tuning-Abläufe einleiten. Dabei können sowohl der Überwachungs- als auch der Tuning-Prozess in Abhängigkeit von der anliegenden Arbeitslast und unter der Einbeziehung von Metadaten bzw. nutzerdefinierten Tuning-Zielen beeinflusst werden. Zur Unterstützung einer kollaborativen Entwicklung und eines Austauschs von Tuning-Praktiken wird in dieser Arbeit weiterhin eine Community-Plattform konzipiert. Dabei spielen insbesondere Konzepte zur effizienten, feingranularen, semantikreichen Speicherung, Versionierung und Evolution von Tuning-Praktiken eine wichtige Rolle

    Barrierefreiheit zur Routine machen – Praxisfall: Digitale Bibliothek

    Get PDF
    Sechs Jahre sind vergangen seit Deutschland am 24. Februar 2009 die Behindertenrechtskonvention der Vereinten Nationen (BRK), die die volle Teilhabe aller Menschen an der Gesellschaft als Menschenrecht festschreibt, ratifizierte. Bereits seit 2002 gibt es in Deutschland ein Behindertengleichstellungsgesetz (BGG), den barrierefreien Zugang zu Informations- und Kommunikationstechnologien regelt die Barrierefreie Informationstechnik-Verordnung (BITV). Aus Sicht des Gesetzgebers sind die Rahmenbedingungen gegeben, Barrierefreiheit gehört inzwischen zum gängigen Vokabular im öffentlichen und teils auch privatwirtschaftlichen Bereich. Längst möchte man meinen, es sei ein alter Hut, Barrierefreiheit als Kernanliegen zu thematisieren oder gar einzufordern.Dies betrifft auch den rasant wachsenden Bereich digitaler Medien, der Wissen und Bildung für jedermann verfügbar macht - oder machen sollte. Vor diesem Hintergrund stellen sich die Autoren der Frage, inwieweit Barrierefreiheit in den digitalen Angeboten wissenschaftlicher und öffentlicher Bibliotheken in Deutschland angekommen ist; ob diese Angebote tatsächlich von allen genutzt werden können. Ausgehend von rechtlichen Grundlagen und Normen werden Formate und Standards für barrierefreie Netzpublikationen an Beispielen diskutiert. Im Fokus stehen einerseits Werkzeuge zum Suchen und Finden digitaler Information (Kataloge und Rechercheoberflächen), andererseits Ausgabeformate digitaler Dokumente (wie XML, PDF, EPUB oder TEI). Den Abschluss bilden Empfehlungen für (Digitale) Bibliotheken und deren Verbände, um Barrierefreiheit künftig zur Routine zu machen.Das Fazit: Barrierefreiheit muss gewollt, geplant und sinnvoll umgesetzt werden. Technische Komponenten sind ein wichtiger, doch meist erst der zweite Schritt

    Automatische Generierung adaptiver Modelle zur Simulation von Produktionssystemen

    Get PDF
    The simulation of production and logistics processes is used today in a variety of industries. Simulation is used for the analysis, design, and optimization of production and logistics processes and their resource requirements and can be used here both in the planning, commissioning, and during the actual operation.The undisputed great potentials of material flow simulation stand against high costs and effort for implementing simulation models and conducting simulation studies. Due to the poor integration and standardization of the simulation and increasing demands of companies with respect to accuracy, flexibility, adaptability, speed, cost, and reusability the expenses for using simulation are increasing.One approach that has been attempted repeatedly for several years as a contribution to mitigate the cost of using simulation is the automatic generation of simulation models. Automatic model generation refers to different approaches permitting simulation models or parts of models to be produced by means of algorithms. So far, no approach has been published which yields good results for a broad spectrum of application areas and industries.In this work, a comprehensive framework for the integration and automation of the simulation was designed and validated. The framework consists of organizational, methodical, and prototypically technical components. In this context, it is argued that for a broad application of automatic model generation the use of standards is required. Specifically, the Core Manufacturing Simulation Data (CMSD) is proposed as useful standard and a reference implementation of the standard provides the basis for the entire work. The support of all simulation phases, i.e. not only model building but also the evaluation of alternatives, initialization, evaluation of results, etc. is ensured throughout the entire framework. Furthermore, model generation methods and procedures for representing dynamic behavior in simulation models were specifically classified and selected methods were implemented and presented.Ein Ansatz, der seit einigen Jahren immer wieder als ein Lösungsbeitrag für eine bessere Nutzung der Simulation von Produktionsprozessen gerade in KMU’s betrachtet wird, ist die automatische Generierung von Simulationsmodellen. In dieser Arbeit wird ein umfassendes Rahmenwerk zur Integration bzw. Automatisierung der Simulation vorgestellt. Es wurden organisatorische, methodische als auch prototypisch technische Komponenten entworfen und validiert. Hierbei wird die These vertreten, dass eine breit anwendbare automatische Modellgenerierung allein durch die Nutzung von Standards zum Datenaustausch bzw. zur Konzeptmodellerstellung sinnvoll zu implementieren ist. Konkret wurde der Core Manufacturing Simulation Data (CMSD) Standard genutzt bzw. bildet dessen Referenzanwendung die Basis der Arbeit. Die Unterstützung aller Simulationsphasen, d.h. nicht allein der Modellerstellung sondern auch der Alternativenbildung, Initialisierung, Ergebnisauswertung usw. wird in allen Komponenten durchgehend gewährleistet. Weiterhin wurden konkret Modellgenerierungsmethoden und Verfahren zur Abbildung des dynamischen Verhaltens in Modellen klassifiziert und einzelne Lösungsansätze vorgestellt.Auch im Buchhandel erhältlich: Automatische Generierung adaptiver Modelle zur Simulation von Produktionssystemen / Sören Bergmann Ilmenau : Univ.-Verl. Ilmenau, 2014. XXXVII, 221 S. ISBN 978-3-86360-084-6 Preis: 31,20

    Verfahren und Werkzeuge zur Leistungsmessung, -analyse und -bewertung der Ein-/Ausgabeeinheiten von Rechensystemen

    Get PDF
    Untersuchungen zeigen, dass die Rechenleistung von Prozessoren stärker steigt als die Ein-/Ausgabeleistung von Sekundärspeichern. Dies führt dazu, dass CPUs ihr Rechenpotential oft nicht ausschöpfen, da sie auf Sekundärspeicherdaten warten. Zur Vermeidung dieser Wartezeiten ist die Leistungsanalyse und -optimierung der Speicher notwendig. I/O-Benchmarks sind Softwarewerkzeuge zur Leistungsanalyse, deren Probleme in dieser Arbeit aufgezeigt und gelöst werden. Es wird ein Ansatz entwickelt, der realitätsnahes, vergleichbares und einfaches I/O-Benchmarking mit der MPI-IO-Schnittstelle ermöglicht

    Modellierung und Quantifizierung der Zuverlässigkeit in Architekturen zur Bit Preservation

    Get PDF
    Die langfristige Erhaltung von Informationen ist eine essentielle Voraussetzung für wissenschaftlichen Fortschritt. Gegenstand der Dissertation ist die Erforschung und Entwicklung eines neuen Modells zur Quantifizierung der Zuverlässigkeit in Architekturen zur Bit Preservation. Basierend auf Erkenntnissen der Analyse von Replikations- und Prüfsummenszenarien an Hand der Wahrscheinlichkeit unentdeckter Fehler können Empfehlungen für Maßnahmen zur Bit Preservation abgeleitet werden

    Konzept und Implementierung eines Standard-basierten Webservices zur Einwilligungserstellung für ein zentrales Einwilligungsmanagement

    Get PDF
    Durch die immer härteren Anforderungen an Wirtschaftlichkeit und Qualität ihrer angebotenen Leistungen kommt es in der Medizin zur immer engeren Zusammenarbeit zwischen den Leistungserbringern. Das Universitätsklinikum Heidelberg und die IntercomponentWare AG haben daher ein gemeinsames Projekt ins Leben gerufen dessen Ziel die Entwicklung eines intersektoralen Informationssystems (ISIS) ist. ISIS soll den Austausch versorgungsrelevanter, medizinischer Daten ermöglichen. Patienten müssen der Teilnahme an ISIS und dem Austausch sowie der Verarbeitung ihrer Daten mit den einzelnen an ISIS teilnehmenden Einrichtungen aufgrund der rechtlichen Gegebenheiten in Deutschland explizit zustimmen. Das Management der Einwilligungserklärungen wurde bisher durch Produkte der Industrie nicht zufrieden stellend gelöst. Um das Einwilligungsmanagement befriedigend zu lösen wurde am Universitätsklinikum Heidelberg ein Konzept für ein zentrales Einwilligungsmanagement für ISIS entwickelt

    Forum - Ausgabe 2008/2009

    Get PDF
    Informiert über die Forschungsaktivitäten an der Hochschule Konstanz im Jahr 2008/2009

    Preservation Policies für sparten- und institutionsübergreifende Digitale Langzeitarchivierung

    Get PDF
    Die Vielfalt und schiere Menge von Digitalia im Bereich des digitalen Kulturerbes stellt Gedächtnisorganisationen vor Aufgaben, die zunehmend kooperativ bewältigt werden müssen. Kooperationen gelten im Bereich der Digitalen Langzeitarchivierung als probates Mittel zur Schonung von Personal- und Sachressourcen. Während die technische Machbarkeit der verteilten Bitstream Preservation bewiesen und auch andere Teilaspekte der kooperativen Langzeitarchivierung praxistauglich geworden sind, zeigen sich kooperative Aspekte in Managementinstrumenten wie Preservation Policies unscharf oder unterrepräsentiert. Die vorliegende Arbeit identifiziert in Top-Down und Bottom-Up-Ansätzen kooperative Policy-Aspekte und formuliert sie als ergänzende Empfehlungen zu bestehenden Best-Practice-Materialien des deutschen Kompetenznetzwerkes nestor. Basierend auf den Vorarbeiten der Forschungsinitiativen InterPARES, PLANETS und SCAPE werden Möglichkeiten der Formalisierung von Preservation Policies aufgezeigt. Dazu zählt die Übertragung strategischer Ziele in die Strategy Markup Language (StratML) sowie eine Formalisierung von Policy-Elementen für den Einsatz in skalierbaren Preservation Environments.The diversity and extent of digital data requires memory institutions to collaborate in the field of digital preservation. While joint ventures are deemed cost savers for all parties involved, the community observes first hand experience in distributed bitstream preservation and other cloud based-services in the digital preservation domain. However, cooperative aspects appear to be under-represented in preservation policies and related strategic documents. This work identifies cooperative policy elements using both top-down and bottom-up-approaches. It suggests supplementary recommendations to policy development in general and supporting materials published by the German competence network nestor. Based on earlier research by InterPARES, PLANETS and SCAPE the paper also examines higher degrees of formalisation for preservation policy elements. In two hands-on approaches, the paper will transform strategic objectives from a real-life preservation policy into in the Strategy Markup Language (StratML) and introduce possible ways of policy formalisation applicable in scalable preservation environments

    Preservation Policies für sparten- und institutionsübergreifende Digitale Langzeitarchivierung

    Get PDF
    Die Vielfalt und schiere Menge von Digitalia im Bereich des digitalen Kulturerbes stellt Gedächtnisorganisationen vor Aufgaben, die zunehmend kooperativ bewältigt werden müssen. Kooperationen gelten im Bereich der Digitalen Langzeitarchivierung als probates Mittel zur Schonung von Personal- und Sachressourcen. Während die technische Machbarkeit der verteilten Bitstream Preservation bewiesen und auch andere Teilaspekte der kooperativen Langzeitarchivierung praxistauglich geworden sind, zeigen sich kooperative Aspekte in Managementinstrumenten wie Preservation Policies unscharf oder unterrepräsentiert. Die vorliegende Arbeit identifiziert in Top-Down- und Bottom-Up-Ansätzen kooperative Policy-Aspekte und formuliert sie als ergänzende Empfehlungen zu bestehenden Best-Practice-Materialien des deutschen Kompetenznetzwerkes nestor. Basierend auf den Vorarbeiten der Forschungsinititativen InterPARES,PLANETSund SCAPE werden Möglichkeiten der Formalisierung von Preservation Policies aufgezeigt. Dazu zählt die Übertragung strategischer Ziele in die Strategy Markup Language (StratML) sowie eine Formalisierung von Policy-Elementen für den Einsatz in skalierbaren Preservation Environments.The diversity and extent of digital data requires memory institutions to collaborate in the field of digital preservation. While joint ventures are deemed cost savers for all parties involved, the community observes first hand experience in distributed bitstream preservation and other cloud based-services in the digital preservation domain. However, cooperative aspects appear to be under-represented in preservation policies and related Strategic documents. This work identifies cooperative policy elements using both top-down and bottom-up-approaches. It suggests supplementary recommendations to policy development in general and supporting materials published by the German competence network nestor. Based on earlier research by InterPARES, PLANETS and SCAPE the paper also examines higher degrees of formalisation for preservation policy elements. In two hands-on approaches, the paper will transform strategic objectives from a real-life preservation policy into in the Strategy Markup Language (StratML) and introduce possible ways of policy formalization applicable in scalable preservation environments
    corecore