345 research outputs found
Beschreibung, Verwaltung und Ausführung von Arbeitsabläufen im autonomen Datenbank-Tuning
In den letzten Jahrzehnten wurde die Administration von IT-Systemen zunehmend aufwendiger und kostspieliger. Zur Gewährleistung einer hohen Verfügbarkeit und Performance dieser Systeme reichen eine kontinuierliche manuelle Administration und Optimierung der Systeme im laufenden Betrieb kaum noch aus. Initiativen wie das Autonomic Computing versuchen daher, die Administrationskomplexität neuer Systeme zu reduzieren, indem sie eine Automatisierung der komplexen Systemverwaltungs- und -konfigurationsaufgaben und ihre anschließende Übertragung an die Systeme selbst ermöglichen. Die vorliegende Arbeit verfolgt das Ziel, die Übertragbarkeit der Konzepte des Autonomic Computing auf das Datenbank-Tuning zu untersuchen und eine Infrastruktur zur Automatisierung typischer Datenbank-Tuning-Aufgaben unter Reduzierung menschlicher Interaktion zu konzipieren. Als eine der Grundvoraussetzungen für die Automatisierung der Datenbank-Tuning-Aufgaben wurden hier die Beschreibung und Modellierung des Tuning-Wissens identifiziert. Die vorgestellten Konzepte ermöglichen es den Administratoren daher, sowohl die Problemsituationen als auch die entsprechenden bewährten Tuning-Abläufe zu erfassen und im System zu hinterlegen. Mit Hilfe einer auf diesen Konzepten aufbauenden Architektur lassen sich IT-Systeme kontinuierlich überwachen und beim Feststellen eines problematischen Verhaltens entsprechende, vorab im System hinterlegte Tuning-Abläufe einleiten. Dabei können sowohl der Überwachungs- als auch der Tuning-Prozess in Abhängigkeit von der anliegenden Arbeitslast und unter der Einbeziehung von Metadaten bzw. nutzerdefinierten Tuning-Zielen beeinflusst werden. Zur Unterstützung einer kollaborativen Entwicklung und eines Austauschs von Tuning-Praktiken wird in dieser Arbeit weiterhin eine Community-Plattform konzipiert. Dabei spielen insbesondere Konzepte zur effizienten, feingranularen, semantikreichen Speicherung, Versionierung und Evolution von Tuning-Praktiken eine wichtige Rolle
Barrierefreiheit zur Routine machen – Praxisfall: Digitale Bibliothek
Sechs Jahre sind vergangen seit Deutschland am 24. Februar 2009 die Behindertenrechtskonvention der Vereinten Nationen (BRK), die die volle Teilhabe aller Menschen an der Gesellschaft als Menschenrecht festschreibt, ratifizierte. Bereits seit 2002 gibt es in Deutschland ein Behindertengleichstellungsgesetz (BGG), den barrierefreien Zugang zu Informations- und Kommunikationstechnologien regelt die Barrierefreie Informationstechnik-Verordnung (BITV). Aus Sicht des Gesetzgebers sind die Rahmenbedingungen gegeben, Barrierefreiheit gehört inzwischen zum gängigen Vokabular im öffentlichen und teils auch privatwirtschaftlichen Bereich. Längst möchte man meinen, es sei ein alter Hut, Barrierefreiheit als Kernanliegen zu thematisieren oder gar einzufordern.Dies betrifft auch den rasant wachsenden Bereich digitaler Medien, der Wissen und Bildung für jedermann verfügbar macht - oder machen sollte. Vor diesem Hintergrund stellen sich die Autoren der Frage, inwieweit Barrierefreiheit in den digitalen Angeboten wissenschaftlicher und öffentlicher Bibliotheken in Deutschland angekommen ist; ob diese Angebote tatsächlich von allen genutzt werden können. Ausgehend von rechtlichen Grundlagen und Normen werden Formate und Standards für barrierefreie Netzpublikationen an Beispielen diskutiert. Im Fokus stehen einerseits Werkzeuge zum Suchen und Finden digitaler Information (Kataloge und Rechercheoberflächen), andererseits Ausgabeformate digitaler Dokumente (wie XML, PDF, EPUB oder TEI). Den Abschluss bilden Empfehlungen für (Digitale) Bibliotheken und deren Verbände, um Barrierefreiheit künftig zur Routine zu machen.Das Fazit: Barrierefreiheit muss gewollt, geplant und sinnvoll umgesetzt werden. Technische Komponenten sind ein wichtiger, doch meist erst der zweite Schritt
Automatische Generierung adaptiver Modelle zur Simulation von Produktionssystemen
The simulation of production and logistics processes is used today in a
variety of industries. Simulation is used for the analysis, design, and
optimization of production and logistics processes and their resource
requirements and can be used here both in the planning, commissioning, and
during the actual operation.The undisputed great potentials of material
flow simulation stand against high costs and effort for implementing
simulation models and conducting simulation studies. Due to the poor
integration and standardization of the simulation and increasing demands of
companies with respect to accuracy, flexibility, adaptability, speed, cost,
and reusability the expenses for using simulation are increasing.One
approach that has been attempted repeatedly for several years as a
contribution to mitigate the cost of using simulation is the automatic
generation of simulation models. Automatic model generation refers to
different approaches permitting simulation models or parts of models to be
produced by means of algorithms. So far, no approach has been published
which yields good results for a broad spectrum of application areas and
industries.In this work, a comprehensive framework for the integration and
automation of the simulation was designed and validated. The framework
consists of organizational, methodical, and prototypically technical
components. In this context, it is argued that for a broad application of
automatic model generation the use of standards is required. Specifically,
the Core Manufacturing Simulation Data (CMSD) is proposed as useful
standard and a reference implementation of the standard provides the basis
for the entire work. The support of all simulation phases, i.e. not only
model building but also the evaluation of alternatives, initialization,
evaluation of results, etc. is ensured throughout the entire framework.
Furthermore, model generation methods and procedures for representing
dynamic behavior in simulation models were specifically classified and
selected methods were implemented and presented.Ein Ansatz, der seit einigen Jahren immer wieder als ein Lösungsbeitrag für eine bessere Nutzung der Simulation von Produktionsprozessen gerade in KMU’s betrachtet wird, ist die automatische Generierung von Simulationsmodellen.
In dieser Arbeit wird ein umfassendes Rahmenwerk zur Integration bzw. Automatisierung der Simulation vorgestellt. Es wurden organisatorische, methodische als auch prototypisch technische Komponenten entworfen und validiert. Hierbei wird die These vertreten, dass eine breit anwendbare automatische Modellgenerierung allein durch die Nutzung von Standards zum Datenaustausch bzw. zur Konzeptmodellerstellung sinnvoll zu implementieren ist. Konkret wurde der Core Manufacturing Simulation Data (CMSD) Standard genutzt bzw. bildet dessen Referenzanwendung die Basis der Arbeit. Die Unterstützung aller Simulationsphasen, d.h. nicht allein der Modellerstellung sondern auch der Alternativenbildung, Initialisierung, Ergebnisauswertung usw. wird in allen Komponenten durchgehend gewährleistet. Weiterhin wurden konkret Modellgenerierungsmethoden und Verfahren zur Abbildung des dynamischen Verhaltens in Modellen klassifiziert und einzelne Lösungsansätze vorgestellt.Auch im Buchhandel erhältlich:
Automatische Generierung adaptiver Modelle zur Simulation von Produktionssystemen / Sören Bergmann
Ilmenau : Univ.-Verl. Ilmenau, 2014. XXXVII, 221 S.
ISBN 978-3-86360-084-6
Preis: 31,20
Verfahren und Werkzeuge zur Leistungsmessung, -analyse und -bewertung der Ein-/Ausgabeeinheiten von Rechensystemen
Untersuchungen zeigen, dass die Rechenleistung von Prozessoren stärker steigt als die Ein-/Ausgabeleistung von Sekundärspeichern. Dies führt dazu, dass CPUs ihr Rechenpotential oft nicht ausschöpfen, da sie auf Sekundärspeicherdaten warten. Zur Vermeidung dieser Wartezeiten ist die Leistungsanalyse und -optimierung der Speicher notwendig. I/O-Benchmarks sind Softwarewerkzeuge zur Leistungsanalyse, deren Probleme in dieser Arbeit aufgezeigt und gelöst werden. Es wird ein Ansatz entwickelt, der realitätsnahes, vergleichbares und einfaches I/O-Benchmarking mit der MPI-IO-Schnittstelle ermöglicht
Modellierung und Quantifizierung der Zuverlässigkeit in Architekturen zur Bit Preservation
Die langfristige Erhaltung von Informationen ist eine essentielle Voraussetzung für wissenschaftlichen Fortschritt. Gegenstand der Dissertation ist die Erforschung und Entwicklung eines neuen Modells zur Quantifizierung der Zuverlässigkeit in Architekturen zur Bit Preservation. Basierend auf Erkenntnissen der Analyse von Replikations- und Prüfsummenszenarien an Hand der Wahrscheinlichkeit unentdeckter Fehler können Empfehlungen für Maßnahmen zur Bit Preservation abgeleitet werden
Konzept und Implementierung eines Standard-basierten Webservices zur Einwilligungserstellung für ein zentrales Einwilligungsmanagement
Durch die immer härteren Anforderungen an Wirtschaftlichkeit und Qualität ihrer angebotenen Leistungen kommt es in der Medizin zur immer engeren Zusammenarbeit zwischen den Leistungserbringern. Das Universitätsklinikum Heidelberg und die IntercomponentWare AG haben daher ein gemeinsames Projekt ins Leben gerufen dessen Ziel die Entwicklung eines intersektoralen Informationssystems (ISIS) ist. ISIS soll den Austausch versorgungsrelevanter, medizinischer Daten ermöglichen. Patienten müssen der Teilnahme an ISIS und dem Austausch sowie der Verarbeitung ihrer Daten mit den einzelnen an ISIS teilnehmenden Einrichtungen aufgrund der rechtlichen Gegebenheiten in Deutschland explizit zustimmen. Das Management der Einwilligungserklärungen wurde bisher durch Produkte der Industrie nicht zufrieden stellend gelöst. Um das Einwilligungsmanagement befriedigend zu lösen wurde am Universitätsklinikum Heidelberg ein Konzept für ein zentrales Einwilligungsmanagement für ISIS entwickelt
Forum - Ausgabe 2008/2009
Informiert über die Forschungsaktivitäten an der Hochschule Konstanz im Jahr 2008/2009
Preservation Policies für sparten- und institutionsübergreifende Digitale Langzeitarchivierung
Die Vielfalt und schiere Menge von Digitalia im Bereich des digitalen Kulturerbes stellt Gedächtnisorganisationen vor Aufgaben, die zunehmend kooperativ bewältigt werden müssen. Kooperationen gelten im Bereich der Digitalen Langzeitarchivierung als probates Mittel zur Schonung von Personal- und Sachressourcen. Während die technische Machbarkeit der verteilten Bitstream Preservation bewiesen und auch andere Teilaspekte der kooperativen Langzeitarchivierung praxistauglich geworden sind, zeigen sich kooperative Aspekte in Managementinstrumenten wie Preservation Policies unscharf oder unterrepräsentiert. Die vorliegende Arbeit identifiziert in Top-Down und Bottom-Up-Ansätzen kooperative Policy-Aspekte und formuliert sie als ergänzende Empfehlungen zu bestehenden Best-Practice-Materialien des deutschen Kompetenznetzwerkes nestor. Basierend auf den Vorarbeiten der Forschungsinitiativen InterPARES, PLANETS und SCAPE werden Möglichkeiten der Formalisierung von Preservation Policies aufgezeigt. Dazu zählt die Übertragung strategischer Ziele in die Strategy Markup Language (StratML) sowie eine Formalisierung von Policy-Elementen für den Einsatz in skalierbaren Preservation Environments.The diversity and extent of digital data requires memory institutions to collaborate in the field of digital preservation. While joint ventures are deemed cost savers for all parties involved, the community observes first hand experience in distributed bitstream preservation and other cloud based-services in the digital preservation domain. However, cooperative aspects appear to be under-represented in preservation policies and related strategic documents. This work identifies cooperative policy elements using both top-down and bottom-up-approaches. It suggests supplementary recommendations to policy development in general and supporting materials published by the German competence network nestor. Based on earlier research by InterPARES, PLANETS and SCAPE the paper also examines higher degrees of formalisation for preservation policy elements. In two hands-on approaches, the paper will transform strategic objectives from a real-life preservation policy into in the Strategy Markup Language (StratML) and introduce possible ways of policy formalisation applicable in scalable preservation environments
Preservation Policies für sparten- und institutionsübergreifende Digitale Langzeitarchivierung
Die Vielfalt und schiere Menge von Digitalia im Bereich des digitalen Kulturerbes stellt
Gedächtnisorganisationen vor Aufgaben, die zunehmend kooperativ bewältigt werden
müssen. Kooperationen gelten im Bereich der Digitalen Langzeitarchivierung als probates
Mittel zur Schonung von Personal- und Sachressourcen. Während die technische
Machbarkeit der verteilten Bitstream Preservation bewiesen und auch andere Teilaspekte
der kooperativen Langzeitarchivierung praxistauglich geworden sind, zeigen sich kooperative
Aspekte in Managementinstrumenten wie Preservation Policies unscharf oder
unterrepräsentiert. Die vorliegende Arbeit identifiziert in Top-Down- und Bottom-Up-Ansätzen kooperative Policy-Aspekte und formuliert sie als ergänzende Empfehlungen zu
bestehenden Best-Practice-Materialien des deutschen Kompetenznetzwerkes nestor.
Basierend auf den Vorarbeiten der Forschungsinititativen InterPARES,PLANETSund SCAPE
werden Möglichkeiten der Formalisierung von Preservation Policies aufgezeigt. Dazu zählt
die Übertragung strategischer Ziele in die Strategy Markup Language (StratML) sowie eine
Formalisierung von Policy-Elementen für den Einsatz in skalierbaren Preservation
Environments.The diversity and extent of digital data requires memory institutions to collaborate in the field of digital preservation. While joint ventures are deemed cost savers for all parties involved, the community observes first hand experience in distributed bitstream preservation and other cloud based-services in the digital preservation domain. However, cooperative aspects appear to be under-represented in preservation policies and related
Strategic documents. This work identifies cooperative policy elements using both top-down and bottom-up-approaches. It suggests supplementary recommendations to policy development in general and supporting materials published by the German competence network nestor. Based on earlier research by InterPARES, PLANETS and SCAPE the paper also examines higher degrees of formalisation for preservation policy elements. In two hands-on approaches, the paper will transform strategic objectives from a real-life preservation policy into in the Strategy Markup Language (StratML) and introduce possible ways of policy formalization applicable in scalable preservation environments
- …