30 research outputs found

    Prediction of available computing capacities for a more efficient use of Grid resources

    Get PDF
    Vor allem in der Forschung und in den Entwicklungsabteilungen von Unternehmen gibt es eine Vielzahl von Problemen, welche nur mit Programmen zu lösen sind, für deren Ausführung die zur Verfügung stehende Rechenleistung kaum groß genug sein kann. Gleichzeitig ist zu beobachten, dass ein großer Teil der mit der installierten Rechentechnik vorhandenen Rechenkapazität nicht ausgenutzt wird. Dies gilt insbesondere für Einzelrechner, die in Büros, Computer-Pools oder Privathaushalten stehen und sogar während ihrer eigentlichen Nutzung selten ausgelastet sind. Eines der Ziele des Grid-Computings besteht darin, solche nicht ausgelasteten Ressourcen für rechenintensive Anwendungen zur Verfügung zu stellen. Die eigentliche Motivation für die beabsichtigte bessere Auslastung der Ressourcen liegt dabei nicht primär in der höhreren Auslastung, sondern in einer möglichen Einsparung von Kosten gegenüber der Alternative der Neuanschaffung weiterer Hardware. Ein erster Beitrag der vorliegenden Arbeit liegt in der Analyse und Quantifizierung dieses möglichen Kostenvorteils. Zu diesem Zweck werden die relevanten Kosten betrachtet und schließlich verschiedene Szenarien miteinander verglichen. Die Analyse wird schließlich konkrete Zahlen zu den Kosten in den verschiedenen Szenarien liefern und somit das mögliche Potential zur Kosteneinsparung bei der Nutzung brach liegender Rechenkapazitäten aufzeigen. Ein wesentliches Problem beim Grid-Computing besteht jedoch (vor allem bei der Nutzung von Einzelrechnern zur Ausführung länger laufender Programme) darin, dass die zur Verfügung stehenden freien Rechenkapazitäten im zeitlichen Verlauf stark schwanken und Berechnungsfortschritte durch plötzliche anderweitige Verwendung bzw. durch Abschalten der Rechner verloren gehen. Um dennoch auch Einzelrechner sinnvoll für die Ausführung länger laufender Jobs nutzen zu können, wären Vorhersagen der in der nächsten Zeit zu erwartenden freien Rechenkapazitäten wünschenswert. Solche Vorhersagen könnten u. a. hilfreich sein für das Scheduling und für die Bestimmung geeigneter Checkpoint-Zeitpunkte. Für die genannten Anwendungszwecke sind dabei Punktvorhersagen (wie z. B. Vorhersagen des Erwartungswertes) nur bedingt hilfreich, weshalb sich die vorliegende Arbeit ausschließlich mit Vorhersagen der Wahrscheinlichkeitsverteilungen beschäftigt. Wie solche Vorhersagen erstellt werden sollen, ist Gegenstand der restlichen Arbeit. Dabei werden zunächst Möglichkeiten der Bewertung von Prognoseverfahren diskutiert, die Wahrscheinlichkeitsverteilungen vorhersagen. Es werden wesentliche Probleme bisheriger Bewertungsverfahren aufgezeigt und entsprechende Lösungsvorschläge gemacht. Unter Nutzung dieser werden in der Literatur zu findende und auch neue Vorgehensweisen zur Prognoseerstellung empirisch miteinander verglichen. Es wird sich zeigen, dass eine der neu entwickelten Vorgehensweisen im Vergleich zu bisher in der Literatur dargestellten Vorhersageverfahren klare Vorteile bzgl. der Genauigkeit der Prognosen erzielt.Although computer hardware is getting faster and faster, the available computing capacity is not satisfying for all problem types. Especially in research and development departments the demand for computing power is nearly unlimited. On the same time, there are really large amounts of computing capacities being idle. Such idle capacities can be found in computer pools, on office workstations, or even on home PCs, which are rarely fully utilized. Consequently, one of the goals of the so called “grid computing” is the use of underutilized resources for the execution of compute-intensive tasks. The original motivation behind this idea is not primarily the high utilization of all resources. Instead, the goal is a reduction of costs in comparison to classical usage scenarios. Hence, a first contribution of the thesis at hand is the analysis of the potential cost advantage. The analysis quantifies the relevant cost factors and compares different usage scenarios. It finally delivers tangible figures about the arising costs and, consequently, also about the potential cost savings when using underutilized resources. However, the realization of the potential cost savings is hampered by the variability of the available computing capacities. The progress of a computational process can be slowed down or even lost by sudden increments of the resource utilization or (even worse) by shutdowns or crashes. Obviously, accurate predictions of the future available computing capacities could alleviate the mentioned problem. Such predictions were useful for several purposes (e.g. scheduling or optimization of checkpoint intervals), whereas in most cases the prediction of a single value (for example the expectancy) is only of limited value. Therefore, the work at hand examines predictions of probability distributions. First, the problem of the assessment of different prediction methods is extensively discussed. The main problems of existing assessment criteria are clearly identified, and more useful criteria are proposed. Second, the problem of the prediction itself is analyzed. For this purpose, conventional methods as described in the literature are examined and finally enhanced. The modified methods are then compared to the conventional methods by using the proposed assessment criteria and data from real world computers. The results clearly show the advantage of the methods proposed in the thesis at hand

    Einheitliches Management serviceorientierter Systeme in einer Multi-Provider-Umgebung

    Get PDF
    Die zunehmende Digitalisierung der Geschäfts- und Alltagswelt stellt die heutige Unternehmens-IT vor immer größer werdende Herausforderungen. Die Unternehmen sind gezwungen, ihre Prozesse kontinuierlich zu optimieren und an veränderte Rahmen- und Marktbedingungen anzupassen. Die IT muss mit diesem Wandel Schritt halten. Als ein strategisches IT-Konzept bietet das Cloud-Computing die Möglichkeit, die IT-Landschaft bedarfsorientiert nach dem Baukastenprinzip zusammenzustellen. In den seltensten Fällen wird aber ein einzelner Anbieter über ein passendes Leistungsangebot verfügen, das sämtliche funktionalen und nicht-funktionalen Anforderungen abdeckt. Der Weg hin zu einer Multi-Provider-Umgebung ist somit vorgezeichnet und bereits durch Trends belegt. Allerdings stellt das einheitliche Management einer Multi-Provider-Umgebung, die neben cloudbasierten auch virtuelle und physikalische Umgebungen umfasst, eine Herausforderung dar. Die anforderungsgerechte Bereitstellung und der gütegesicherte Betrieb von Services erfordern den flexiblen Einsatz aller am Verbund beteiligten Ausführungsumgebungen. Im Rahmen dieser Arbeit wird dafür eine Lösung entwickelt. Die Grundlage bildet ein Informationsmodell, das managementrelevante Ressourcen durch Managementobjekte einheitlich repräsentiert. Dazu werden Managementobjektklassen und ihre Beziehungen untereinander festgelegt. Managementobjektklassen verfügen über öffentliche Eigenschaften, die in Form von Managementvariablen modelliert werden. Mit Hilfe von Statusvariablen kann sich der Manager über den Ressourcenzustand informieren, und mit Hilfe von Konfigurationsvariablen kann er auf den Ressourcenzustand einwirken. Das Management einer Multi-Provider-Umgebung erfordert den Einsatz eines Managementsystems, das den fehlerfreien Servicebetrieb sicherstellt. Dazu gilt es, die vom Informationsmodell festgelegten Managementobjekte zur Laufzeit bereitzustellen und zu verwalten. Die Umsetzung wird dadurch erschwert, dass nicht nur eine einzelne Managementarchitektur zum Einsatz kommt, sondern zumeist mehrere. Dies setzt den Einsatz einer Datenstruktur voraus, die zur Informationsintegration verschiedenste Datenquellen anbinden kann. Dadurch lässt sich die Heterogenität überwinden und eine einheitliche Sicht auf die Managementinformationen erzeugen. Zur Gewährleistung der nicht-funktionalen Eigenschaften bedarf es neben der kontinuierlichen Überprüfung der Zieleinhaltung auch des Einsatzes adaptiver Maßnahmen, um den sich abzeichnenden Zielverfehlungen entgegenzuwirken. Hierfür kommen Policy-Regeln zum Einsatz, die die Multi-Provider-Umgebung überwachen und steuern. Im Rahmen eines Anwendungsfalls wird der experimentelle Nachweis erbracht, dass sich nicht-interaktive Services auf Basis des Informationsmodells und der Policy-Regeln in einem Verbund von heterogenen Ausführungsumgebungen flexibel bereitstellen und gütegesichert erbringen lassen

    Offene Wissensteilung von Wissenschaftlern mittels Social Software

    Get PDF
    Die Dissertation untersucht, welche individuellen Einflussfaktoren Wissenschaftler zur Wissensteilung mittels Social Software motivieren. Dazu werden universitäre Wissenschaftler, ihre Stakeholder und typische Karrierewege sowie die Bereiche Open Science und Open Educational Resources beleuchtet. Im Anschluss wird die Anwendbarkeit existierender Theorien der Technologieakzeptanz und der Wissensteilung (insbesondere in virtuellen Communities) auf die Wissensteilung von Wissenschaftlern mittels Social Software untersucht. Darauf aufbauend werden potentielle Einflussfaktoren identifiziert und ein spezifisches Erklärungsmodell abgeleitet. Dieses wird mittels Online-Umfragen empirisch überprüft und verfeinert

    Entwicklung eines service-orientierten und workflow-basierten Verfahrens zur automatisierten patientenübergreifenden Analyse von radioonkologischen Bild- und Bestrahlungsplanungsdaten

    Get PDF
    Einleitung Retrospektive Auswertungen klinischer Routinedaten gewinnen zunehmend an Bedeutung in der Strahlentherapie. Daher werden in der Strahlentherapie vermehrt Forschungsdatenbanken für die Zusammenführung der häufig stark verteilten heterogenen Daten aufgebaut. Die Zusammenführung der Daten ist jedoch nur der erste Schritt in Rich- tung Forschung. Die eigentliche Herausforderung besteht in der Analyse dieser heterogenen Daten. Es müssen Methoden entwickelt werden, um Bilddaten in die datenbankbasier- ten Analysen miteinzubeziehen. Retrospektive Analysen werden in der Radioonkologie überwiegend manuell durchgeführt. Daher spielen die Automatisierung und moderne Analysetechniken eine immer wichtigere Rolle. Fragestellung Das übergeordnete Ziel dieser Arbeit ist die Zusammenführung von hetero- genen, verteilten radioonkologischen Daten mit verschiedenen radioonkologischen Analy- setools zur Vereinfachung und Automatisierung von patientenübergreifenden bildbasierten retrospektiven Auswertungen in der Strahlentherapie. Zum Erreichen dieser Zielsetzung sollen im Rahmen dieser Arbeit eine zentrale radioonkologische Forschungsdatenbank und eine service-orientierte workflow-basierte Analyseplattform implementiert werden. An- schließend soll anhand verschiedener radioonkologischer Fragestellungen gezeigt werden, dass mit Hilfe dieser beiden Plattformen patientenübergreifende Analysen von Bild- und Bestrahlungsplanungsdaten automatisiert durchgeführt und dadurch vereinheitlicht und vereinfacht werden können. Ergebnisse Das erste Ziel war der Aufbau einer zentralen radioonkologischen Forschungs- plattform. Im Rahmen eines europäischen Forschungsprojekts wurde zunächst eine zen- trales Studiendokumentationssystem für die Partikeltherapie eingeführt, das nach Ende des Projekts zur zentralen radioonkologischen Forschungsdatenbank der Radioonkologie Heidelberg ausgebaut wurde. In der zentralen Forschungsdatenbank werden alle relevan- ten Daten inklusive Bild- und Bestrahlungsplanungsdaten aus verschiedensten klinischen Informationssystemen automatisiert zusammengeführt und durch ein Dokumentationsteam vervollständigt, um sie Klinikern und Wissenschaftlern für wissenschaftliche Auswertungen zur Verfügung stellen zu können. Das zweite Ziel war die Implementierung einer service-orientierten workflow-basierten Analyseplattform. Die Analyseplattform wurde auf Basis von existierenden Analysetools, die als Web Services zur Verfügung gestellt wurden, und unter Einsatz eines Workflow Management Systems realisiert und an die zentrale Forschungsdatenbank angebunden. Dadurch können kombinierte Analysen von radioonkologischen Bild- und Bestrahlungspla- nungsdaten sowie klinischen Daten automatisiert und standardisiert durchgeführt werden. Das dritte Ziel war der Nachweis der Machbarkeit solcher automatisierten Auswertungen im Rahmen eines Proof-of-Concept-Projekts. Hierzu wurde eine typische radioonkologi- sche Beispielfragestellung ausgewählt und realisiert. Dabei konnte gezeigt werden, dass mit Hilfe der Forschungsdatenbank und Analyseplattform eine vollständig automatisierte Rezidivanalyse bei Partikeltherapie-Patienten mit einem Gliom durchgeführt werden kann. Das vierte Ziel waren der Einsatz und die Weiterentwicklung der Forschungsdatenbank und Analyseplattform im Rahmen von drei realen radioonkologischen Forschungsprojekten. Im ersten Projekt konnte gezeigt werden, dass eine patientenübergreifende Dosis-Volumen- Analyse mit Hilfe der Analyseplattform auch für größere Patientenkollektive durchgeführt werden kann. Im zweiten und dritten Projekt konnte gezeigt werden, dass Planvergleichs- studien von zwei bzw. drei verschiedenen Bestrahlungstechniken patientenübergreifend automatisiert und standardisiert durchgeführt werden können. Diskussion Durch den Einsatz einer Forschungsdatenbank als zentrale Datenquelle wird der Zugriff auf klinische Daten vereinfacht und retrospektive Auswertungen können we- sentlich einfacher durchgeführt werden. Von technischer Seite konnte gezeigt werden, dass service-orientierte Technologien auch im Bereich der Bilddatenanalyse der Radioonkologie genutzt werden können. Aufgrund der modularen und standardisierten Systemarchitektur ist der in dieser Arbeit vorgestellte service-orientierte Ansatz erweiterbar und auf beliebige medizinische Bereiche wie z.B. die Radiologie oder Onkologie im Allgemeinen aber auch andere medizinische Fachbereiche übertragbar. Es konnte aber auch gezeigt werden, dass die Hoffnung, durch sorgfältige Analysen kli- nischer Routinedaten neue Erkenntnisse zu gewinnen, durch die klinischen Realitäten begrenzt sind. Aus verschiedensten Gründen kann es schwierig sein, auch aus einer großen Datenbasis eine ausreichende Anzahl von Fällen zu extrahieren, um darauf aufbauend statistisch signifikante Auswertungen durchführen zu können. Diese Erkenntnis sollte in Zukunft das Bewusstsein schärfen, wie wichtig eine lückenlose Erfassung der Daten ist. Service-orientierte und workflow-basierte Ansätze werden bisher überwiegend im Bereich der Bioinformatik verwendet, um wissenschaftliche Auswertungen automatisiert durch- führen zu können. Es gibt jedoch auch erste Bestrebungen, diese Ansätze auch für die Analyse von medizinischen Bilddaten zu verwenden, bisher jedoch nicht im Bereich der Strahlentherapie. Darüber hinaus ist die Anbindung einer Forschungsdatenbank als zentrale Datenquelle und zugleich Wissensbasis ebenfalls noch neu. Schlussfolgerung Insgesamt werden retrospektive Analysen von umfangreichen hetero- genen Datenbeständen in der Radioonkologie durch die im Rahmen dieser Arbeit ent- wickelte service-orientierte workflow-basierte Analyseplattform in Kombination mit der zentralen radioonkologischen Forschungsdatenbank wesentlich einfacher, da sowohl die Datenbeschaffung als auch die Datenanalyse automatisiert und zentralisiert und damit vereinheitlicht werden. In dieser Arbeit wurde eine System geschaffen, mit dem es möglich ist, automatisiert und effizient radioonkologische Daten zu analysieren. Dadurch sinkt der Aufwand für solche Auswertungen drastisch. Somit ist die retrospektive Auswertung umfangreicher radioonkologischer Routinedatenbestände ein Stück näher gerückt und aufwendige Plan- vergleichsstudien können effizienter durchgeführt werden. Dadurch kann die klassische evidenzbasierte Radioonkologie langfristig durch die retrospektive Analyse umfangreicher radioonkologischer Datenbestände unterstützt werden

    2018

    Get PDF

    Permanente Optimierung dynamischer Probleme der Fertigungssteuerung unter Einbeziehung von Benutzerinteraktionen

    Get PDF
    Trotz enormen Forschungsaufwands erhalten die Entscheider in der Fertigungssteuerung nur rudimentäre Rechnerunterstützung. Diese Arbeit schlägt ein umfassendes Konzept für eine permanent laufende algorithmische Feinplanung vor, die basierend auf einer Analyse des Optimierungspotentials und -bedarfs intelligent mit den Entscheidern kollaboriert und zeitnah auf Fertigungsereignisse reagiert. Dynamische Simulationen mit Unternehmensdaten bestätigen die Praxistauglichkeit des Konzepts

    2017

    Get PDF

    Tagungsband zum Doctoral Consortium der WI2007

    Get PDF

    Regionale Standards: Ausgabe 2019

    Get PDF
    Die "Regionalen Standards" gehen zurück auf die Initiative eines gemeinsamen Arbeitskreises, bestehend aus Vertretern des Statistischen Bundesamtes, der Arbeitsgemeinschaft Sozialwissenschaftlicher Institute e.V. (ASI) und des ADM Arbeitskreis Deutscher Markt- und Sozialforschungsinstitute e.V. Sie stellen ein Angebot für die Forschung in der Bundesrepublik Deutschland dar. Die "Regionalen Standards" beschreiben Gebietsabgrenzungen und Instrumente zur Typisierung von Regionen, wie sie in der Bundesrepublik Deutschland von der amtlichen Statistik und/oder der Markt- und Sozialforschung in gewisser Regelmäßigkeit eingesetzt werden. Zusätzlich werden Datensätze aus unterschiedlichen Quellen vorgestellt, die für die Regionalisierung von Bevölkerungsumfragen genutzt werden können und für die Forschung (teils jedoch mit Einschränkungen) zur Verfügung stehen
    corecore