1,119 research outputs found

    Kombinatorische Ressourcenallokation mit ökonomischen Koordinationsmechanismen

    Get PDF
    In dieser Arbeit wird sowohl die theoretische Weiterentwicklung als auch die praktische Umsetzung von ökonomischen Koordinationsmechanismen zur Allokation von Ressourcen untersucht. Es werden neue Koordinationsverfahren für die Allokation komplementärer und substitutionaler Ressourcen entwickelt und Wege zu ihrer Realisierung in Agentensystemen aufgezeigt. Dabei werden Fragen der ökonomischen Effizienz, der Anreizkompatibilität und der Effizienz der Informationsbeschaffung untersucht. Darüberhinaus wird die Anwendbarkeit der Verfahren in einem Produktionskontext und die Konsequenz ihres Einsatzes für die Gestaltung von Organisationsstrukturen diskutier

    Ablaufplanung bei Reihenfertigung mit mehrfacher Zielsetzung auf der Basis von Ameisenalgorithmen

    Get PDF
    In der Arbeit wird ein Permutation Flow Shop Problem mit mehrfacher Zielsetzung betrachtet. Das Problem der Reihenfolgeplanung von Aufträgen in einem Produktionssystem hat seit der Veröffentlichung des Johnson Algorithmus 1954 wesentliche Aufmerksamkeit erlangt. Dabei wurden hauptsächlich Probleme mit nur einer Zielsetzung betrachtet. In der Praxis hat sich die Reihenfolgeplanung in der Regel jedoch an mehreren Zielgrößen zu orientieren. Neben der Maximierung der Kapazitätsauslastung können z.B. auch die Minimierung der Durchlaufzeiten sowie das Einhalten von vorgegebenen Fertigstellungsterminen weitere zu berücksichtigende Ziele sein. In der vorliegenden Arbeit wird ein Zielsystem bestehend aus den Zielgrößen mittlere Durchlaufzeit, maximale Terminüberschreitung sowie der Zykluszeit betrachtet. Alle drei Zielgrößen sind zu minimieren. Es werden zwei Ameisenalgorithmen zur Ermittlung heuristisch effizienter Mengen von Auftragsfolgen vorgestellt und experimentell untersucht. Die Menge der heuristisch effizienten Auftragsfolgen ergibt sich dabei aus den von der Heuristik ermittelten heuristisch effizienten Auftragsfolgen. Bezogen auf eine Heuristik ist eine Auftragsfolge dann heuristisch effizient, wenn es keine andere von der Heuristik erzeugte und auf Effizienz überprüfte Auftragsfolge gibt, die bezüglich aller Ziele keinen schlechteren und bei mindestens einem Ziel einen besseren Zielerreichungsgrad aufweist. Daneben wird die Beurteilung der Qualität von heuristisch effizienten Mengen ausführlich betrachtet. Die bisher in der Literatur vorgestellten Maße werden kritisch diskutiert und anschließend ein System von Maßen zur Beurteilung der Qualität heuristisch effizienter Mengen entwickelt. Außerdem werden in der Arbeit allgemeine Überlegungen zur Steuerung der Suche nach Elementen der effizienten Menge angestellt. Dazu gehören Analysen zur Distanz von Auftragsfolgen im Lösungsraum, sowie die Entwicklung von Konzepten zur Definition der Nachbarschaft im Zielraum

    Vermeidung von Interferenzen bei der Konsolidierung von Diensten auf zeitlich geteilten Ressourcen

    Get PDF
    Der steigende Bedarf an Internettraffic, Speicher und Verarbeitung benötigt immer mehr Hardwareressourcen. Zusätzlich überdimensionieren Datenzentrumbetreiber ihre Infrastruktur, um auch bei Bedarfsspitzen hinreichend Leistung zur Verfügung stellen zu können. Das führt zu einer geringen Ressourcenauslastung und damit zu einem erhöhten Energieverbrauch. Durch Konsolidierung der aktiven Dienste auf einer Teilmenge der physischen Server zu Zeiten geringer Auslastung können zum einen nicht benötigte Server ausgeschaltet werden und zum anderen sind die verbleibenden Server besser ausgelastet. Jedoch müssen sich Dienste nach der Konsolidierung die physischen Ressourcen mit anderen Diensten teilen. Durch Wechselwirkungen auf gemeinsam genutzten Ressourcen, sogenannten Interferenzen, verschlechtert sich die Performanz der Dienste. In dieser Arbeit wird auf Interferenzen eingegangen, die aufgrund des zeitlich variierenden Ressourcenverbrauchs von Diensten entstehen. Am Beispiel von der Rechenzeit einzelner Prozessorkerne wird mit Hilfe des Cutting Stock Problems mit nichtdeterministischen Längen (ND-CSP) der Energieverbrauch durch die Zahl der benötigten Ressourcen um bis zu 64,1% gesenkt. Durch Berücksichtigung der zeitlichen Variation des Ressourcenverbrauchs verbessert sich die Performanz um bis zu 59,6% gegenüber anderen Konsolidierungsstrategien. Außerdem wird das Konzept des Überlappungskoeffizienten eingeführt. Dieser beschreibt die probabilistische Beziehung zweier parallel laufender Dienste, inwiefern sie gleichzeitig aktiv sind. Sind Dienste nicht gleichzeitig aktiv, können sie ohne zu erwartende Interferenzen konsolidiert werden. Umgekehrt sollte die Konsolidierung gleichzeitig aktiver Dienste vermieden werden. Die Analyse eines Datenzentrums von Google zeigt, dass beide Szenarien einen signifikanten Anteil darstellen. Zur Berücksichtigung des Überlappungskoeffizienten wird das ND-CSP erweitert und näherungsweise gelöst. Hier zeigt sich jedoch weder eine Verbesserung noch eine Verschlechterung der Performanz der Dienste bei gleichem Energieverbrauch. Perspektivisch, bei der exakten Lösung und weiterer Optimierung, können aber damit Dienste eventuell so allokiert werden, dass ihre Interferenzen reduziert oder im Idealfall sogar weitgehend ausgeschlossen werden können.An increasing portion of IP traffic is processed and stored in data centers. However, data center providers tend to over-provision their resources. Therefore, underutilized resources unnecessarily waste energy. Consolidating services allows them to be executed within a subset of the entire data center and to turn off the unnecessary, idling machines. Additionally, the remaining machines are properly utilized and, hence, more energy-efficient. Nevertheless, this has to be balanced against degrading the quality of service due to the shared resources of the physical machines after the consolidation. This thesis focuses on the above mentioned interferences due to fluctuating workloads. These are treated in the framework of the Cutting Stock Problem, where items with non-deterministic length are introduced. This reduces the power consumption by minimizing the necessary, active resources by up to 64.1% for the exemplary CPU time of individual cores. Thanks to the awareness of workload fluctuations, it improves the performance of services by up to 59.6% compared to other allocation schemes. Additionally, the concept of 'overlap coefficients' is introduced, which describes the probabilistic relation between two services which run in parallel. The more often these services are active at the same time the higher the overlap coefficient and vice versa. Services which are not active at the same time can be consolidated without any expected interference effects, while these with common activity periods should not be consolidated. The analysis of one of Google's data centers unveils that most of the services can be mapped onto one of the two patterns, while few with undetermined relation remain. The ND-CSP is extended by the 'overlap coefficient' and approximatively solved. In contrast to the former ND-CSP, neither an improvement nor a deterioration of the consolidation results is obtained. In the future, the services can be allocated with reduced or even without interference effects if an exact solution or a multi-objective optimization is applied

    Orts-, zeit- und kostenbasiertes Ressourcenmanagement im Cloud Computing

    Get PDF
    Cloud Computing bietet dem Nutzer die Möglichkeit, virtualisierte Applikationen, Plattformen und sogar Hardware wie Dienste zu nutzen. Der bereitstellende Provider kann die nötige Dienstkapazität in der Cloud elastisch an den aktuellen Bedarf anpassen. Durch die beliebige Ressourcenzuschaltung erwächst jedoch eine erhebliche ökologische und ökonomische Verantwortung. Zudem wird meist teuer überprovisioniert, um im Falle von Lastspitzen das Ablehnen von Anfragen zu vermeiden. Bis heute bietet noch kein Anbieter eine voll automatisierte Lösung zum optimalen Ressourcenmanagement an. Zur Gewährleistung der Skalierbarkeit eines Cloud-basierten Systems bestehen lediglich regelbasierte Mechanismen. Der Nutzer muss die Logik manuell einstellen, um die benötigte Anzahl an Maschinen und ihre Lokalität festzulegen. So sind viele Fragen zu der Ressourcenverwaltung und den entstehenden Kosten für den Cloud-Anwender ungelöst. In dieser Arbeit wird ein Protokoll entwickelt, das eine verbesserte Reihenfolge der Anfragenbearbeitung festlegt und die nötige Ressourcenmenge bestimmt. Die Ressourcenzuteilung basiert zum einen auf der Bedarfsreservierung durch die Ressourcen. Zum anderen kann das Nutzungsverhalten durch den Dienst beeinflusst werden. Die Simulationsergebnisse zeigen so stark reduzierte Antwortzeiten und Verwurfsraten. Im Cloud-Umfeld ist die effiziente Bearbeitung der Anfragen allerdings häufig aufgrund von Abhängigkeiten zwischen den dienstbetreibenden Maschinen beeinträchtigt. Deshalb wird das Protokoll um einen Selbstkalibrierungsmechanismus und ein Ressourcenregelverfahren erweitert. Mit der Abbildung der Abhängigkeiten auf einen Graphen ist das Gesamtsystem skalierbar, ohne die Auslastung aller Ressourcen einzeln kontrollieren zu müssen. Vom menschlichen Benutzer kann man jedoch keine Vorabreservierung bezüglich des Zeitpunkts seiner Dienstnutzung fordern - so wie das von Maschinen problemlos möglich ist. Für diesen Fall ermöglicht die vorliegende Arbeit deshalb die Extrapolation der Nutzerdaten aus Aufzeichnungen sozialer Netzwerke. Ohne Belastung der Anwender wird die Identifikation des Ressourcenbedarfs an einem bestimmten Ort realisiert. Für eine solche Systemadaption führt der in dieser Arbeit entworfene Algorithmus eine ortsspezifische Vorhersagende der nötigen Ressourcenanzahl durch. Diese Informationen dienen als Input für das entwickelte Protokoll und bieten so eine wohlproportionierte Provisionierung. Die bei Skalierungen entstehenden Kosten sind meist schwer abzuschätzen. Aus diesem Grund werden im Verlauf dieser Arbeit Kostenfunktionen für den Nutzer und den Anbieter erstellt. Sie machen das optimale Mittel zwischen geringeren Kosten bei niedriger Ressourcenmenge und höherer Nutzerzufriedenheit bei großzügiger Kapazitätsabdeckung berechenbar. Eine prototypische Umsetzung einschließlich verschiedener Simulationen zeigt, dass die entwickelten Ansätze ein deutlich verbessertes automatisiertes Ressourcenmanagement umsetzen.Cloud computing offers the possibility to use virtual applications, platforms and even hardware as a service. The cloud provider can elastically adapt resource capacity to the users' demand. However, from any desired resource provisioning also an enormous ecological and economical responsibility accrues. Besides, often costly overprovisioning is conducted in order to avoid request drops on load peaks. Until today, instance allocation is not yet fully automated by vendors. Only rule-based mechanisms exist to react on load changes. The user needs to manually implement logics for defining the amount of resources, as well as the instance location. Hence, many questions about resource management and emerging costs remain. In this work, a protocol is developed, which defines an optimal schedule for all clients and needed resources. The resource management is based on the demand reservation by the user. On the other hand the client usage can be delayed by the cloud service. The simulation shows good results regarding response times and drop rates. Efficient scheduling in cloud systems, however, is often restricted by dependencies among the claimed resources. For that reason, the protocol was extended by a self-calibration- and a resource-regulation-method. With an appropriate mapping, it is possible to scale the whole system based on the dependency model without observing each instance utilization. Human users can - contrary to machines - not be forced to determine their service usage in advance. By extrapolating records of the social Web, resource demands can be procured without burden the user. With this data, increasing load on popular services at a specific location can be deducted and resources can be scaled accordingly. For system adaptation, the algorithm presented in this work enables location-based determination of required resource amounts. This serves as input for the developed protocol, while offering well-proportioned provisioning. On scaling, generally emerging costs are difficult to estimate. For that reason cost functions for users and providers are developed. This enables the finding of an optimized trade-off between low emerging costs and a high user satisfaction. Proven by prototypical implementation and simulations, all developed approaches enable an optimized and automated resource management

    Untersuchungen zur Kostenoptimierung für Hardware-Emulatoren durch Anwendung von Methoden der partiellen Laufzeitrekonfiguration

    Get PDF
    Der vorliegende Band der wissenschaftlichen Schriftenreihe Eingebettete Selbstorganisierende Systeme widmet sich der Optimierung von Hardware Emulatoren durch die Anwendung von Methoden der partiellen Laufzeitrekonfiguration. An aktuelle Schaltkreis- und Systementwürfe werden zunehmend divergente Anforderungen gestellt. Einer sehr kurzen Entwicklungszeit für eine schnelle Markteinführung steht, um teure und aufwändige Re-Desings zu verhindern, eine möglichst umfangreiche Testabdeckung des Entwurfs gegenüber. Um die Zeit für die Tests zu reduzieren, kommen überwiegend FPGA-basierte HW-Emulatoren zum Einsatz. Durch den Einfluss der steigenden Komplexität aktueller Entwürfe auf die Emulator-Plattform reduziert sich jedoch signifikant die Performance der Emulatoren. Die in Emulatoren eingesetzten FPGAs sind aber zunehmend partiell zur Laufzeit rekonfigurierbar. Der in der vorliegenden Arbeit umgesetzte Ansatz behandelt die Anwendung von Methoden der Laufzeitrekonfiguration auf dem Gebiet der Hardware-Emulation. Dafür ist zunächst eine Partitionierung des zu testenden Entwurfs in möglichst funktional unabhängige Systemteile notwendig. Für eine optimierte und ressourceneffiziente Platzierung der einzelnen HW-Module während der Emulation, ist ein ebenfalls auf dem FPGA platziertes Kommunikationsnetzwerk implementiert. Der vorgestellte Ansatz wird an verschiedenen Beispielen anschaulich illustriert. So kann der Leser die Mächtigkeit der entwickelten Methodik nachvollziehen und wird motiviert, das Verfahren auch auf weitere Anwendungsfälle zu übertragen.Current circuit and system designs consist a lot of gate numbers and divergent requirements. In contrast to a short development and time to market schedule, the needs for perfect test coverage and quality are rising. One approach to cover this problem is the FPGA based functional test of electronic circuits. State of the art FPGA platforms doesn't consist enough gates to support fully custom designs. The thesis catches this problem and gives some approaches to use partial dynamic reconfiguration to solve the size problem. A fully automated design flow demonstrates partial partitioning of designs, modifications to use dynamic reconfiguration and its schedule. At the end of the work, some examples demonstrates the power of the approach

    Bericht 2005/2006

    Get PDF
    corecore