17 research outputs found

    Algorithmische Konstruktionen von Gittern

    Get PDF
    The main objective of this thesis is a classification project for integral lattices. Using Kneser's neighbour method we have developed the computer program tn to classify complete genera of integral lattices. Main results are detailed classifications of modular lattices in dimensions up to 14 with levels 3,5,7, and 11. We present a fast meta algorithm for the computation of a basis of a lattice which is given by a large generating system. A theoretical worst case boundary and practical experiments show important advantages in comparison to traditional methods. Up to small modifications we use this algorithm for the decomposition of a lattice into pairwise orthogonal sublattices. As a further result we prove a covering theorem for the generating system of a lattice. Let S be a minimal generating system of a lattice of rank n with generators not larger than B. Then S has at most n + log_2(n!(B/M)^n) elements. We describe and compute invariants of a lattice L like the spectrum of the discrete Fourier transform of the length function on L/2L. The numerical computation of a lattice quantizer and a quantizer of a union of cosets of a lattice are discussed.Comment: Ph.D. Thesis (german

    Ein systematischer, linear skalierender Fragmentansatz für das Elektronenstrukturproblem

    Get PDF
    Das Elektronenstrukturproblem bezeichnet eine Familie von Gleichungen, abgeleitet von der Schrödingergleichung, welche das Verhalten von Elektronen im Potential der Atomkerne beschreiben. Zu ihr gehören die Hartree-Fock- (HF) oder auch die Kohn-Sham-Gleichung. Wir werden in dieser Arbeit den Ansatz, der in der Chemie unter dem Begriff Fragmentierung oder auch Additivität bekannt ist, systematisch untersuchen. Dabei wird ein molekulares System mit chemischer Intuition in einzelne Teile, sogenannte Fragmente, zerlegt, um mittels bekannter Eigenschaften der Teile auf die Eigenschaften des Ganzen zu schließen. Größtenteils unverstanden ist, wieso dieser Ansatz funktioniert. In jüngster Zeit steht dieser Ansatz auch besonders im Fokus, da mit ihm leicht Näherungsverfahren möglich sind, deren Rechenkosten nur linear von der Anzahl der Atomkerne abhängen. Diese systematische Untersuchung liefert, ausgehend von der Schrödingergleichung, das Verständnis, warum Fragmentansätze gute Näherungen liefern können. Da die Schrödingergleichung eine hochdimensionale Integro-Differential-Gleichung beschreibt, scheiterten außer bei sehr kleinen Systeme bisherige analytische und direkte numerische Lösungsversuche. Deswegen sind zwei Näherungsansätze geläufig: Entweder wird der zugehörige Operator modifiziert oder die gesuchte Lösung wird eingeschränkt. Wir leiten im Rahmen des zweiten Ansatzes mittels einer sogenannten Korrelationsentwicklung die elektronische Schrödingergleichung und die Hartree-Fock-Gleichung her. Dabei schließt ein Dekorrelator pro Term der Entwicklung einen Anteil der Korrelation aus der gewünschten Lösung aus. Dieser fungiert als Gegenstück zum bekannten Anregungsoperator. Zum Zweck einer linear skalierenden Methode untersuchen wir die Ursachen der hohen Laufzeitkomplexität der HF-Methode. Dabei ist eine nicht-lineare Eigenwertgleichung über die Fockmatrix zu lösen, deren Aufstellung allgemein O(n4) Kosten mit der Anzahl der Basisfunktionen n verursacht. Wir definieren den Begriff der Lokalität mittels exponentiell abfallender Funktionen und zeigen ein Verfahren, um in linearer Zeit die Matrix zu negativen Eigenvektoren einer hermiteschen Matrix aus deren in gewissen Grenzen bekannter Dünnbesetztheitsstruktur zu ermitteln. Dabei wird diese Strukturinformation am Ende heuristisch aus dem Bindungsgraphen des Systems gewonnen, der in alle verbundenen Teilgraphen bis zu einer vorgegebenen Menge an Kernen pro Teilgraph zerlegt wird, der Fragmentierung. Durch eine unter dem Namen ANOVA-Entwicklung bekannte Summation können wir elegant die Grundzustandsenergie des Ganzen aus den unabhängigen Systemen zu diesen Teilgraphen berechnen. Mit einer Behandlung der langreichweitigen Wechselwirkung durch Lösen der zugehörigen Poisson-Gleichung erhalten wir schließlich ein linear skalierendes Näherungsverfahren. Wir haben die Methode im Rahmen dieser Arbeit vollständig und parallel implementiert, wobei kein chemisches Wissen seitens des Nutzers notwendig ist. Wir belegen ausführlich die sehr guten Approximations- und Skalierungseigenschaften. So liegt der Crossover-Punkt bei 20 Kernen. Wir untersuchen die Berechnung der langreichweitigen Wechselwirkung mit einer hochskalierenden Mehrgittermethode und betrachten, wie fehlende Korrelationsenergie in Møller-Plesset-Störtheorie 2. Ordnung ermittelt werden kann. Schließlich belegen wir die Möglichkeit der schnellen und genauen Berechnung großer Molekülsysteme mit bis zu 6000 Atomen

    Ficucs: Ein Constraint-Solver für geometrische Constraints in 2D und 3D

    Get PDF
    This thesis reflects the results of many years of research and development work in the field of geometric constraints for standard geometries in 2D and 3D. The experiences with constructive as well as numerical approaches for the calculation of constraint-based models have been continuously incorporated into the development of the constraint solver Ficucs. Besides the algorithms and data structures used in Ficucs the thesis describes various applications which use Ficucs as calculation module and corresponding models. The aim was to develop a constraint solver which is usable in many different kinds of projects. The focus was on interactivity and stability of the algorithms, because that is very important for the user's acceptance. A lot of improvements were found, most of them were also implemented and thus verified. It arose that a combination of different concepts in one application is often problematic. The thesis shall make the achieved results accessible to the interested readers and motivate further research work concerning a hybrid approach which combines constructive as well as numerical methods.Die vorliegende Arbeit spiegelt Ergebnisse einer langjährigen Forschungs- und Entwicklungstätigkeit auf dem Gebiet der geometrischen Constraints zu Standardgeometrien in 2D und 3D wider. Die Erfahrungen zu konstruktiven und numerischen Ansätzen für das Berechnen der constraint-basierten Modelle flossen in die Entwicklung des Constraint-Solvers Ficucs ein. Neben den in Ficucs genutzten Algorithmen und Datenstrukturen werden diverse Applikationen, welche Ficucs als Berechnungsmodul nutzen, sowie dazugehörige Modelle beschrieben. Ziel der Tätigkeiten war es, einen in den verschiedensten Projekten einsetzbaren Constraint-Solver zu entwickeln. Besonderes Augenmerk lag auf der Interaktivität sowie der Stabilität der Algorithmen, welche für eine Nutzerakzeptanz sehr wichtig sind. Hierzu wurden immer wieder Verbesserungsmöglichkeiten gefunden, zum Großteil auch implementiert und somit verifiziert. Es zeigte sich, dass die Kombination unterschiedlicher Konzepte in einer Anwendung oft problematisch ist. Die vorliegende Arbeit soll die erreichten Resultate interessierten Lesern zugänglich machen und zu einer weiteren Forschungstätigkeit in Richtung eines hybriden Ansatzes aus konstruktiven und numerischen Verfahren anregen

    Orts-, zeit- und kostenbasiertes Ressourcenmanagement im Cloud Computing

    Get PDF
    Cloud Computing bietet dem Nutzer die Möglichkeit, virtualisierte Applikationen, Plattformen und sogar Hardware wie Dienste zu nutzen. Der bereitstellende Provider kann die nötige Dienstkapazität in der Cloud elastisch an den aktuellen Bedarf anpassen. Durch die beliebige Ressourcenzuschaltung erwächst jedoch eine erhebliche ökologische und ökonomische Verantwortung. Zudem wird meist teuer überprovisioniert, um im Falle von Lastspitzen das Ablehnen von Anfragen zu vermeiden. Bis heute bietet noch kein Anbieter eine voll automatisierte Lösung zum optimalen Ressourcenmanagement an. Zur Gewährleistung der Skalierbarkeit eines Cloud-basierten Systems bestehen lediglich regelbasierte Mechanismen. Der Nutzer muss die Logik manuell einstellen, um die benötigte Anzahl an Maschinen und ihre Lokalität festzulegen. So sind viele Fragen zu der Ressourcenverwaltung und den entstehenden Kosten für den Cloud-Anwender ungelöst. In dieser Arbeit wird ein Protokoll entwickelt, das eine verbesserte Reihenfolge der Anfragenbearbeitung festlegt und die nötige Ressourcenmenge bestimmt. Die Ressourcenzuteilung basiert zum einen auf der Bedarfsreservierung durch die Ressourcen. Zum anderen kann das Nutzungsverhalten durch den Dienst beeinflusst werden. Die Simulationsergebnisse zeigen so stark reduzierte Antwortzeiten und Verwurfsraten. Im Cloud-Umfeld ist die effiziente Bearbeitung der Anfragen allerdings häufig aufgrund von Abhängigkeiten zwischen den dienstbetreibenden Maschinen beeinträchtigt. Deshalb wird das Protokoll um einen Selbstkalibrierungsmechanismus und ein Ressourcenregelverfahren erweitert. Mit der Abbildung der Abhängigkeiten auf einen Graphen ist das Gesamtsystem skalierbar, ohne die Auslastung aller Ressourcen einzeln kontrollieren zu müssen. Vom menschlichen Benutzer kann man jedoch keine Vorabreservierung bezüglich des Zeitpunkts seiner Dienstnutzung fordern - so wie das von Maschinen problemlos möglich ist. Für diesen Fall ermöglicht die vorliegende Arbeit deshalb die Extrapolation der Nutzerdaten aus Aufzeichnungen sozialer Netzwerke. Ohne Belastung der Anwender wird die Identifikation des Ressourcenbedarfs an einem bestimmten Ort realisiert. Für eine solche Systemadaption führt der in dieser Arbeit entworfene Algorithmus eine ortsspezifische Vorhersagende der nötigen Ressourcenanzahl durch. Diese Informationen dienen als Input für das entwickelte Protokoll und bieten so eine wohlproportionierte Provisionierung. Die bei Skalierungen entstehenden Kosten sind meist schwer abzuschätzen. Aus diesem Grund werden im Verlauf dieser Arbeit Kostenfunktionen für den Nutzer und den Anbieter erstellt. Sie machen das optimale Mittel zwischen geringeren Kosten bei niedriger Ressourcenmenge und höherer Nutzerzufriedenheit bei großzügiger Kapazitätsabdeckung berechenbar. Eine prototypische Umsetzung einschließlich verschiedener Simulationen zeigt, dass die entwickelten Ansätze ein deutlich verbessertes automatisiertes Ressourcenmanagement umsetzen.Cloud computing offers the possibility to use virtual applications, platforms and even hardware as a service. The cloud provider can elastically adapt resource capacity to the users' demand. However, from any desired resource provisioning also an enormous ecological and economical responsibility accrues. Besides, often costly overprovisioning is conducted in order to avoid request drops on load peaks. Until today, instance allocation is not yet fully automated by vendors. Only rule-based mechanisms exist to react on load changes. The user needs to manually implement logics for defining the amount of resources, as well as the instance location. Hence, many questions about resource management and emerging costs remain. In this work, a protocol is developed, which defines an optimal schedule for all clients and needed resources. The resource management is based on the demand reservation by the user. On the other hand the client usage can be delayed by the cloud service. The simulation shows good results regarding response times and drop rates. Efficient scheduling in cloud systems, however, is often restricted by dependencies among the claimed resources. For that reason, the protocol was extended by a self-calibration- and a resource-regulation-method. With an appropriate mapping, it is possible to scale the whole system based on the dependency model without observing each instance utilization. Human users can - contrary to machines - not be forced to determine their service usage in advance. By extrapolating records of the social Web, resource demands can be procured without burden the user. With this data, increasing load on popular services at a specific location can be deducted and resources can be scaled accordingly. For system adaptation, the algorithm presented in this work enables location-based determination of required resource amounts. This serves as input for the developed protocol, while offering well-proportioned provisioning. On scaling, generally emerging costs are difficult to estimate. For that reason cost functions for users and providers are developed. This enables the finding of an optimized trade-off between low emerging costs and a high user satisfaction. Proven by prototypical implementation and simulations, all developed approaches enable an optimized and automated resource management

    Entscheidbare Fälle des Postschen Korrespondenzproblems

    Get PDF
    Das Postsche Korrespondenzproblem fragt nach nichttrivialen Elementen in der Gleichheitsmenge zweier Morphismen. Es handelt sich um ein unentscheidbares Problem. Wir stellen umfassend und einheitlich dar, welche Möglichkeiten es gibt, Instanzen des Postschen Korrespondenzproblems zu klassifizieren. Wir charakterisieren die Koinzidenzmenge erstmals als rationale Relation. Wir lösen konkrete Instanzen schnell und finden so praktische alle bekannten schwierigen kleinen Instanzen

    Beschreibung, Verwaltung und Ausführung von Arbeitsabläufen im autonomen Datenbank-Tuning

    Get PDF
    In den letzten Jahrzehnten wurde die Administration von IT-Systemen zunehmend aufwendiger und kostspieliger. Zur Gewährleistung einer hohen Verfügbarkeit und Performance dieser Systeme reichen eine kontinuierliche manuelle Administration und Optimierung der Systeme im laufenden Betrieb kaum noch aus. Initiativen wie das Autonomic Computing versuchen daher, die Administrationskomplexität neuer Systeme zu reduzieren, indem sie eine Automatisierung der komplexen Systemverwaltungs- und -konfigurationsaufgaben und ihre anschließende Übertragung an die Systeme selbst ermöglichen. Die vorliegende Arbeit verfolgt das Ziel, die Übertragbarkeit der Konzepte des Autonomic Computing auf das Datenbank-Tuning zu untersuchen und eine Infrastruktur zur Automatisierung typischer Datenbank-Tuning-Aufgaben unter Reduzierung menschlicher Interaktion zu konzipieren. Als eine der Grundvoraussetzungen für die Automatisierung der Datenbank-Tuning-Aufgaben wurden hier die Beschreibung und Modellierung des Tuning-Wissens identifiziert. Die vorgestellten Konzepte ermöglichen es den Administratoren daher, sowohl die Problemsituationen als auch die entsprechenden bewährten Tuning-Abläufe zu erfassen und im System zu hinterlegen. Mit Hilfe einer auf diesen Konzepten aufbauenden Architektur lassen sich IT-Systeme kontinuierlich überwachen und beim Feststellen eines problematischen Verhaltens entsprechende, vorab im System hinterlegte Tuning-Abläufe einleiten. Dabei können sowohl der Überwachungs- als auch der Tuning-Prozess in Abhängigkeit von der anliegenden Arbeitslast und unter der Einbeziehung von Metadaten bzw. nutzerdefinierten Tuning-Zielen beeinflusst werden. Zur Unterstützung einer kollaborativen Entwicklung und eines Austauschs von Tuning-Praktiken wird in dieser Arbeit weiterhin eine Community-Plattform konzipiert. Dabei spielen insbesondere Konzepte zur effizienten, feingranularen, semantikreichen Speicherung, Versionierung und Evolution von Tuning-Praktiken eine wichtige Rolle

    Ein komponentenbasiertes Meta-Modell kontextabhängiger Adaptionsgraphen für mobile und ubiquitäre Anwendungen

    Get PDF
    Gegenwärtige Infrastrukturen für verteilte Dienste und Anwendungen, insbesondere das Internet, entwickeln sich zunehmend zu mobilen verteilten Systemen. Durch die Integration drahtloser Netze, mobiler bzw. dedizierter Endgeräte und nicht zuletzt durch die Mobilität der Benutzer steigt die Heterogenität und Dynamik der Systeme hinsichtlich der eingesetzten Endgeräte, Kommunikationstechnologien sowie Benutzeranforderungen und Anwendungssituationen. Diese Eigenschaften sind mobilen Systemen inhärent und bleiben trotz der fortschreitenden Entwicklung der Technologien bestehen. Daraus resultieren spezifische Anforderungen an Anwendungen und Dienste, denen insbesondere die Softwareentwicklung Rechnung tragen muss. In der vorliegenden Arbeit wird die Adaptivität von Softwaresystemen als wesentlicher Lösungsansatz für mobile verteilte Infrastrukturen thematisiert. Dazu werden wesentliche Mechanismen zur Adaption sowie der Überschneidungsbereich von Adaptionsmechanismen, "Context-Awareness" und Softwareentwicklung untersucht. Ziel ist es, Erkenntnisse über Basismechanismen und Grundprinzipien der Adaption zu gewinnen und diese zur systematischen Entwicklung adaptiver Anwendungen auszunutzen. Aus der Analyse des State-of-the-Art werden als erstes wichtiges Ergebnis der Arbeit wesentliche Basismechanismen zur Adaption identifiziert, umfassend klassifiziert und hinsichtlich eines Einsatzes in mobilen verteilten Infrastrukturen bewertet. Auf dieser Grundlage wird ein Meta-Modell zur systematischen Entwicklung adaptiver Anwendungen erarbeitet. Dieses erlaubt die Beschreibung adaptiver Anwendungen durch die Komposition von Basismechanismen zur Struktur- und Parameteradaption. Die Steuerung der Adaption durch Kontext und Meta-Informationen kann explizit beschrieben werden. Das Meta-Modell kann Entwickler beim Entwurf adaptiver Anwendungen unterstützen, stellt aber auch einen Ausgangspunkt für deren Analyse und Validierung sowie zur Kodegenerierung dar. Durch die explizite Beschreibung der verwendeten Adaptionsmechanismen und deren Abhängigkeiten von Kontext können Anwendungsmodelle außerdem zur Dokumentation verwendet werden. Im Rahmen der Validierung konnte die Integrierbarkeit der Basismechanismen und die flexible Anwendbarkeit des Modells zur systematischen Entwicklung adaptiver Anwendungen nachgewiesen werden

    Modell eines agilen Leiterplattenentwurfsprozesses basierend auf der interdisziplinären Entwicklung eines modularen autonomen Miniroboters

    Get PDF
    Herbrechtsmeier S. Modell eines agilen Leiterplattenentwurfsprozesses basierend auf der interdisziplinären Entwicklung eines modularen autonomen Miniroboters. Bielefeld: Universität Bielefeld; 2017.Die fortschreitende Digitalisierung und Vernetzung der Welt führen zu neuen Herausforderungen in der Qualifizierung von zukünftigen Fachkräften. Daher bedarf es anpassungsfähiger Systeme zur inspirierenden sowie anschaulichen Lehre mathematischer, naturwissenschaftlicher und technischer Kenntnisse. Ein mobiler Miniroboter bildet dabei eine innovative Lösung zur interdisziplinären Wissensvermittlung. Folglich besteht ein Ergebnis dieser Arbeit aus einer interdisziplinären Entwicklung eines leistungsstarken, modularen und autonomen Miniroboters. Dieser sogenannte AMiRo besitzt eine heterogene sowie verteilte Systemarchitektur, bestehend aus drei leistungsstarken Mikrocontrollern, einem Einplatinencomputer, einer programmierbaren logischen Schaltung und einem echtzeitfähigen Kommunikationsnetz. Er unterstützt sowohl hochfrequente reaktive als auch speicherintensive reflektorische und kognitive Informationsverarbeitung sowie massiv parallele Bildverarbeitung. Im Unterschied zu existieren Plattformen erlaubt seine modulare Systemarchitektur einerseits eine kostengünstige sowie anwendungsspezifische Erweiterung und andererseits eine kontinuierliche sowie bedarfsgerechte Modernisierung. Gleichzeitig offenbart dessen Entwicklung einen Handlungsbedarf im Leiterplattenentwurf. Entsprechend besteht ein weiteres Ergebnis dieser Arbeit aus einem Modell eines agilen Leiterplattenentwurfsprozesses. Dieser bildet einen Teil eines gemeinsamen interdisziplinären Entwicklungsprozesses und nutzt eine standardisierte Modellierungssprache. Er besteht aus einem Entwurfsmodell sowie -prozess, nutzt einen inkrementellen Ansatz und kombiniert etablierte Techniken sowie Methoden verschiedener Fachdisziplinen. Der Prozess besitzt im Unterschied zum klassischen Leiterplattenentwurf aufgrund seiner inkrementellen Verfeinerung einzelne überschaubare Aufgaben, einen kontinuierlichen Auswahlprozess und eine gesteigerte Wiederverwendung sowohl von Teillösungen als auch von Lösungsansätzen. Damit erhöht der agile Leiterplattenentwurfsprozess einerseits die Qualität sowie Zuverlässigkeit der Produkte und reduziert andererseits die Entwurfs- sowie Produkteinführungszeit. Zusätzlich bildet er eine Grundlage für zukünftige rechnergestützte Entwicklungsmethoden. Insgesamt bestehen die Ergebnisse dieser Arbeit einerseits aus einem anpassungsfähigen, leistungsstarken sowie kostengünstigen Miniroboter zur anschaulichen Lehre und Forschung aktueller sowie zukünftiger Aspekte intelligenter technischer Systeme und andererseits aus einem agilen Leiterplattenentwurfsprozess als erste detaillierte sowie methodische Beschreibung des Bauteilauswahl- und Schaltungsentwicklungsprozesses. Grundlegende Resultate bilden dabei eine Entwicklungsprozessmodellierung und eine auf dem Wünschbarkeitsindex basierende Entwurfsraumexploration

    Komfortobjektivierung und funktionale Bewertung als Methoden zur Unterstützung der Entwicklung des Wiederstartsystems in parallelen Hybridantrieben = Objectification of comfort and functional evaluation as methods to support the development of restarting systems in parallel hybrid drivetrains

    Get PDF
    Der Komfort beim Wiederstart des Verbrennungsmotors als neue Funktion im parallelen Vollhybrid soll zur zuverlässigen Fahrzeugbeurteilung objektiviert werden. Dies geschieht mit den Methoden der linearen Regression und der künstlichen neuronalen Netzen. Zusätzlich wird eine Methode erarbeitet, die es dem Ingenieur ermöglichen soll, in frühen Phasen des PEP bewerten zu können, ob ein System seine Funktion erfüllen kann oder ob es funktionale Schwächen aufweist
    corecore