17 research outputs found
Algorithmische Konstruktionen von Gittern
The main objective of this thesis is a classification project for integral
lattices. Using Kneser's neighbour method we have developed the computer
program tn to classify complete genera of integral lattices. Main results are
detailed classifications of modular lattices in dimensions up to 14 with levels
3,5,7, and 11. We present a fast meta algorithm for the computation of a basis
of a lattice which is given by a large generating system. A theoretical worst
case boundary and practical experiments show important advantages in comparison
to traditional methods. Up to small modifications we use this algorithm for the
decomposition of a lattice into pairwise orthogonal sublattices. As a further
result we prove a covering theorem for the generating system of a lattice. Let
S be a minimal generating system of a lattice of rank n with generators not
larger than B. Then S has at most n + log_2(n!(B/M)^n) elements. We describe
and compute invariants of a lattice L like the spectrum of the discrete Fourier
transform of the length function on L/2L. The numerical computation of a
lattice quantizer and a quantizer of a union of cosets of a lattice are
discussed.Comment: Ph.D. Thesis (german
Ein systematischer, linear skalierender Fragmentansatz für das Elektronenstrukturproblem
Das Elektronenstrukturproblem bezeichnet eine Familie von Gleichungen, abgeleitet von der Schrödingergleichung, welche das Verhalten von Elektronen im Potential der Atomkerne beschreiben. Zu ihr gehören die Hartree-Fock- (HF) oder auch die Kohn-Sham-Gleichung. Wir werden in dieser Arbeit den Ansatz, der in der Chemie unter dem Begriff Fragmentierung oder auch Additivität bekannt ist, systematisch untersuchen. Dabei wird ein molekulares System mit chemischer Intuition in einzelne Teile, sogenannte Fragmente, zerlegt, um mittels bekannter Eigenschaften der Teile auf die Eigenschaften des Ganzen zu schließen. Größtenteils unverstanden ist, wieso dieser Ansatz funktioniert. In jüngster Zeit steht dieser Ansatz auch besonders im Fokus, da mit ihm leicht Näherungsverfahren möglich sind, deren Rechenkosten nur linear von der Anzahl der Atomkerne abhängen. Diese systematische Untersuchung liefert, ausgehend von der Schrödingergleichung, das Verständnis, warum Fragmentansätze gute Näherungen liefern können. Da die Schrödingergleichung eine hochdimensionale Integro-Differential-Gleichung beschreibt, scheiterten außer bei sehr kleinen Systeme bisherige analytische und direkte numerische Lösungsversuche. Deswegen sind zwei Näherungsansätze geläufig: Entweder wird der zugehörige Operator modifiziert oder die gesuchte Lösung wird eingeschränkt. Wir leiten im Rahmen des zweiten Ansatzes mittels einer sogenannten Korrelationsentwicklung die elektronische Schrödingergleichung und die Hartree-Fock-Gleichung her. Dabei schließt ein Dekorrelator pro Term der Entwicklung einen Anteil der Korrelation aus der gewünschten Lösung aus. Dieser fungiert als Gegenstück zum bekannten Anregungsoperator. Zum Zweck einer linear skalierenden Methode untersuchen wir die Ursachen der hohen Laufzeitkomplexität der HF-Methode. Dabei ist eine nicht-lineare Eigenwertgleichung über die Fockmatrix zu lösen, deren Aufstellung allgemein O(n4) Kosten mit der Anzahl der Basisfunktionen n verursacht. Wir definieren den Begriff der Lokalität mittels exponentiell abfallender Funktionen und zeigen ein Verfahren, um in linearer Zeit die Matrix zu negativen Eigenvektoren einer hermiteschen Matrix aus deren in gewissen Grenzen bekannter Dünnbesetztheitsstruktur zu ermitteln. Dabei wird diese Strukturinformation am Ende heuristisch aus dem Bindungsgraphen des Systems gewonnen, der in alle verbundenen Teilgraphen bis zu einer vorgegebenen Menge an Kernen pro Teilgraph zerlegt wird, der Fragmentierung. Durch eine unter dem Namen ANOVA-Entwicklung bekannte Summation können wir elegant die Grundzustandsenergie des Ganzen aus den unabhängigen Systemen zu diesen Teilgraphen berechnen. Mit einer Behandlung der langreichweitigen Wechselwirkung durch Lösen der zugehörigen Poisson-Gleichung erhalten wir schließlich ein linear skalierendes Näherungsverfahren. Wir haben die Methode im Rahmen dieser Arbeit vollständig und parallel implementiert, wobei kein chemisches Wissen seitens des Nutzers notwendig ist. Wir belegen ausführlich die sehr guten Approximations- und Skalierungseigenschaften. So liegt der Crossover-Punkt bei 20 Kernen. Wir untersuchen die Berechnung der langreichweitigen Wechselwirkung mit einer hochskalierenden Mehrgittermethode und betrachten, wie fehlende Korrelationsenergie in Møller-Plesset-Störtheorie 2. Ordnung ermittelt werden kann. Schließlich belegen wir die Möglichkeit der schnellen und genauen Berechnung großer Molekülsysteme mit bis zu 6000 Atomen
Ficucs: Ein Constraint-Solver für geometrische Constraints in 2D und 3D
This thesis reflects the results of many years of research and development
work in the field of geometric constraints for standard geometries in 2D
and 3D. The experiences with constructive as well as numerical approaches
for the calculation of constraint-based models have been continuously
incorporated into the development of the constraint solver Ficucs. Besides
the algorithms and data structures used in Ficucs the thesis describes
various applications which use Ficucs as calculation module and
corresponding models.
The aim was to develop a constraint solver which is usable in many
different kinds of projects. The focus was on interactivity and stability
of the algorithms, because that is very important for the user's
acceptance. A lot of improvements were found, most of them were also
implemented and thus verified. It arose that a combination of different
concepts in one application is often problematic. The thesis shall make the
achieved results accessible to the interested readers and motivate further
research work concerning a hybrid approach which combines constructive as
well as numerical methods.Die vorliegende Arbeit spiegelt Ergebnisse einer langjährigen Forschungs-
und Entwicklungstätigkeit auf dem Gebiet der geometrischen Constraints zu
Standardgeometrien in 2D und 3D wider. Die Erfahrungen zu konstruktiven und
numerischen Ansätzen für das Berechnen der constraint-basierten Modelle
flossen in die Entwicklung des Constraint-Solvers Ficucs ein. Neben den in
Ficucs genutzten Algorithmen und Datenstrukturen werden diverse
Applikationen, welche Ficucs als Berechnungsmodul nutzen, sowie
dazugehörige Modelle beschrieben.
Ziel der Tätigkeiten war es, einen in den verschiedensten Projekten
einsetzbaren Constraint-Solver zu entwickeln. Besonderes Augenmerk lag auf
der Interaktivität sowie der Stabilität der Algorithmen, welche für eine
Nutzerakzeptanz sehr wichtig sind. Hierzu wurden immer wieder
Verbesserungsmöglichkeiten gefunden, zum Großteil auch implementiert und
somit verifiziert. Es zeigte sich, dass die Kombination unterschiedlicher
Konzepte in einer Anwendung oft problematisch ist. Die vorliegende Arbeit
soll die erreichten Resultate interessierten Lesern zugänglich machen und
zu einer weiteren Forschungstätigkeit in Richtung eines hybriden Ansatzes
aus konstruktiven und numerischen Verfahren anregen
Orts-, zeit- und kostenbasiertes Ressourcenmanagement im Cloud Computing
Cloud Computing bietet dem Nutzer die Möglichkeit, virtualisierte Applikationen, Plattformen und sogar Hardware wie Dienste zu nutzen. Der bereitstellende Provider kann die nötige Dienstkapazität in der Cloud elastisch an den aktuellen Bedarf anpassen. Durch die beliebige Ressourcenzuschaltung erwächst jedoch eine erhebliche ökologische und ökonomische Verantwortung. Zudem wird meist teuer überprovisioniert, um im Falle von Lastspitzen das Ablehnen von Anfragen zu vermeiden.
Bis heute bietet noch kein Anbieter eine voll automatisierte Lösung zum optimalen Ressourcenmanagement an. Zur Gewährleistung der Skalierbarkeit eines Cloud-basierten Systems bestehen lediglich regelbasierte Mechanismen. Der Nutzer muss die Logik manuell einstellen, um die benötigte Anzahl an Maschinen und ihre Lokalität festzulegen. So sind viele Fragen zu der Ressourcenverwaltung und den entstehenden Kosten für den Cloud-Anwender ungelöst.
In dieser Arbeit wird ein Protokoll entwickelt, das eine verbesserte Reihenfolge der Anfragenbearbeitung festlegt und die nötige Ressourcenmenge bestimmt. Die Ressourcenzuteilung basiert zum einen auf der Bedarfsreservierung durch die Ressourcen. Zum anderen kann das Nutzungsverhalten durch den Dienst beeinflusst werden. Die Simulationsergebnisse zeigen so stark reduzierte Antwortzeiten und Verwurfsraten.
Im Cloud-Umfeld ist die effiziente Bearbeitung der Anfragen allerdings häufig aufgrund von Abhängigkeiten zwischen den dienstbetreibenden Maschinen beeinträchtigt. Deshalb wird das Protokoll um einen Selbstkalibrierungsmechanismus und ein Ressourcenregelverfahren erweitert. Mit der Abbildung der Abhängigkeiten auf einen Graphen ist das Gesamtsystem skalierbar, ohne die Auslastung aller Ressourcen einzeln kontrollieren zu müssen.
Vom menschlichen Benutzer kann man jedoch keine Vorabreservierung bezüglich des Zeitpunkts seiner Dienstnutzung fordern - so wie das von Maschinen problemlos möglich ist. Für diesen Fall ermöglicht die vorliegende Arbeit deshalb die Extrapolation der Nutzerdaten aus Aufzeichnungen sozialer Netzwerke. Ohne Belastung der Anwender wird die Identifikation des Ressourcenbedarfs an einem bestimmten Ort realisiert.
Für eine solche Systemadaption führt der in dieser Arbeit entworfene Algorithmus eine ortsspezifische Vorhersagende der nötigen Ressourcenanzahl durch. Diese Informationen dienen als Input für das entwickelte Protokoll und bieten so eine wohlproportionierte Provisionierung.
Die bei Skalierungen entstehenden Kosten sind meist schwer abzuschätzen. Aus diesem Grund werden im Verlauf dieser Arbeit Kostenfunktionen für den Nutzer und den Anbieter erstellt. Sie machen das optimale Mittel zwischen geringeren Kosten bei niedriger Ressourcenmenge und höherer Nutzerzufriedenheit bei großzügiger Kapazitätsabdeckung berechenbar.
Eine prototypische Umsetzung einschließlich verschiedener Simulationen zeigt, dass die entwickelten Ansätze ein deutlich verbessertes automatisiertes Ressourcenmanagement umsetzen.Cloud computing offers the possibility to use virtual applications, platforms and even hardware as a service. The cloud provider can elastically adapt resource capacity to the users' demand. However, from any desired resource provisioning also an enormous ecological and economical responsibility accrues. Besides, often costly overprovisioning is conducted in order to avoid request drops on load peaks.
Until today, instance allocation is not yet fully automated by vendors. Only rule-based mechanisms exist to react on load changes. The user needs to manually implement logics for defining the amount of resources, as well as the instance location. Hence, many questions about resource management and emerging costs remain.
In this work, a protocol is developed, which defines an optimal schedule for all clients and needed resources. The resource management is based on the demand reservation by the user. On the other hand the client usage can be delayed by the cloud service. The simulation shows good results regarding response times and drop rates.
Efficient scheduling in cloud systems, however, is often restricted by dependencies among the claimed resources. For that reason, the protocol was extended by a self-calibration- and a resource-regulation-method. With an appropriate mapping, it is possible to scale the whole system based on the dependency model without observing each instance utilization.
Human users can - contrary to machines - not be forced to determine their service usage in advance. By extrapolating records of the social Web, resource demands can be procured without burden the user. With this data, increasing load on popular services at a specific location can be deducted and resources can be scaled accordingly.
For system adaptation, the algorithm presented in this work enables location-based determination of required resource amounts. This serves as input for the developed protocol, while offering well-proportioned provisioning.
On scaling, generally emerging costs are difficult to estimate. For that reason cost functions for users and providers are developed. This enables the finding of an optimized trade-off between low emerging costs and a high user satisfaction.
Proven by prototypical implementation and simulations, all developed approaches enable an optimized and automated resource management
Entscheidbare Fälle des Postschen Korrespondenzproblems
Das Postsche Korrespondenzproblem fragt nach nichttrivialen Elementen in der Gleichheitsmenge zweier Morphismen. Es handelt sich um ein unentscheidbares Problem. Wir stellen umfassend und einheitlich dar, welche Möglichkeiten es gibt, Instanzen des Postschen Korrespondenzproblems zu klassifizieren. Wir charakterisieren die Koinzidenzmenge erstmals als rationale Relation. Wir lösen konkrete Instanzen schnell und finden so praktische alle bekannten schwierigen kleinen Instanzen
Beschreibung, Verwaltung und Ausführung von Arbeitsabläufen im autonomen Datenbank-Tuning
In den letzten Jahrzehnten wurde die Administration von IT-Systemen zunehmend aufwendiger und kostspieliger. Zur Gewährleistung einer hohen Verfügbarkeit und Performance dieser Systeme reichen eine kontinuierliche manuelle Administration und Optimierung der Systeme im laufenden Betrieb kaum noch aus. Initiativen wie das Autonomic Computing versuchen daher, die Administrationskomplexität neuer Systeme zu reduzieren, indem sie eine Automatisierung der komplexen Systemverwaltungs- und -konfigurationsaufgaben und ihre anschließende Übertragung an die Systeme selbst ermöglichen. Die vorliegende Arbeit verfolgt das Ziel, die Übertragbarkeit der Konzepte des Autonomic Computing auf das Datenbank-Tuning zu untersuchen und eine Infrastruktur zur Automatisierung typischer Datenbank-Tuning-Aufgaben unter Reduzierung menschlicher Interaktion zu konzipieren. Als eine der Grundvoraussetzungen für die Automatisierung der Datenbank-Tuning-Aufgaben wurden hier die Beschreibung und Modellierung des Tuning-Wissens identifiziert. Die vorgestellten Konzepte ermöglichen es den Administratoren daher, sowohl die Problemsituationen als auch die entsprechenden bewährten Tuning-Abläufe zu erfassen und im System zu hinterlegen. Mit Hilfe einer auf diesen Konzepten aufbauenden Architektur lassen sich IT-Systeme kontinuierlich überwachen und beim Feststellen eines problematischen Verhaltens entsprechende, vorab im System hinterlegte Tuning-Abläufe einleiten. Dabei können sowohl der Überwachungs- als auch der Tuning-Prozess in Abhängigkeit von der anliegenden Arbeitslast und unter der Einbeziehung von Metadaten bzw. nutzerdefinierten Tuning-Zielen beeinflusst werden. Zur Unterstützung einer kollaborativen Entwicklung und eines Austauschs von Tuning-Praktiken wird in dieser Arbeit weiterhin eine Community-Plattform konzipiert. Dabei spielen insbesondere Konzepte zur effizienten, feingranularen, semantikreichen Speicherung, Versionierung und Evolution von Tuning-Praktiken eine wichtige Rolle
Ein komponentenbasiertes Meta-Modell kontextabhängiger Adaptionsgraphen für mobile und ubiquitäre Anwendungen
Gegenwärtige Infrastrukturen für verteilte Dienste und Anwendungen, insbesondere das Internet, entwickeln sich zunehmend zu mobilen verteilten Systemen. Durch die Integration drahtloser Netze, mobiler bzw. dedizierter Endgeräte und nicht zuletzt durch die Mobilität der Benutzer steigt die Heterogenität und Dynamik der Systeme hinsichtlich der eingesetzten Endgeräte, Kommunikationstechnologien sowie Benutzeranforderungen und Anwendungssituationen. Diese Eigenschaften sind mobilen Systemen inhärent und bleiben trotz der fortschreitenden Entwicklung der Technologien bestehen. Daraus resultieren spezifische Anforderungen an Anwendungen und Dienste, denen insbesondere die Softwareentwicklung Rechnung tragen muss. In der vorliegenden Arbeit wird die Adaptivität von Softwaresystemen als wesentlicher Lösungsansatz für mobile verteilte Infrastrukturen thematisiert. Dazu werden wesentliche Mechanismen zur Adaption sowie der Überschneidungsbereich von Adaptionsmechanismen, "Context-Awareness" und Softwareentwicklung untersucht. Ziel ist es, Erkenntnisse über Basismechanismen und Grundprinzipien der Adaption zu gewinnen und diese zur systematischen Entwicklung adaptiver Anwendungen auszunutzen. Aus der Analyse des State-of-the-Art werden als erstes wichtiges Ergebnis der Arbeit wesentliche Basismechanismen zur Adaption identifiziert, umfassend klassifiziert und hinsichtlich eines Einsatzes in mobilen verteilten Infrastrukturen bewertet. Auf dieser Grundlage wird ein Meta-Modell zur systematischen Entwicklung adaptiver Anwendungen erarbeitet. Dieses erlaubt die Beschreibung adaptiver Anwendungen durch die Komposition von Basismechanismen zur Struktur- und Parameteradaption. Die Steuerung der Adaption durch Kontext und Meta-Informationen kann explizit beschrieben werden. Das Meta-Modell kann Entwickler beim Entwurf adaptiver Anwendungen unterstützen, stellt aber auch einen Ausgangspunkt für deren Analyse und Validierung sowie zur Kodegenerierung dar. Durch die explizite Beschreibung der verwendeten Adaptionsmechanismen und deren Abhängigkeiten von Kontext können Anwendungsmodelle außerdem zur Dokumentation verwendet werden. Im Rahmen der Validierung konnte die Integrierbarkeit der Basismechanismen und die flexible Anwendbarkeit des Modells zur systematischen Entwicklung adaptiver Anwendungen nachgewiesen werden
Modell eines agilen Leiterplattenentwurfsprozesses basierend auf der interdisziplinären Entwicklung eines modularen autonomen Miniroboters
Herbrechtsmeier S. Modell eines agilen Leiterplattenentwurfsprozesses basierend auf der interdisziplinären Entwicklung eines modularen autonomen Miniroboters. Bielefeld: Universität Bielefeld; 2017.Die fortschreitende Digitalisierung und Vernetzung der Welt führen zu neuen Herausforderungen in der Qualifizierung von zukünftigen Fachkräften. Daher bedarf es
anpassungsfähiger Systeme zur inspirierenden sowie anschaulichen Lehre mathematischer, naturwissenschaftlicher und technischer Kenntnisse. Ein mobiler Miniroboter
bildet dabei eine innovative Lösung zur interdisziplinären Wissensvermittlung.
Folglich besteht ein Ergebnis dieser Arbeit aus einer interdisziplinären Entwicklung eines leistungsstarken, modularen und autonomen Miniroboters. Dieser sogenannte
AMiRo besitzt eine heterogene sowie verteilte Systemarchitektur, bestehend aus drei leistungsstarken Mikrocontrollern, einem Einplatinencomputer, einer programmierbaren
logischen Schaltung und einem echtzeitfähigen Kommunikationsnetz. Er unterstützt sowohl hochfrequente reaktive als auch speicherintensive reflektorische
und kognitive Informationsverarbeitung sowie massiv parallele Bildverarbeitung. Im Unterschied zu existieren Plattformen erlaubt seine modulare Systemarchitektur einerseits
eine kostengünstige sowie anwendungsspezifische Erweiterung und andererseits eine kontinuierliche sowie bedarfsgerechte Modernisierung.
Gleichzeitig offenbart dessen Entwicklung einen Handlungsbedarf im Leiterplattenentwurf. Entsprechend besteht ein weiteres Ergebnis dieser Arbeit aus einem Modell
eines agilen Leiterplattenentwurfsprozesses. Dieser bildet einen Teil eines gemeinsamen interdisziplinären Entwicklungsprozesses und nutzt eine standardisierte Modellierungssprache.
Er besteht aus einem Entwurfsmodell sowie -prozess, nutzt einen inkrementellen Ansatz und kombiniert etablierte Techniken sowie Methoden verschiedener
Fachdisziplinen. Der Prozess besitzt im Unterschied zum klassischen Leiterplattenentwurf aufgrund seiner inkrementellen Verfeinerung einzelne überschaubare
Aufgaben, einen kontinuierlichen Auswahlprozess und eine gesteigerte Wiederverwendung sowohl von Teillösungen als auch von Lösungsansätzen. Damit erhöht der agile
Leiterplattenentwurfsprozess einerseits die Qualität sowie Zuverlässigkeit der Produkte und reduziert andererseits die Entwurfs- sowie Produkteinführungszeit. Zusätzlich
bildet er eine Grundlage für zukünftige rechnergestützte Entwicklungsmethoden.
Insgesamt bestehen die Ergebnisse dieser Arbeit einerseits aus einem anpassungsfähigen, leistungsstarken sowie kostengünstigen Miniroboter zur anschaulichen Lehre und
Forschung aktueller sowie zukünftiger Aspekte intelligenter technischer Systeme und andererseits aus einem agilen Leiterplattenentwurfsprozess als erste detaillierte sowie
methodische Beschreibung des Bauteilauswahl- und Schaltungsentwicklungsprozesses. Grundlegende Resultate bilden dabei eine Entwicklungsprozessmodellierung und eine
auf dem Wünschbarkeitsindex basierende Entwurfsraumexploration
Komfortobjektivierung und funktionale Bewertung als Methoden zur Unterstützung der Entwicklung des Wiederstartsystems in parallelen Hybridantrieben = Objectification of comfort and functional evaluation as methods to support the development of restarting systems in parallel hybrid drivetrains
Der Komfort beim Wiederstart des Verbrennungsmotors als neue Funktion im parallelen Vollhybrid soll zur zuverlässigen Fahrzeugbeurteilung objektiviert werden. Dies geschieht mit den Methoden der linearen Regression und der künstlichen neuronalen Netzen. Zusätzlich wird eine Methode erarbeitet, die es dem Ingenieur ermöglichen soll, in frühen Phasen des PEP bewerten zu können, ob ein System seine Funktion erfüllen kann oder ob es funktionale Schwächen aufweist