238 research outputs found

    Optimiertes Design kombinatorischer Verbindungsbibliotheken durch Genetische Algorithmen und deren Bewertung anhand wissensbasierter Protein-Ligand Bindungsprofile

    Get PDF
    In dieser Arbeit sind die zwei neuen Computer-Methoden DrugScore Fingerprint (DrugScoreFP) und GARLig in ihrer Theorie und Funktionsweise vorgestellt und validiert worden. DrugScoreFP ist ein neuartiger Ansatz zur Bewertung von computergenerierten Bindemodi potentieller Liganden für eine bestimmte Zielstruktur. Das Programm basiert auf der etablierten Bewertungsfunktion DrugScoreCSD und unterscheidet sich darin, dass anhand bereits bekannter Kristallstrukturen für den zu untersuchenden Rezeptor ein Referenzvektor generiert wird, der zu jedem Bindetaschenatom Potentialwerte für alle möglichen Interaktionen enthält. Für jeden neuen, computergenerierten Bindungsmodus eines Liganden lässt sich ein entsprechender Vektor generieren. Dessen Distanz zum Referenzvektor ist ein Maß dafür, wie ähnlich generierte Bindungsmodi zu bereits bekannten sind. Eine experimentelle Validierung der durch DrugScoreFP als ähnlich vorhergesagten Liganden ergab für die in unserem Arbeitskreis untersuchten Proteinstrukturen Trypsin, Thermolysin und tRNA-Guanin Transglykosylase (TGT) sechs Inhibitoren fragmentärer Größe und eine Thermolysin Kristallstruktur in Komplex mit einem der gefundenen Fragmente. Das in dieser Arbeit entwickelte Programm GARLig ist eine auf einem Genetischen Algorithmus basierende Methode, um chemische Seitenkettenmodifikationen niedermolekularer Verbindungen hinsichtlich eines untersuchten Rezeptors effizient durchzuführen. Zielsetzung ist hier die Zusammenstellung einer Verbindungsbibliothek, welche eine benutzerdefiniert große Untermenge aller möglichen chemischen Modifikationen Ligand-ähnlicher Grundgerüste darstellt. Als zentrales Qualitätskriterium einzelner Vertreter der Verbindungsbibliothek dienen durch Docking erzeugte Ligand-Geometrien und deren Bewertungen durch Protein-Ligand-Bewertungsfunktionen. In mehreren Validierungsszenarien an den Proteinen Trypsin, Thrombin, Faktor Xa, Plasmin und Cathepsin D konnte gezeigt werden, dass eine effiziente Zusammenstellung Rezeptor-spezifischer Substrat- oder Ligand-Bibliotheken lediglich eine Durchsuchung von weniger als 8% der vorgegebenen Suchräume erfordert und GARLig dennoch im Stande ist, bekannte Inhibitoren in der Zielbibliothek anzureichern

    Fahrplanbasiertes Energiemanagement in Smart Grids

    Get PDF
    Die Zunahme dezentraler, volatiler Stromerzeugung im Rahmen der Energiewende führt schon heute zu Engpässen in Stromnetzen. Eine Lösung dieser Probleme verspricht die informationstechnische Vernetzung und Koordination der Erzeuger und Verbraucher in Smart Grids. Diese Arbeit präsentiert einen Energiemanagement-Ansatz, der basierend auf Leistungsprognosen und Flexibilitäten der Akteure spezifische, aggregierte Leistungsprofile approximiert. Hierbei werden Netzrestriktionen berücksichtigt

    Design und Analyse randomisierter Suchheuristiken

    Get PDF
    Das Design von Algorithmen und ihre Analyse gehören zu den fundamentalen Aufgaben der Informatik. Dabei ist das Berechnen der Optima einer Funktion eines der wichtigsten Probleme - in Theorie wie Praxis. In dieser Dissertation werden verschiedene randomisierte Suchheuristiken, zu denen die evolutionären Algorithmen gehören, zur Optimierung pseudoboolescher Funktionen theoretisch untersucht. Zum Beginn werden die Effekte der Wahl der Plus- und Komma-Selektion auf die Laufzeit eines einfachen evolutionären Algorithmus bei unterschiedlichen Nachkommenpopulationsgrößen betrachtet. Bei kleinen Nachkommenpopulationen ist die Komma-Selektion bereits zur Optimierung einfacher Funktionen völlig ungeeignet, wohingegen bei großen Nachkommenpopulationen die Plus- und die Komma-Selektion sich sehr ähnlich verhalten. Für Nachkommenpopulationen, die weder klein noch groß sind, wird exemplarisch die wesentliche Effizienzsteigerung durch Einsatz der Komma- gegenüber der Plus-Selektion bewiesen. Des Weiteren werden die Effekte der Wahl der Elternpopulationsgröße auf die Laufzeit eines einfachen evolutionären Algorithmus betrachtet. Neben dem Vergleich der Auswirkungen der Diversität auf die Effizienz zur Optimierung einfacher Funktionen wird ein starkes Hierarchieresultat für die Elternpopulationsgröße gezeigt. Bereits die Vergrößerung der Population um eins kann von totaler Ineffizienz zu Effizienz führen. Des Weiteren betrachten wir detailliert die Effekte von Transformationen der zu optimierenden Funktionen sowohl für die unterschiedlichen Komponenten und Klassen von randomisierten Suchheuristiken als auch für die Black-Box-Komplexität. Diesbezüglich kann eine Klassifizierung aller Suchheuristiken und Transformationen vorgenommen sowie für einfache Algorithmen konkretisiert werden. Zum Schluss werden einfache randomisierte Suchheuristiken zur Approximierung und Optimierung des Cliquenproblems untersucht. Dies geschieht nicht nur für beliebige Graphen erschöpfend, sondern auch für spezielle Klassen von Graphen. Den semizufälligen Graphen kommt eine besondere Bedeutung zu. Hier gelingt es schließlich in einer sehr allgemeinen Form, die wesentliche Steigerung der Effizienz einer randomisierten Suchheuristik durch den Einsatz einer großen Population nachzuweisen. Für planare und zufällige planare Graphen wird abschließend durch die Betrachtung der Black-Box-Komplexität die Optimalität eines Metropolis-Algorithmus zur Berechnung einer größten Clique bewiesen

    Analyse und Optimierung urbaner Energiesysteme - Entwicklung und Anwendung eines übertragbaren Modellierungswerkzeugs zur nachhaltigen Systemgestaltung

    Get PDF
    Viele Städte und Gemeinden sind sich ihrer Bedeutung für das Gelingen der Energiewende bewusst und verfolgen eigene Nachhaltigkeitsziele. Insbesondere in kleineren Gemeinden fehlt es jedoch häufig am nötigen Fachwissen, um bspw. die lokalen Emissionsminderungspotenziale quantifizieren und geeignete Maßnahmenkombinationen zur Erreichung dieser Ziele identifizieren zu können. Daher wurde im Rahmen dieser Arbeit das RE³ASON (Renewable Energies and Energy Efficiency Analysis and System OptimizatioN) Modell entwickelt, mit dem für diese Gemeinden automatisierte Analysen, z. B. zur Bestimmung der Energienachfrage und der Potenziale für erneuerbare Energien, durchgeführt werden können. Bei der anschließenden Optimierung des jeweiligen Energiesystems können verschiedene Ziele verfolgt werden – bspw. die Minimierung der diskontierten Systemausgaben unter der Vorgabe zusätzlicher Emissionsminderungsziele. Die Optimierung umfasst dabei sowohl die Investitions- als auch die Einsatzplanung für Energieumwandlungstechnologien auf der Angebots- und Nachfrageseite. Bei der Implementierung dieses Modells kommen verschiedene Methoden, u. a. aus den Bereichen der Geoinformatik, der Strahlungssimulation, der Betriebswirtschaftslehre, des maschinellen Lernens und der gemischt-ganzzahligen linearen Optimierung zum Einsatz. Ein inhaltlicher Schwerpunkt der Arbeit bildet die Bestimmung der Kosten und Potenziale für die Erzeugung von Strom und Wärme durch Photovoltaik-, Windkraft- und Biomasseanlagen. Besonderer Wert wurde auf die Übertragbarkeit der entwickelten Methoden gelegt, damit diese von möglichst vielen Städten und Gemeinden genutzt werden können. Hierfür wurden diverse öffentlich verfügbare und frei zugängliche Datenquellen genutzt und miteinander kombiniert, um die benötigten Eingangsdaten für die Analyse des städtischen Energiesystems zu generieren. Die Anwendung des Modells im Rahmen mehrerer deutscher und internationaler Fallstudien zeigt unter anderem, dass insb. in kleineren Gemeinden bedeutende Potenziale zur Deckung des Energiebedarfs auf Basis erneuerbarer Energien bestehen. Weiterhin zeigt sich, dass die Umgestaltung des städtischen Energiesystems auf die Nutzung lokaler und nachhaltiger Energieressourcen auch aus Sicht der Gemeindevertreter die zu bevorzugende Alternative darstellen kann. Aus diesen Ergebnissen lassen sich schließlich Handlungsempfehlungen für städtische Entscheidungsträger ableiten. Kritisch anzumerken ist, dass die Modellergebnisse aufgrund der gewählten Systemgrenze keine nationalen energiewirtschaftlichen Schlussfolgerungen zulassen

    Entwicklung einer effizienten Entwurfsraumanalyse zur Optimierung der Leistungsaufnahme von Networks-on-Chip

    Get PDF
    In der Arbeit werden Networks-on-Chip untersucht. Ein Teil beschäftigt sich mit dem Aufbau und den Eigenschaften von Links bzw. allgemein parallelen on-Chip-Leitungen. Speziell wird auf Crosstalk und eine digitale Methode, diesen Effekt zu messen, eingegangen. Im zweiten Teil der Arbeit wird ein NoC-Router untersucht und dessen Implementierung beschrieben. Aus diesen Erkenntnissen wird eine Methode entwickelt, den Entwurfsraum für ein NoC-basiertes System zu analysieren und so die optimale Kommunikationsarchitektur für eine bestimmte Anwendung zu bestimmen

    Skalierbares und robustes Routing auf Internet-ähnlichen Topologien

    Get PDF
    Für skalierbares Routing auf Internet-ähnlichen Topologien wurde ein gieriges Routing-Protokoll mit konfigurierbar beschränktem Stretch entwickelt. Da für diese Protokolle Ausfälle von Knoten oder Kanten der Topologie hohen Reparaturaufwand erfordern, wurde mit Greedy Failure-Carrying Packets eine Rerouting-Strategie entworfen, die durch die Kodierung von Fehlerinformationen in den Paketköpfen die Reparatur vermeidet und bei Ausfällen hohe Paketzustellraten erreicht

    Proceedings. 19. Workshop Computational Intelligence, Dortmund, 2. - 4. Dezember 2009

    Get PDF
    Dieser Tagungsband enthält die Beiträge des 19. Workshops „Computational Intelligence“ des Fachausschusses 5.14 der VDI/VDE-Gesellschaft für Mess- und Automatisierungstechnik (GMA) und der Fachgruppe „Fuzzy-Systeme und Soft-Computing“ der Gesellschaft für Informatik (GI), der vom 2.-4. Dezember 2009 im Haus Bommerholz bei Dortmund stattfindet

    Modulares Software Defined Radio

    Get PDF

    Gitterfreie Simulation von Raumladungseffekten in Teilchenstrahlen

    Get PDF
    Der Betrieb eines Teilchenbeschleunigers setzt ein detailliertes Verständnis für die Strahldynamik der Anlage voraus und erfordert dementsprechend theoretische Strahldynamikmodelle. Oftmals erweisen sich numerische Simulationen aufgrund der komplizierten Abhängigkeiten verschiedener Effekte als die einzige praktikable Vorgehensweise. Der Fokus dieser Forschungsarbeit liegt auf der Entwicklung von numerischen Methoden zur Simulation der Raumladungseffekte eines Teilchenstrahls. Die meisten Standardmethoden erfordern ein Rechengitter, um die Raumladungswechselwirkung zu approximieren. Unter Umständen könnte eine Approximation des Teilchenstrahls durch die diskrete Ladungsdichteverteilung eines Gitters zu numerischen Artefakten und Instabilitäten führen. In dieser Arbeit werden spezialisierte gitterfreie Verfahren für Strahldynamiksimulationen entwickelt, für welche derartige Probleme nicht auftreten. Diese Verfahren werden weiterhin bezüglich ihrer Anwendbarkeit für konkrete Problemstellungen in Elektronenbeschleunigern untersucht. Das erste Verfahren nutzt die schnelle Multipolmethode (engl. Fast Multipole Method, FMM), um eine hierarchische Näherung für das quasi-elektrostatische Raumladungsfeld des Teilchenstrahls zu berechnen. Zu diesem Zweck werden die Fernfeldwechselwirkungen numerisch effizient durch Multipolentwicklungen dargestellt. Alle Nahfeldwechselwirkungen werden hingegen durch direkte Teilchen-Teilchen Berechnungen vollständig aufgelöst. Aufgrund der hohen numerischen Effizienz eignet sich das FMM Verfahren für Simulationsstudien auf gewöhnlichen Computern. Anwendungsstudien zum DESY-PITZ und DESY SRF Photoinjektor zeigen typische Szenarien für das neu entwickelte FMM Simulationsprogramm. Vergleichstests mit zwei etablierten Programmen, welche eine gitterbasierte Methode nutzen, demonstrieren die Validität der Simulationsergebnisse. Außerdem zeigt die Studie, dass die FMM Approximation im direkten Vergleich eine detailliertere Auflösung der Raumladungswechselwirkungen liefert. Das zweite Verfahren nutzt ein Teilchen-Teilchen basiertes Liénard-Wiechert (LW) Modell, um eine vollständig elektromagnetische Lösung für das Raumladungsfeld des Teilchenstrahls zu berechnen. Aufgrund der hohen numerischen Komplexität erfordern derartige Simulationen die Verwendung eines MPI parallelisierten Großrechners. Eine Simulationsstudie zum THz SASE freie Elektronen Laser (FEL) bei DESY-PITZ zeigt, wie das LW Modell die Dynamik, die strahlungsinduzierte Mikrostrukur und das emittierte Strahlungsfeld eines Elektronenstrahls abbildet. Hierbei ist bemerkenswert, dass das LW Modell den FEL Prozess ab initio ausschließlich auf Basis der relativistischen Raumladungswechselwirkung reproduziert
    corecore