2 research outputs found

    Robust Risik-Optimization with multi-objective Neural Networks

    Get PDF
    Ziel dieser Dissertation ist es die Schwierigkeiten bei der Modellierung mit Black-Box Modellen aufzuzeigen, zu quantifizieren und LösungsvorschlĂ€ge zu bieten. Als primĂ€res Beispiel fĂŒr Black-Box-Approximatoren werden Neuronale Netze in verschiedenen AusprĂ€gungen gewĂ€hlt. Teil I konzentriert sich auf die ApproximationsfĂ€higkeit von Neuronalen Netzen in Hinblick auf Dichtheitsaussagen der Form amp;quot;die Klasse der single-layer Neuronalen Netze mit einer diskriminatorischen Aktivierungsfunktion liegt dicht in C(D) mit D kompaktamp;quot;. Bestehende Ergebnisse werden an mehreren Stellen erweitert. Zudem wird in Kapitel 3 die Rolle von Redundanzen in Wavelet-Entwicklungen und die Verbindung zu Wavelet Neuronalen Netzen sowie deren Robustheit gegenĂŒber Störungen in den Wavelet-Koeffizienten untersucht. Teil II stellt das geeignete Fundament fĂŒr die Analyse der Robustheit von Black-Box Modellen gegenĂŒber in der Praxis unvermeidlicher Störungen zur VerfĂŒgung. In diesem stochastischen Rahmen werden die folgenden Aspekte aus verschiedenen Sichtweisen heraus beleuchtet: Empirische Risiko-Minimierung mit Black-Box Approximatoren in stochastischem Rahmen, Konsistenz in der empirischen Risiko-Minimierung, Topologische EinschrĂ€nkungen von HypothesenrĂ€umen und die Verbindung zu modelltheoretischen Problemstellungen (Bias-Variance-Dilemma) sowie die gleichmĂ€ĂŸige Konvergenz der SchĂ€tzer gegen die Zielfunktion als Hauptproblem bei der praktischen Anwendung von Neuronalen Netzen. Hierbei werden vor allem sowohl Konvergenz in N (Anzahl Trainingsdatenpunkte) als auch in M (entspricht ModellkomplexitĂ€t) betrachtet. Weiterhin werden verschiedene Definitionen von Robustheit fĂŒr Black-Box Approximatoren (HypothesenstabilitĂ€t, AusreißerstabilitĂ€t, Kondition des Optimierungsproblems) verwendet und diskutiert sowie neue Konstruktionsalgorithmen fĂŒr Neuronale Netze auf Grundlage von der KomplexitĂ€t nach geordneten Modellstrukturen. Diese Algorithmen werden auf Robustheits- und StabilitĂ€tseigenschaften hin untersucht. In Teil III werden die in Teil I und II erarbeiteten ZusammenhĂ€nge angewendet, so dass ein Konstruktionsalgorithmus angegeben werden kann, der sich bezĂŒglich mehrerer Aspekte (Hypothesen-StabilitĂ€t, KomplexitĂ€t, Konsistenz, Ausreißer-ImmunitĂ€t und Kondition) als optimal erweist. Neuronale Netze werden somit auf neuartige Weise als ganzheitliches Modellierungsproblem prĂ€sentiert, denn ein“gutes Modell“ ist nur durch die simultane Optimierung verschiedener Aspekte erreichbar (Multi-Objective Modellierung). Ein zentraler Punkt dieser Dissertation ist in diesem Zusammenhang die AbschĂ€tzung des Bias-Fehlers mit Hilfe eines erweiterten greedy-Algorithmus. Es gelingt den Gesamtfehler der Approximation in AbhĂ€ngigkeit von ModellkomplexitĂ€t und Anzahl der Trainingsdatenpunkte analytisch nach oben abzuschĂ€tzen und zu minimieren

    Feedforward Sigmoidal Networks—Equicontinuity and Fault-Tolerance Properties

    No full text
    corecore