Reinforcement Learning zur Erstellung zustandsorientierter Putzstrategien in konzentrierenden solarthermischen Kraftwerken

Abstract

Der Hauptteil dieser Arbeit beschäftigt sich zunächst mit den theoretischen Grundlagen von Reinforcement Learning und künstlichen neuronalen Netzen. Dabei wird der Schwerpunkt auf die im weiteren Verlauf genutzten Methoden gelegt. Im Anschluss wird die praktische Anwendung der Reinforcement Learning Methoden auf das Problem der Putzsteuerung in CSP Kraftwerken beschrieben. Dafür wird zuerst das Problem genauer spezifiziert und beschrieben wie der Algorithmus auf das Problem angewandt wird. Daraufhin wird die Implementierung dargestellt, um schließlich den Algorithmus in zwei Schritten auszuwerten. Im ersten Schritt wird der Algorithmus untersucht: Hier wird zum einen betrachtet wie robust der Algorithmus gegenüber der zufälligen Initialisierung ist, zum anderen wird untersucht wie gut die gefundene Lösung ist, indem die Ergebnisse in einem leichten Fall mit einer optimalen Lösung verglichen und in einem komplexeren Fall die Putzentscheidungen beobachtet und einer Plausibilitätsprüfung unterzogen werden. Im zweiten Abschnitt der Auswertung wird mit Hilfe des Algorithmus das zugrundeliegende Problem der Putzstrategien-Findung analysiert. Dafür wird zum einen untersucht, welchen Nutzen die Verfügbarkeit verschiedener Vorhersagehorizonte der Verschmutzungsraten für die Putzstrategie hat, zum anderen wird die Umwelt verändert: Es werden mehrere starke Verschmutzungsereignisse hinzugefügt oder der Wasserpreis erhöht. Hierbei soll beobachtet werden, wie die Strategie auf diese Veränderung angepasst wird und welche Schlüsse sich daraus für andere Standorte ergeben. Abschließend sollen die Schwierigkeiten der vorgestellten Methode diskutiert werden

    Similar works