5,871 research outputs found

    Sparse Iterative Learning Control with Application to a Wafer Stage: Achieving Performance, Resource Efficiency, and Task Flexibility

    Get PDF
    Trial-varying disturbances are a key concern in Iterative Learning Control (ILC) and may lead to inefficient and expensive implementations and severe performance deterioration. The aim of this paper is to develop a general framework for optimization-based ILC that allows for enforcing additional structure, including sparsity. The proposed method enforces sparsity in a generalized setting through convex relaxations using ℓ1\ell_1 norms. The proposed ILC framework is applied to the optimization of sampling sequences for resource efficient implementation, trial-varying disturbance attenuation, and basis function selection. The framework has a large potential in control applications such as mechatronics, as is confirmed through an application on a wafer stage.Comment: 12 pages, 14 figure

    Cautious NMPC with Gaussian Process Dynamics for Autonomous Miniature Race Cars

    Full text link
    This paper presents an adaptive high performance control method for autonomous miniature race cars. Racing dynamics are notoriously hard to model from first principles, which is addressed by means of a cautious nonlinear model predictive control (NMPC) approach that learns to improve its dynamics model from data and safely increases racing performance. The approach makes use of a Gaussian Process (GP) and takes residual model uncertainty into account through a chance constrained formulation. We present a sparse GP approximation with dynamically adjusting inducing inputs, enabling a real-time implementable controller. The formulation is demonstrated in simulations, which show significant improvement with respect to both lap time and constraint satisfaction compared to an NMPC without model learning

    Iterative learning control of crystallisation systems

    Get PDF
    Under the increasing pressure of issues like reducing the time to market, managing lower production costs, and improving the flexibility of operation, batch process industries thrive towards the production of high value added commodity, i.e. specialty chemicals, pharmaceuticals, agricultural, and biotechnology enabled products. For better design, consistent operation and improved control of batch chemical processes one cannot ignore the sensing and computational blessings provided by modern sensors, computers, algorithms, and software. In addition, there is a growing demand for modelling and control tools based on process operating data. This study is focused on developing process operation data-based iterative learning control (ILC) strategies for batch processes, more specifically for batch crystallisation systems. In order to proceed, the research took a step backward to explore the existing control strategies, fundamentals, mechanisms, and various process analytical technology (PAT) tools used in batch crystallisation control. From the basics of the background study, an operating data-driven ILC approach was developed to improve the product quality from batch-to-batch. The concept of ILC is to exploit the repetitive nature of batch processes to automate recipe updating using process knowledge obtained from previous runs. The methodology stated here was based on the linear time varying (LTV) perturbation model in an ILC framework to provide a convergent batch-to-batch improvement of the process performance indicator. In an attempt to create uniqueness in the research, a novel hierarchical ILC (HILC) scheme was proposed for the systematic design of the supersaturation control (SSC) of a seeded batch cooling crystalliser. This model free control approach is implemented in a hierarchical structure by assigning data-driven supersaturation controller on the upper level and a simple temperature controller in the lower level. In order to familiarise with other data based control of crystallisation processes, the study rehearsed the existing direct nucleation control (DNC) approach. However, this part was more committed to perform a detailed strategic investigation of different possible structures of DNC and to compare the results with that of a first principle model based optimisation for the very first time. The DNC results in fact outperformed the model based optimisation approach and established an ultimate guideline to select the preferable DNC structure. Batch chemical processes are distributed as well as nonlinear in nature which need to be operated over a wide range of operating conditions and often near the boundary of the admissible region. As the linear lumped model predictive controllers (MPCs) often subject to severe performance limitations, there is a growing demand of simple data driven nonlinear control strategy to control batch crystallisers that will consider the spatio-temporal aspects. In this study, an operating data-driven polynomial chaos expansion (PCE) based nonlinear surrogate modelling and optimisation strategy was presented for batch crystallisation processes. Model validation and optimisation results confirmed this approach as a promise to nonlinear control. The evaluations of the proposed data based methodologies were carried out by simulation case studies, laboratory experiments and industrial pilot plant experiments. For all the simulation case studies a detailed mathematical models covering reaction kinetics and heat mass balances were developed for a batch cooling crystallisation system of Paracetamol in water. Based on these models, rigorous simulation programs were developed in MATLABÂź, which was then treated as the real batch cooling crystallisation system. The laboratory experimental works were carried out using a lab scale system of Paracetamol and iso-Propyl alcohol (IPA). All the experimental works including the qualitative and quantitative monitoring of the crystallisation experiments and products demonstrated an inclusive application of various in situ process analytical technology (PAT) tools, such as focused beam reflectance measurement (FBRM), UV/Vis spectroscopy and particle vision measurement (PVM) as well. The industrial pilot scale study was carried out in GlaxoSmithKline Bangladesh Limited, Bangladesh, and the system of experiments was Paracetamol and other powdered excipients used to make paracetamol tablets. The methodologies presented in this thesis provide a comprehensive framework for data-based dynamic optimisation and control of crystallisation processes. All the simulation and experimental evaluations of the proposed approaches emphasised the potential of the data-driven techniques to provide considerable advances in the current state-of-the-art in crystallisation control

    Meta Reinforcement Learning with Latent Variable Gaussian Processes

    Get PDF
    Learning from small data sets is critical in many practical applications where data collection is time consuming or expensive, e.g., robotics, animal experiments or drug design. Meta learning is one way to increase the data efficiency of learning algorithms by generalizing learned concepts from a set of training tasks to unseen, but related, tasks. Often, this relationship between tasks is hard coded or relies in some other way on human expertise. In this paper, we frame meta learning as a hierarchical latent variable model and infer the relationship between tasks automatically from data. We apply our framework in a model-based reinforcement learning setting and show that our meta-learning model effectively generalizes to novel tasks by identifying how new tasks relate to prior ones from minimal data. This results in up to a 60% reduction in the average interaction time needed to solve tasks compared to strong baselines.Comment: 11 pages, 7 figure

    Predictive PDF control in shaping of molecular weight distribution based-on a new modelling Algorithm

    Get PDF
    The aims of this work are to develop an efficient modeling method for establishing dynamic output probability density function (PDF) models using measurement data and to investigate predictive control strategies for controlling the full shape of output PDF rather than the key moments. Using the rational square-root (RSR) B-spline approximation, a new modeling algorithm is proposed in which the actual weights are used instead of the pseudo weights in the weights dynamic model. This replacement can reduce computational load effectively in data-based modeling of a high-dimensional output PDF model. The use of the actual weights in modeling and control has been verified by stability analysis. A predictive PDF model is then constructed, based on which predictive control algorithms are established with the purpose to drive the output PDF towards the desired target PDF over the control process. An analytical solution is obtained for the non-constrained predictive PDF control. For the constrained predictive control, the optimal solution is achieved via solving a constrained nonlinear optimization problem. The integrated method of data-based modeling and predictive PDF control is applied to closed-loop control of molecular weight distribution (MWD) in an exemplar styrene polymerization process, through which the modeling efficiency and the merits of predictive control over standard PDF control are demonstrated and discussed

    Model learning for trajectory tracking of robot manipulators

    Get PDF
    Abstract Model based controllers have drastically improved robot performance, increasing task accuracy while reducing control effort. Nevertheless, all this was realized with a very strong assumption: the exact knowledge of the physical properties of both the robot and the environment that surrounds it. This assertion is often misleading: in fact modern robots are modeled in a very approximate way and, more important, the environment is almost never static and completely known. Also for systems very simple, such as robot manipulators, these assumptions are still too strong and must be relaxed. Many methods were developed which, exploiting previous experiences, are able to refine the nominal model: from classic identification techniques to more modern machine learning based approaches. Indeed, the topic of this thesis is the investigation of these data driven techniques in the context of robot control for trajectory tracking. In the first two chapters, preliminary knowledge is provided on both model based controllers, used in robotics to assure precise trajectory tracking, and model learning techniques. In the following three chapters, are presented the novelties introduced by the author in this context with respect to the state of the art: three works with the same premise (an inaccurate system modeling), an identical goal (accurate trajectory tracking control) but with small differences according to the specific platform of application (fully actuated, underactuated, redundant robots). In all the considered architectures, an online learning scheme has been introduced to correct the nominal feedback linearization control law. Indeed, the method has been primarily introduced in the literature to cope with fully actuated systems, showing its efficacy in the accurate tracking of joint space trajectories also with an inaccurate dynamic model. The main novelty of the technique was the use of only kinematics information, instead of torque measurements (in general very noisy), to online retrieve and compensate the dynamic mismatches. After that the method has been extended to underactuated robots. This new architecture was composed by an online learning correction of the controller, acting on the actuated part of the system (the nominal partial feedback linearization), and an offline planning phase, required to realize a dynamically feasible trajectory also for the zero dynamics of the system. The scheme was iterative: after each trial, according to the collected information, both the phases were improved and then repeated until the task achievement. Also in this case the method showed its capability, both in numerical simulations and on real experiments on a robotics platform. Eventually the method has been applied to redundant systems: differently from before, in this context the task consisted in the accurate tracking of a Cartesian end effector trajectory. In principle very similar to the fully actuated case, the presence of redundancy slowed down drastically the learning machinery convergence, worsening the performance. In order to cope with this, a redundancy resolution was proposed that, exploiting an approximation of the learning algorithm (Gaussian process regression), allowed to locally maximize the information and so select the most convenient self motion for the system; moreover, all of this was realized with just the resolution of a quadratic programming problem. Also in this case the method showed its performance, realizing an accurate online tracking while reducing both the control effort and the joints velocity, obtaining so a natural behaviour. The thesis concludes with summary considerations on the proposed approach and with possible future directions of research

    Stochastic Control for Cooperative Cyber-Physical Networking

    Get PDF
    Die stetig fortschreitende Digitalisierung erlaubt einen immer autonomeren und intelligenteren Betrieb von Produktions- und Fertigungslinien, was zu einer stĂ€rker werdenden Verzahnung der physikalischen Prozesse und der Software-Komponenten zum Überwachen, Steuern und Messen fĂŒhrt. Cyber-physische Systeme (CPS) spielen hierbei eine SchlĂŒsselrolle, indem sie sowohl die physikalischen als auch die Software-Komponenten zu einem verteilten System zusammenfassen, innerhalb dessen UmgebungszustĂ€nde, Messwerte und Steuerbefehle ĂŒber ein Kommunikationsnetzwerk ausgetauscht werden. Die VerfĂŒgbarkeit von kostengĂŒnstigen GerĂ€ten und die Möglichkeit bereits existierende Infrastruktur zu nutzen sorgen dafĂŒr, dass auch innerhalb von CPS zunehmend auf den Einsatz von Standard-Netzen auf Basis von IEEE 802.3 (Ethernet) und IEEE 802.11 (WLAN) gesetzt wird. Nachteilig bei der Nutzung von Standard-Netzen sind jedoch auftretende DienstgĂŒte-Schwankungen, welche aus der gemeinsamen Nutzung der vorhandenen Infrastruktur resultieren und fĂŒr die Endsysteme in Form von sich Ă€ndernden Latenzen und Daten- und Paketverlustraten sichtbar werden. Regelkreise sind besonders anfĂ€llig fĂŒr DienstgĂŒte-Schwankungen, da sie typischerweise isochrone DatenĂŒbertragungen mit festen Latenzen benötigen, um die gewĂŒnschte RegelgĂŒte zu garantieren. FĂŒr die Vernetzung der einzelnen Komponenten, das heißt von Sensorik, Aktorik und Regler, setzt man daher klassischerweise auf Lösungen, die diese Anforderungen erfĂŒllen. Diese Lösungen sind jedoch relativ teuer und unflexibel, da sie den Einsatz von spezialisierten Netzwerken wie z.B. Feldbussen benötigen oder ĂŒber komplexe, speziell entwickelte Kommunikationsprotokolle realisiert werden wie sie beispielsweise die Time-Sensitive Networking (TSN) Standards definieren. Die vorliegende Arbeit prĂ€sentiert Ergebnisse des interdisziplinĂ€ren Forschungsprojekts CoCPN:Cooperative Cyber-Physical Networking, das ein anderes Konzept verfolgt und explizit auf CPS abzielt, die Standard-Netze einsetzen. CoCPN benutzt einen neuartigen, kooperativen Ansatz um i) die ElastizitĂ€t von Regelkreisen innerhalb solcher CPS zu erhöhen, das heißt sie in die Lage zu versetzen, mit den auftretenden DienstgĂŒte-Schwankungen umzugehen, und ii) das Netzwerk ĂŒber die Anforderungen der einzelnen Regler in Kenntnis zu setzen. Kern von CoCPN ist eine verteilte Architektur fĂŒr CPS, welche es den einzelnen Regelkreisen ermöglicht, die verfĂŒgbare Kommunikations-Infrastruktur gemeinsam zu nutzen. Im Gegensatz zu den oben genannten Lösungen benötigt CoCPN dafĂŒr keine zentrale Instanz mit globaler Sicht auf das Kommunikationssystem, sodass eine enge Kopplung an die Anwendungen vermieden wird. Stattdessen setzt CoCPN auf eine lose Kopplung zwischen Netzwerk und Regelkreisen, realisiert in Form eines Austauschs von Meta-Daten ĂŒber den sog. CoCPN-Translator. CoCPN implementiert ein Staukontrollverfahren, welches den typischen Zusammenhang zwischen erreichbarer RegelgĂŒte und Senderate ausnutzt: die erreichbare RegelgĂŒte steigt mit der Senderate und umgekehrt. Durch Variieren der zu erreichenden RegelgĂŒte kann das Sendeverhalten der Regler so eingestellt werden, dass die vorhandenen Kommunikations-Ressourcen optimal ausgenutzt und gleichzeitig Stausituationen vermieden werden. In dieser Arbeit beschĂ€ftigen wir uns mit den regelungstechnischen Fragestellungen innerhalb von CoCPN. Der Schwerpunkt liegt hierbei auf dem Entwurf und der Analyse von Algorithmen, die auf Basis der ĂŒber den CoCPN-Translator ausgetauschten Meta-Daten die notwendige ElastizitĂ€t liefern und es dadurch den Reglern ermöglichen, schnell auf Änderungen der Netzwerk-DienstgĂŒte zu reagieren. Dazu ist es notwendig, dass den Reglern ein Modell zur VerfĂŒgung gestellt wird, dass die Auswirkungen von Verzögerungen und Paketverlusten auf die RegelgĂŒte erfasst. Im ersten Teil der Arbeit wird eine Erweiterung eines existierenden Modellierungs-Ansatzes vorgestellt, dessen Grundidee es ist, sowohl die Dynamik der Regelstrecke als auch den Einfluss von Verzögerungen und Paketverlusten durch ein hybrides System darzustellen. Hybride Systeme zeichnen sich dadurch aus, dass sie sowohl kontinuierlich- als auch diskretwertige Zustandsvariablen besitzen. Unsere vorgestellte Erweiterung ist in der Lage, Änderungen der Netzwerk-DienstgĂŒte abzubilden und ist nicht auf eine bestimmte probabilistische Darstellung der auftretenden Verzögerungen und Paketverluste beschrĂ€nkt. ZusĂ€tzlich verzichtet unsere Erweiterung auf die in der Literatur ĂŒbliche Annahme, dass Quittungen fĂŒr empfangene Datenpakete stets fehlerfrei und mit vernachlĂ€ssigbarer Latenz ĂŒbertragen werden. Verglichen mit einem Großteil der verwandten Arbeiten, ermöglichen uns die genannten Eigenschaften daher eine realistischere BerĂŒcksichtigung der Netzwerk-EinflĂŒsse auf die RegelgĂŒte. Mit dem entwickelten Modell kann der Einfluss von Verzögerungen und Paketverlusten auf die RegelgĂŒte prĂ€diziert werden. Auf Basis dieser PrĂ€diktion können StellgrĂ¶ĂŸen dann mit Methoden der stochastischen modellprĂ€diktiven Regelung (stochastic model predictive control) berechnet werden. Unsere realistischere Betrachtung der Netzwerk-EinflĂŒsse auf die RegelgĂŒte fĂŒhrt hierbei zu einer gegenseitigen AbhĂ€ngigkeit von Regelung und SchĂ€tzung. Zur Berechnung der StellgrĂ¶ĂŸen muss der Regler den Zustand der Strecke aus den empfangenen Messungen schĂ€tzen. Die QualitĂ€t dieser SchĂ€tzungen hĂ€ngt von den berechneten StellgrĂ¶ĂŸen und deren Auswirkung auf die Regelstrecke ab. Umgekehrt beeinflusst die QualitĂ€t der SchĂ€tzungen aber maßgeblich die QualitĂ€t der StellgrĂ¶ĂŸen: Ist der SchĂ€tzfehler gering, kann der Regler bessere Entscheidungen treffen. Diese gegenseitige AbhĂ€ngigkeit macht die Berechnung von optimalen StellgrĂ¶ĂŸen unmöglich und bedingt daher die Fokussierung auf das Erforschen von approximativen AnsĂ€tzen. Im zweiten Teil dieser Arbeit stellen wir zwei neuartige Verfahren fĂŒr die stochastische modellprĂ€diktive Regelung ĂŒber Netzwerke vor. Im ersten Verfahren nutzen wir aus, dass bei hybriden System oft sogenannte multiple model-Algorithmen zur ZustandsschĂ€tzung verwendet werden, welche den geschĂ€tzten Zustand in Form einer Gaußmischdichte reprĂ€sentieren. Auf Basis dieses Zusammenhangs und einer globalen Approximation der Kostenfunktion leiten wir einen Algorithmus mit geringer KomplexitĂ€t zur Berechnung eines (suboptimalen) Regelgesetzes her. Dieses Regelgesetz ist nichtlinear und ergibt sich aus der gewichteten Kombination mehrerer unterlagerter Regelgesetze. Jedes dieser unterlagerten Regelgesetze lĂ€sst sich dabei als lineare Funktion genau einer der Komponenten der Gaußmischdichte darstellen. Unser zweites vorgestelltes Verfahren besitzt gegensĂ€tzliche Eigenschaften. Das resultierende Regelgesetz ist linear und basiert auf einer Approximation der Kostenfunktion, welche wir nur lokal, das heißt nur in der Umgebung einer erwarteten Trajektorie des geregelten Systems, berechnen. Diese Trajektorie wird hierbei durch die PrĂ€diktion einer initialen ZustandsschĂ€tzung ĂŒber den Optimierungshorizont gewonnen. Zur Berechnung des Regelgesetzes schlagen wir dann einen iterativen Algorithmus vor, welcher diese Approximation durch wiederholtes Optimieren der System-Trajektorie verbessert. Simulationsergebnisse zeigen, dass unsere neuartigen Verfahren eine signifikant höhere RegelgĂŒte erzielen können als verwandte AnsĂ€tze aus der Literatur. Der dritte Teil der vorliegenden Arbeit beschĂ€ftigt sich erneut mit dem hybriden System aus dem ersten Teil. Die im Rahmen dieser Arbeit verwendeten Netzwerk-Modelle, das heißt die verwendeten probabilistischen Beschreibungen der Verzögerungen und Paketverluste, werden vom CoCPN-Translator auf Grundlage von im Netzwerk gesammelten Status-Informationen erzeugt. Diese Status-Informationen bilden jedoch stets nur Ausschnitte ab und können nie exakt den "Zustand” des Netzwerks reprĂ€sentieren. Dementsprechend können die resultierenden Netzwerk-Modelle nicht als fehlerfrei erachtet werden. In diesem Teil der Arbeit untersuchen wir daher den Einfluss möglicher Fehler in den Netzwerk-Modellen auf die zu erwartende RegelgĂŒte. Weiterhin gehen wir der Frage nach der Existenz von Reglern, die robust gegenĂŒber solchen Fehlern und Unsicherheiten sind, nach. Dazu zeigen wir zunĂ€chst, dass sich Fehler in den Netzwerk-Modellen immer als eine polytopische Parameter-Unsicherheit im hybriden System aus dem ersten Teil manifestieren. FĂŒr solche polytopischen hybride System leiten wir dann eine sowohl notwendige als auch hinreichende StabilitĂ€tsbedingung her, was einen signifikanten Beitrag zur Theorie der hybriden Systeme darstellt. Die Auswertung dieser Bedingung erfordert es zu bestimmen, ob der gemeinsame Spektralradius (joint spectral radius) einer Menge von Matrizen kleiner als eins ist. Dieses Entscheidungsproblem ist bekanntermaßen NP-schwer, was die Anwendbarkeit der StabilitĂ€tsbedingung stark limitiert. Daher prĂ€sentieren wir eine hinreichende StabilitĂ€tsbedingung, die in polynomieller Zeit ĂŒberprĂŒft werden kann, da sie auf der ErfĂŒllbarkeit von linearen Matrixungleichungen basiert. Schließlich zeigen wir, dass die Existenz eines Reglers, der die StabilitĂ€t des betrachteten polytopischen hybriden Systems garantiert, von der ErfĂŒllbarkeit einer Ă€hnlichen Menge von Matrixungleichungen bestimmt wird. Diese Ungleichungen sind weniger restriktiv als die bisher in der Literatur bekannten, was die Synthese von weniger konservativen Reglern erlaubt. Schließlich zeigen wir im letzten Teil dieser Arbeit die Anwendbarkeit des kooperativen Konzepts von CoCPN in Simulations-Szenarien, in denen stark ausgelastete Netzwerk-Ressourcen mit anderen Anwendungen geteilt werden mĂŒssen. Wir demonstrieren, dass insbesondere das Zusammenspiel unserer modellprĂ€diktiven Verfahren mit dem Staukontrollverfahren von CoCPN einen zuverlĂ€ssigen Betrieb der Regelkreise ohne unerwĂŒnschte Einbußen der RegelgĂŒte auch dann ermöglicht, wenn sich die Kommunikationsbedingungen plötzlich und unvorhergesehen Ă€ndern. Insgesamt stellt unsere Arbeit somit einen wichtigen Baustein auf dem Weg zu einem flĂ€chendeckenden Einsatz von Standard-Netzen als flexible und adaptive Basis fĂŒr industrielle CPS dar
    • 

    corecore