31 research outputs found

    20. ASIM Fachtagung Simulation in Produktion und Logistik 2023

    Get PDF

    Konzeption und Entwicklung eines Robot Cognition Processors für adaptive Demontageanwendungen

    Get PDF
    Im Rahmen der perspektivischen Einführung einer Kreislaufwirtschaft sind ökonomische und ökologische Aspekte entscheidend für die Attraktivität der Umsetzung in beteiligten Wirtschaftsunternehmen. Die Demontage stellt innerhalb von Verwertungsprozessen in diesen Konzepten einen wichtigen Schritt dar, der aufgrund von hoher Varianten- und Zustandsvielfalt überwiegend manuell ausgeführt wird. Diese Forschungsarbeit untersucht die Möglichkeiten der nachhaltigen Verbesserung des Demontageprozesses durch selektive (Teil-)Automatisierung mit Hilfe eines Konzeptes aus dem Bereich der kognitiven Robotik. Es wird dabei auf Grundlage der Anforderungen aus realen Demontageprozessen ein System entwickelt, das in einer agentenbasierten Modulstruktur die Funktionsumfänge bietet, die für eine autonome, flexible Demontageplanung unter Berücksichtigung von Produkt- und Lebenszyklusdaten erforderlich sind und die effiziente Ausführung der Demontageoperationen im Rahmen einer Mensch-Roboter-Kollaboration erlauben. Grundlage für die entwickelten Module stellt ein standardisiertes Informationsmanagement-Konzept dar, welches die Anlagenebene der Demontage technisch mit allen beteiligten Stakeholdern der zirkulären Wertschöpfungskette verknüpft. Mit Hilfe von Industrie 4.0 Technologien, wie beispielsweise dem Einsatz von KI-unterstützten Entscheidungssystemen oder einer intelligenten Bilderkennungseinheit können so produktindividuelle Verwertungsszenarien innerhalb der Kreislaufwirtschaft bestimmt werden, welche die Schlüsselposition der Demontage am Beginn der zirkulären Wertschöpfungskette bestmöglich nutzen. Die Untersuchungen des Systemkonzeptes am Beispiel der Moduldemontage von Elektrofahrzeug-Batterien zeigen, dass mit dem entwickelten Konzept eine Verbesserung gegenüber manueller Demontageoperationen erzielt werden kann. Die Verknüpfung der Systemeinheiten lässt sich durch die verwendeten Interoperabilitätsstandards skalieren und erlaubt so auch den industriellen Einsatz. Durch bidirektionale Kommunikationsstrukturen wird gezeigt, dass es möglich ist validierte Prozessinformationen aus einer Demontageeinheit an anderen Stellen zu nutzen. Dies reduziert den effektiven Aufwand im Umgang mit einer hohen Variantenvielfalt. Die Verwendung der entwickelten Modulkonzepte ist grundsätzlich auch in angrenzenden Feldern möglich, erfordert jedoch weitere Entwicklungs- und Abstimmungsarbeit. Aus den Ergebnissen dieser Konzeptentwicklung folgen zahlreiche Weiterentwicklungs- und Anwendungspotenziale für Robotiksysteme im Bereich der kreislaufwirtschaftlichen Verwertungsprozesse. Vor dem Hintergrund der Notwendigkeit der Rückgewinnung kritischer Elemente und einer effizienten Ressourcennutzung durch höherwertige (Teil-)Nutzungs- und Verwertungsoptionen, ist der Einsatz hierauf aufbauender Konzepte eine lohnenswerte Zukunftsperspektive.In the pursuance of a Circular Economy, both economic and ecological aspects are crucial for the implementation in private companies. The disassembly process itself is a very important step in end-oflife utilization and because of the high variance of products and their conditions it is mainly carried out manually. This work investigates the possibilities of a sustainable improvement of such processes by selective automation with cognitive robotics. Based on requirements of real disassembly cases, a robot system is conceptualized and developed which is able to facilitate an autonomous, flexible disassembly planning while taking both product and lifecycle data into account. Furthermore, the execution of the disassembly process in the concept is carried out as a human-machine-collaboration. The overall foundation of the system is an information management concept which connects shopfloor level disassembly with all stakeholders within the circular value chain. Using Industry 4.0 technologies, for instance AI decision systems or an intelligent image recognition, part-individual utilization scenarios can be defined this way. The investigation of the system concept on the case study of module disassembly of electric vehicle batteries shows that automation is both more effective and efficient in comparison to manual operations. Interfaces are highly scalable because of the interoperability standards used, preparing the concept to be implemented in industry. Moreover, bidirectional communication pipelines enable the exchange of valid process knowledge between several stakeholders, reducing the effort of dealing with a high variance of products and conditions. Transfer of the concept to other fields of industry or recycling operations is possible but requires further development for the actual use case. Conclusively, the concept developed opens up a manifold of different application scenarios for cognitive robotics in the Circular Economy domain. Keeping the necessity of recovering critical elements and the reuse of valuable components in mind, an implementation of future concepts based on this approach is a perspective worthwhile

    Beitrag zur Optimierung von Reinigungsprozessen im nicht immergierten System unter Anwendung gravitationsgetriebener Flüssigkeitsfilme

    Get PDF
    Die Herstellung hochqualitativer Produkte in der Lebensmittel-, Kosmetik- und Pharmaindustrie erfordert den Einsatz reproduzierbarer Reinigungsprozesse. Häufig wird die nasschemische Reinigung als Cleaning in Place Verfahren angewandt. Diese Arbeit leistet einen Beitrag zur Optimierung von Reinigungsprozessen im nicht immergierten System insbesondere bei der Anwendung gravitationsgetriebener Flüssigkeitsfilme. Inhalte sind Untersuchungen zum Benetzungs- und Strömungsverhalten im Vergleich zur Reinigungswirkung von Flüssigkeitsfilmen. Als Modellverschmutzungen wurden zwei lebensmitteltypische Bestandteile in Kombination mit partikulären Anteilen eingesetzt. Im Ergebnis konnte nachgewiesen werden, dass sich das Reinigungsverhalten der gewählten Verschmutzungen mit der Hydrodynamik am Beispiel von Flüssigkeitsfilmen beschreiben lässt. Zusätzlich wurde ein neuartiger Ansatz zur Optimierung der Reinigungseffizienz durch die Anwendung diskontinuierlicher Flüssigkeitsfilme untersucht. Dadurch konnte gezeigt werden, dass der Ressourceneinsatz gegenüber einer kontinuierlichen Flüssigkeitsfilmströmung signifikant verringert werden kann, wobei die Reinigungszeit nur geringfügig steigt.:Danksagung ... II Inhaltsverzeichnis ... III Verzeichnis der verwendeten Formelzeichen ... VI Abkürzungsverzeichnis ... XVI 1 Einleitung, Motivation und Gegenstand der Arbeit ... 1 2 Grundlagen der Reinigung ... 3 2.1 Begriffserklärung ... 3 2.2 Industrielle Reinigungsprozesse ... 3 2.2.1 Einordnung ... 3 2.2.2 Reinigungsgeräte für die Nassreinigung im nicht immergierten System ... 8 2.3 Reinigungsvorgänge im nicht immergierten System ... 10 2.3.1 Komponenten des Reinigungssystems ... 10 2.3.2 Schmutzhaftmechanismen ... 20 2.3.3 Reinigungsmechanismen und Wirkzusammenhänge ... 23 2.3.4 Reinigungskinetik ... 28 3 Methoden für Reinigungsuntersuchungen ... 32 3.1 Einordnung ... 32 3.2 Industrielle Methoden ... 33 3.3 Wissenschaftliche Methoden ... 35 4 Gravitationsgetriebene Flüssigkeitsfilmströmungen ... 37 4.1 Einteilung von Filmströmungen und Filmkennzahlen ... 37 4.2 Kennzahlen zur Oberflächenbenetzung ... 40 4.3 Filmdicke und Filmoberflächenwelligkeit ... 47 4.3.1 Modellvorstellungen und Kennzahlen ... 47 4.3.2 Experimentelle Methoden ... 50 4.4 Strömungsgeschwindigkeit ... 54 4.4.1 Modellvorstellungen und Kennzahlen ... 54 4.4.2 Experimentelle Methoden ... 58 5 Zielsetzung und Lösungsweg ... 61 5.1 Problemstellung ... 61 5.2 Arbeitshypothese ... 62 5.3 Vorgehen ... 62 5.4 Zusammenhang mit anderen Arbeiten ... 63 6 Material und Methoden ... 64 6.1 Auswahl Substrate ... 64 6.2 Topografiebestimmung ... 64 6.3 Kontaktwinkelmessung ... 66 6.4 Untersuchungsobjekt ... 68 6.5 Grundaufbau der Versuchsanlage ... 68 6.6 Auswahl der Flüssigkeit ... 70 6.7 Festlegung der Einstellparameter für die Strömungs- und Reinigungsmessungen ... 71 6.8 Charakterisierung des Stoffsystems ... 71 6.8.1 Quellverhalten ... 71 6.8.2 Bindungskräfte ... 77 6.9 Hydrodynamik ... 79 6.9.1 Oberflächenbenetzung ... 79 6.9.2 Filmdicke ... 85 6.9.3 Strömungsgeschwindigkeit ... 102 6.10 Reinigungsuntersuchungen ... 115 6.10.1 Auswahl der Modellverschmutzungen ... 115 6.10.2 Auswahl und Konzeption der Messdatenerfassung ... 117 6.10.3 Versuchsaufbau ... 119 6.10.4 Aufnahmeparameter ... 121 6.10.5 Benetzungseinfluss auf die Phosphoreszenzintensität ... 123 6.10.6 Methode zur reproduzierbaren Verschmutzung ebener Substrate ... 125 6.10.7 Überprüfung der Reproduzierbarkeit und Gleichmäßigkeit der Verschmutzungsmethode ... 128 6.10.8 Versuchsablauf ... 130 6.10.9 Messdatenaufbereitung und -auswertung ... 130 7 Versuchsauswertung und Ergebnisse ... 140 7.1 Charakterisierung der Verschmutzung ... 140 7.1.1 Quellverhalten ... 140 7.1.2 Bindungskräfte ... 144 7.1.3 Zusammenfassung der Verschmutzungscharakterisierung ... 150 7.2 Hydrodynamik gravitationsgetriebener Flüssigkeitsfilme ... 151 7.2.1 Oberflächenbenetzung ... 151 7.2.2 Filmdicke und Filmdickenverteilung ... 163 7.2.3 Strömungsgeschwindigkeit ... 171 7.2.4 Zusammenfassung der Hydrodynamik gravitationsgetriebener Flüssigkeitsfilme ... 180 7.3 Reinigungsverhalten gravitationsgetriebener Flüssigkeitsfilme ... 182 7.3.1 Reinigungskinetik ... 182 7.3.2 Gereinigte Zonen ... 185 7.3.3 Einfluss des Flächenverschmutzungsgewichtes ... 187 7.3.4 Einfluss der Betriebsparameter ... 188 7.3.5 Reinigungseffizienz ... 191 7.3.6 Einfluss der Oberfläche ... 193 7.3.7 Fehlerdiskussion ... 195 7.3.8 Zusammenfassung des Reinigungsverhaltens ... 197 8 Vergleich Reinigungsverhalten und Hydrodynamik gravitationsgetriebener Flüssigkeitsfilme ... 198 8.1 Vorbemerkungen zum Vergleich ... 198 8.2 Einfluss Strömungsparameter auf das Reinigungsverhalten ... 198 8.2.1 Einfluss der Filmdicke und Filmdickenverteilung ... 198 8.2.2 Einfluss der Strömungsgeschwindigkeit ... 199 8.3 Einfluss abgeleiteter Größen auf das Reinigungsverhalten ... 201 8.3.1 Einfluss der Wandschubspannung ... 201 8.3.2 Einfluss der Grenzschichtdicke ... 202 8.4 Zusammenfassung des Vergleiches zwischen Reinigungsverhalten und Hydrodynamik ... 205 9 Optimierungsansatz: diskontinuierliche Flüssigkeitsfilme ... 207 10 Zusammenfassung und Ausblick ... 211 Literaturverzeichnis ... 214 Anhangverzeichnis ... 22

    Ein Petri-Netz-Tabellen-Modell zur Anwendung im klassischen und agilen Projektmanagement

    Get PDF
    Projektmanagement (PM) und Petri Netze (PN) haben als Gemeinsamkeit, dass Aktivitäten in Abhängigkeit von Ereignissen ausgeführt werden, welche dann selbst wieder Ereignisse erzeugen können. Wenn die Anwendungsdomäne PM und das Modellierungsmittel PN zusammentreffen, besteht die Möglichkeit Synergieeffekte entstehen zu lassen. Um ein Modell des agilen und klassischen PM in ein PN-Modell zu überführen, sind dazu beide Welten zur Modellierung und Simulation zu vereinen. Es existieren durchaus eine Reihe von Ansätzen auf diesem Gebiet, allerdings ohne Berücksichtigung wichtiger Teilaspekte, wie z. B. die der praktischen Anwendbarkeit. Die vorliegende Arbeit legt deshalb einen zyklischen Ablauf zugrunde, der mit strukturierten Tabellen beginnt. Diese kommen dem Vorgehen im praktischen PM entgegen, erreichen aber durch die Systematisierung die Überführbarkeit in das PN-Modell. Das PN-Modell legt eine Variante zugrunde, die aus der Sicht der Anwendungen verschiedene PN-Erweiterungen wie hierarchische, zeitbewertete oder gefärbte Netze unter Verwendung strukturierter Marken aufnimmt. Teilaufgaben werden in hierarchische PN-Konstrukte gekapselt, die anpassbar durch das innere PN, das Verhalten von Objekten des PM beschreiben. Typische Objekte wie Aktivitäten und Ressourcen sind durch Eigenschaften wie Atomarität, Wiederverwendbarkeit und Zeitverbrauch gekennzeichnet. Wechselwirkungen zwischen Konstrukten werden über PN-Elemente beschrieben. Der gesamte Projektplan wird dadurch aus Konstrukten und deren Beziehungen aufgestellt. Das PN bildet dabei die zentrale Ablauflogik. Die Umsetzung beruht darauf, die Dateneingabe von der Planung und den aktuellen Zwischenständen in der Tabellenstruktur vorzunehmen, und im Hintergrund automatisch das PN zu generieren bzw. zustandsabhängig zu verändern. Dafür wird in der Arbeit ein experimentelles Tool beschrieben. Dabei sollen anschließend die Ergebnisse durchgeführter Simulationen mit einem Standard-PN-Tool erneut in die bestehende Tabelle zurückgeführt werden. Diese grundlegenden Vorteile des PN-Konzeptes können so vollumfänglich ausgenutzt und für den Projektmanager auch ohne PN-Kenntnisse Verwendung finden. Dadurch wird die Methode dynamisch und ist für verschiedenste Projekte universell einsetzbar.Project Management (PM) and Petri Nets (PN) have in common that activities are carried out depending on events, which can generate events by themselves. The combination of the application domain PM (agile and traditional) and the modelling tool PN may result in advantageous synergy effects. In order to transform a model of PM into a powerful PN model, these two concepts must be merged for mapping and simulation. There are a number of approaches in this area, with no consideration of important aspects such as practical applicability. The present thesis is therefore based on a cyclic process, starting with structured tables. These are in line with the procedure of practical PM but achieve through systematization the transferability into the PN model. The PN model is based on a powerful model with suitable extensions and necessary interpretations from the field of hierarchical, time-valued or coloured high-level PNs using structured token. Subtasks are encapsulated in hierarchical PN constructs that describe the behavior of PM objects in an adaptable way through the inner PN. Typical objects such as activities and resources are characterized by properties such as atomicity, reusability and time consumption. Interactions between constructs are described by PN elements. The objects of modelling for the entire project plan are based on constructs with their relationships to each other, with the PN forming the single point of processing logic. The implementation is based on entering the data from the planning and the current, intermediate statuses into a fixed, defined table structure and to automatically generate the PN in the background or to change it depending on conditions. The paper describes an experimental tool for this purpose. Afterwards, simulations are to be carried out on the basis of the models, and their results are to be incorporated back into the table. The advantages of the PN concept can thus be fully exploited and can be used by the project manager without requiring special PN knowledge. The method is based on a dynamic consideration and can be used universally for a wide range of projects

    Testen von Datensicherheit in vernetzten und automatisierten Fahrzeugen durch virtuelle Steuergeräte

    Get PDF
    In der Automobilindustrie sind in den vergangenen Jahren die zwei Trends Automatisierung und Vernetzung entstanden. Diese Trends sorgen für eine steigende Anzahl an Funktionen im Fahrzeug. Neben einer Erhöhung des Komforts nehmen jedoch auch die Risiken durch den unerlaubten Zugriff von außen zu. Das IT-Manipulationen bei Fahrzeugen keine Ausnahme bilden, zeigen bereits erste Beispiele. Besonders durch die langen Lebenszyklen in der Automobilindustrie und der Tatsache, dass 44% aller Angriffe auf IT-Systeme durch bekannte Schwachstellen geschehen, müssen Fahrzeuge bereits in der Entwicklung abgesichert werden. Bezogen auf die funktionale Sicherheit (engl. Safety) existieren in der Automobilentwicklung bereits eine Vielzahl an Testprozessen und -methoden. Eine Übertragbarkeit dieser auf die Datensicherheit (engl. Security) ist jedoch nicht gegeben, wodurch neue Methoden am Entstehen sind. Daher wird eine Testmethode mittels virtuellen Steuergeräten vorstellt. Hierfür wird aufgezeigt, welche Beobachtungspunkte und Überwachungsfunktionen für die Tests der Datensicherheit gegeben sein müssen, wie sich daraus eine Testmethodik ableiten lässt und wie diese Testmethodik anschließend in die Automobilentwicklung eingebunden werden kann. Für die Testmethodik wurden die Bereiche Speicher-, Numerische-, Systematische-, Funktionale- und Anwendungsfehler identifiziert. Der Fokus wird dabei auf die ersten beiden Fehlerarten gelegt und daraus Kriterien für einen Test der Datensicherheit abgeleitet. Anhand der Kriterien werden Beobachtungspunkte in bestehenden Testsystemen analysiert und basierend auf einem virtuellen Steuergerät neue Beobachtungspunkte ergänzt. Hierbei werden nicht nur Schnittstellen des Steuergeräts berücksichtigt, sondern ebenfalls interne Zustände des steuernden Artefakts (ausgeführte Instruktionen, Variablen und Speicherbereiche) und des ausführenden Artefakts (Register, lokaler Busse und Recheneinheit). Eine Berücksichtigung der internen Zustände ist wichtig, da Speicherfehler und numerische Fehler nicht zwangsläufig an die Schnittstellen propagieren und dadurch in der Umwelt sichtbar sind. Anhand der Beobachtungspunkte in einem virtuellen Steuergerät wurde eine Gesamtsystemsimulation erstellt, die das Steuergerät mit Applikation, Prozessor und Peripherie simuliert. Eine Co-Simulation übernimmt die Erzeugung der Teststimuli. Durch die Beobachtungspunkte können Rückschlüsse auf das Verhalten und die Zustände innerhalb des Steuergeräts gezogen werden. Durch die zusätzlichen Beobachtungspunkte können Testmethoden wie Überwachung der Instruktionen und Register, Analyse der Eingaben, Markierung des genutzten Speichers und Analysemöglichkeiten der Codeabdeckung eingesetzt werden. Zusätzlich ergeben sich durch evolutionäre Verfahren die Möglichkeit der Maximierung des Variablen Wachstums und des Speicherzugriffs sowie die Minimierung des Abstands zwischen Heap und Stack. Um die Testmethoden in einem Entwicklungsprozess einsetzten zu können werden die Ergebnisse auf eine vernetzte Funktion (Adaptive Cruise Control) skaliert und das Echtzeitverhalten beurteilt. Für die Simulation eines einzelnen Steuergeräts können dabei bis zu 62 Steuergeräte parallel simuliert werden, bevor die Simulation auf der realen Hardware schneller als der Ablauf in der Simulation ist. Durch die Ergänzung von Überwachungsfunktionen und Co-Simulationen sinkt das Echtzeitverhältnis jedoch exponentiell. Abschließend wird die Testmethodik mit Angriffen aus der Automobilindustrie bewertet und aufgezeigt, welche Fehler erkannt worden wären. Die Testmethodik ist dabei jedoch nur so genau, wie die zugrundeliegenden Modelle. Eine Erhöhung der Genauigkeit bedeutet dabei höhere Kosten in der Entwicklung. Zudem muss der Quellcode für die Applikation als Source- oder Maschinencode bekannt sein. Wird die Testmethode als Ergänzung zu bereits bekannten Testverfahren eingesetzt, können jedoch Probleme in der Datensicherheit bereits der Entwicklung erkannt werden

    Heterodyne Laser-Interferometrie mittels phasengekoppelter Halbleiterlaser und Absorbanzmodulations-Nanoskopie für die Gigahertz-Schwingungsmesstechnik

    Get PDF
    Die heterodyne Interferometrie oder auch Laser-Doppler-Vibrometrie hat sich als kontaktlose, empfindliche und genaue Schwingungsmesstechnik für die Mikrosystemtechnik in Industrie und Forschung etabliert. Aufgrund aktueller Entwicklungen insbesondere in der Nachrichtentechnik besteht der Bedarf zur Messung mikroakustischer Schwingungen bis zu 6 GHz bei Subnanometer-Amplituden. Dabei stößt die konventionelle Gerätetechnik der Interferometrie im Hinblick auf das vorteilhafte Träger- oder Heterodynverfahren an ihre Grenzen. Für eine uneingeschränkte Messfähigkeit bis 6 GHz ist eine Gerätetechnik erforderlich, die Trägerfrequenzen von mindestens 6 GHz erzeugen kann. Die konventionelle Technik zur Trägererzeugung limitiert die Interferometer des Stands der Wissenschaft und eine Messfähigkeit wird nur auf Kosten der Immunität gegen Nichtlinearitäten und der Eindeutigkeit erreicht. Die uneingeschränkte Messfähigkeit eines Interferometers erfordert zudem eine ausreichende Ortsauflösung der Schwingformen auf dem Mikrosystem. Mit steigender Schwingungsfrequenz nimmt die akustische Wellenlänge ab, sodass der Messlaserstrahl mit einer Mikroskop-Optik fokussiert werden muss. Die Beugung limitiert dabei die minimale Größe des Laserfokus und damit die Ortsauflösung, was die Messfähigkeit eines Interferometers für Schwingungsfrequenzen im Gigahertz-Bereich ebenfalls einschränkt. In dieser Arbeit wurde die Trägererzeugung mittels phasengekoppelter Laser in einer optoelektronischen Phasenregelschleife theoretisch und experimentell untersucht, um eine Messfähigkeit von heterodynen Interferometern bei mechanischen Schwingungen bis zu 6 GHz zu erzielen. Zudem wurde die Steigerung der Ortsauflösung jenseits der Beugungsgrenze durch Absorbanzmodulations-Nanoskopie in Reflexion theoretisch analysiert. Anhand der systemtheoretischen Beschreibung der optoelektronischen Phasenregelschleife wurden Anforderungen an die Eigenschaften geeigneter Laser und der weiteren Komponenten formuliert. So muss die Regelbandbreite größer als die summierte Linienbreite der Laser sein. Als wichtige Eigenschaft des Interferometers wurde die erreichbare Schwingungsamplitudenauflösung in Abhängigkeit vom Interferometeraufbau, den phasengekoppelten Lasern und der Phasenregelschleife modelliert und numerische Simulationen durchgeführt. Es wurde gezeigt, dass der Einfluss des Phasenrauschens der phasengekoppelten Laser mit steigender Schwingungsfrequenz schwindet und daher andere Rauschbeiträge, wie beispielsweise das Schrotrauschen, die Schwingungsamplitudenauflösung limitieren können. Des Weiteren wurde der Einbruch des nutzbaren Trägers analytisch beschrieben, der durch den Verlust der gegenseitigen Kohärenz bei großen Pfaddifferenzen im Interferometeraufbau entsteht. Die theoretische Modellierung vereinfacht so eine zielgerichtete Auslegung der Trägererzeugung mittels phasengekoppelter Laser für die Interferometrie. Das theoretische, beugungsbegrenzte Ortsauflösungsvermögen eines Interferometers wurde anhand einer akustischen Oberflächenwellen hergeleitet. Es wurde gezeigt, dass die Größe des Lasermessflecks um mindestens den Faktor 8 geringer sein muss als die akustische Wellenlänge, damit die systematischen Messabweichungen vernachlässigbar bleiben. Für eine Ortsauflösung jenseits der Beugungsgrenze wurde die Absorbanzmodulations-Nanoskopie modelliert, die eine reversible, dynamische Nahfeldblende in einer Dünnschicht auf der Messoberfläche erzeugt. Das Simulationsmodell umfasst die Photokinetik, die mikroskopische Bildgebung und die Beugung an der dynamischen Nahfeldblende. Aus dem Modell wurden analytische Näherungen für eine einfache Auslegung eines Absorbanzmodulations-Nanoskops abgeleitet. Insbesondere wird eine Formel zur Steigerung der Ortsauflösung in Beziehung zu Systemparametern hergeleitet, die eine interessante Analogie zu der bekannten Auflösungsformel der STED-Mikroskopie aufweist. Eine Parameterstudie der numerischen Simulation zeigt das Potential einer Auflösungssteigerung auf 1/5 der Beugungsgrenze bei 100 nm Schichtdicke, wenn eine Konzentrationserhöhung oder eine Verbesserung der photophysikalischen Eigenschaften des Photochroms um einen Faktor 2 gegenüber dem Stand der Technik erzielt werden kann. Diese Studie bietet die Grundlage für die Dimensionierung und den experimentellen Nachweis des Potentials der Absorbanzmodulations-Nanoskopie in Reflexion. Es wurde der weitere Forschungsbedarf zur Anwendung in der Interferometrie diskutiert. Auf Basis der Erkenntnisse wurde ein heterodynes Laser-Doppler-Vibrometer-Mikroskop mit phasengekoppelten, monolithischen Halbleiterlasern im sichtbaren Spektralbereich ausgelegt und realisiert. Die Bandbreite der Datenerfassung limitiert die Messung auf Schwingungsfrequenzen bis 3 GHz. Die Erzeugung einer Trägerfrequenz wird durch den Photodetektor auf maximal 10 GHz begrenzt. Die Messfähigkeit des Experimentalaufbaus für Hochfrequenz-Mikrosysteme wurde anhand einer Messung auf einem Oberflächenwellen-Filter bei 315 MHz demonstriert. Die erreichte Amplitudenauflösung von ≤ 100 fm/ für Schwingungsfrequenzen > 1 GHz ist vom Intensitätsrauschen der Halbleiterlaser und vom thermischen Rauschen der Elektronik limitiert. Somit kann die Trägererzeugung mittels phasengekoppelter Halbleiterlaser die heterodyne Interferometrie zur Messung von Schwingungen bis über 6 GHz befähigen, wenn das Potential der Absorbanzmodulation zur Steigerung der Ortsauflösung ausgeschöpft wird.Heterodyne interferometry or laser-Doppler vibrometry has established itself as a contactless, sensitive and accurate vibration measurement technique for microsystems technology in industry and research. Due to current developments, especially in communications engineering, there is a demand for the measurement of microacoustic vibrations up to 6 GHz at subnanometer amplitudes. Here, the conventional techniques for interferometry reach their limits, especially with regard to the advantageous heterodyning technique. For absolute measurement capability up to 6 GHz, instrumentation is required that generates carrier frequencies of at least 6\,GHz. Conventional carrier generation limits the state of the research of interferometers and the measurement capability is only achieved at the sacrifice of immunity against non-linearities and unambiguity. The absolute measurement capability of an interferometer also requires sufficient spatial resolution of the vibration patterns on the microsystem. As the vibration frequency increases, the acoustic wavelength decreases, so that the measuring laser beam must be focused with microscope optics. Diffraction limits the minimum size of the laser focus and, thus, the spatial resolution, which also limits the measuring capability of interferometers for vibration frequencies in the gigahertz range. In this thesis, the heterodyning technique via frequency-offset-locked lasers in an optoelectronic phase-locked loop was investigated theoretically and experimentally in order to attain a measurement capability of heterodyne interferometers for mechanical vibrations up to 6 GHz. In addition, the improvement of spatial resolution beyond the diffraction limit by absorbance-modulation nanoscopy in reflection was theoretically analyzed. Based on the system-theoretical description of the optoelectronic phase-locked loop, requirements for the specifications of suitable lasers and the other loop components were derived. For example, the loop bandwidth must exceed the summed linewidth of the lasers. As an important property of the interferometer, the achievable vibration-amplitude resolution was modelled as a function of the interferometer design, the offset-locked lasers and the phase-locked loop and numerical simulations were conducted. It was shown that the influence of the phase noise of the offset-locked lasers decreases with increasing vibration frequency and therefore other noise contributions, such as shot noise, can limit the oscillation amplitude resolution. Furthermore, the collapse of the exploitable carrier, which is caused by the loss of mutual coherence for large path differences in the interferometer setup, was described analytically. The theoretical modeling thus simplifies a purposeful design of the carrier generation using offset-locked lasers for interferometry. The theoretical, diffraction-limited spatial resolution of an interferometer was derived from a surface acoustic wave. It was shown that the size of the laser measurement spot must be at least a factor of 8 smaller than the acoustic wavelength in order to keep the systematic measurement uncertainty negligible. For a spatial resolution beyond the diffraction limit, absorbance-modulation nanoscopy was modelled, which generates a reversible, dynamic near-field aperture in a thin film in contact with the measurement surface. The simulation model includes photokinetics, microscopic imaging and diffraction at the dynamic near-field aperture. Analytical approximations for a simple design of an absorbance-modulation nanoscope were derived from the model. In particular, a formula for improving the spatial resolution in relation to system parameters is derived, which has an interesting analogy to the known resolution formula of STED microscopy. A parameter study of the numerical simulation shows the potential of improving the spatial resolution to 1/5 of the diffraction limit at 100 nm layer thickness, if an increase in concentration or an improvement of the photophysical properties of the photochrome by a factor of 2 compared to the state of the art can be achieved. This study provides the basis for design and experimental proof of the potential of absorbance-modulation nanoscopy in reflection. The issues for further research regarding the application in interferometry were discussed. Based on the results, a heterodyne laser-Doppler-vibrometer microscope with offset-locked, monolithic semiconductor lasers in the visible spectrum was designed and realized. The bandwidth of the data-acquisition system limits the vibration measurement to frequencies up to 3 GHz. The generation of a carrier frequency is possible to more than 10 GHz only limited by the photodetector. The measurement capability of the experimental setup for RF microsystems was demonstrated by measurements on a surface-acoustic-wave filter at 315 MHz. The achieved vibration-amplitude resolution of ≤ 100 fm/ for oscillation frequencies > 1 GHz is limited by the intensity noise of the semiconductor lasers and the thermal noise of the electronics. Thus, heterodyning by means of offset-locked semiconductor lasers can enable heterodyne interferometry to measure oscillation up to more than 6 GHz, if the potential of absorbance-modulation to improve spatial resolution is exploited

    Ein Beitrag zur Potenzialanalyse von reifenfülldruckbasierten Fahrerassistenzsystemen

    Get PDF
    Bei der Wahl des optimalen Reifenfülldrucks besteht ein sehr großes Spannungsfeld zwischen sich gegenüberstehenden Komfort-, Sicherheits- und Umweltanforderungen. Eine intelligent geregelte Reifenfülldruckregelanlage (RDRA), die den Reifeninnendruck hochdynamisch und radselektiv in Abhängigkeit des Fahrzeug- und Fahrbahnzustands adaptiert, verspricht ein großes Potenzial zur Minimierung der Zielkonflikte. Im Rahmen dieser Forschungsarbeit wird eine Methodik zur Realisierung und Bewertung der Leistungsfähigkeit eines reifenfülldruckbasierten Fahrerassistenzsystems erarbeitet. Die Entwicklung eines Reifenmessanhängers sowie eines Corner-Modul-Prüfstands als mobile bzw. stationäre Prüfeinrichtung zur Charakterisierung von Reifeneigenschaften unter Real- bzw. Laborbedingungen sowie die Erarbeitung einer Mess- und Auswertemethode erlauben die Untersuchung des Kraftschlussverhaltens von Reifen. Neben der Bewertung verschiedener Einflussgrößen quantifizieren die analysierten Messergebnisse erstmals den Einfluss großer Reifenfülldruckvariationen auf das Umfangskraftverhalten von Pkw-Reifen. Da die Reifencharakteristiken, die im Labor auf Prüfstandstrommeln sowie auf realer Asphaltfahrbahn erfasst wurden, teilweise voneinander abweichen, wird eine Umrechnungsmethode erarbeitet, die den Fahrbahnkrümmungseinfluss berücksichtigt. Das Verfahren erlaubt es, Umfangskraftbeiwert-Schlupf-Kennlinien anhand von Reifenlatschmessungen zu skalieren. Schließlich wird die allgemeingültige Anwendbarkeit des Umrechnungsverfahrens sowie der Einfluss der Fahrbahnbeschaffenheit auf das bestimmte Kraftschlussverhalten diskutiert. Der Reifen ist das einzige Bindeglied zwischen dem Kraftfahrzeug und der Fahrbahn. Für numerische Analysen ist die Wahl geeigneter Reifenmodelle sowie die Gewährleistung geringer Approximationsfehler daher unabdingbar. Zur Abbildung des Reifenverhaltens werden die für Fahrdynamiksimulationen besonders relevanten Magic Formula-, HSRI- und Deur-Reifenmodelle für große Reifenfülldruckvariationen erweitert. Eine entwickelte Parametrisierungsmethode erlaubt es, die Koeffizienten der Modelle anhand der Messdaten zu identifizieren. Mit den im Rahmen der hier vorliegenden Forschungsarbeit eingeführten Modellerweiterungen wird erstmals die Möglichkeit geschaffen, mit den genannten Reifensimulationsmodellen große Reifenfülldruckvariationen zu berücksichtigen. Ein entwickeltes Gesamtfahrzeug-Co-Simulationsmodell zur numerischen Berechnung des Fahrdynamikverhaltens von Kraftfahrzeugen erlaubt, neben der Implementierung der erweiterten Reifenmodellgleichungen, die Integration eines parametrisierten Radschlupfregelsystems sowie einer erarbeiteten Reifenfülldruckregelanlage als MIL-Modelle. Der interdisziplinäre und ganzheitliche Simulationsansatz bietet erstmals die Möglichkeit, den Einfluss einer radselektiven, hochdynamischen Reifenfülldruckadaption auf die Fahrdynamik von Kraftfahrzeugen zu bewerten. Der Einfluss verschiedener Parametervariationen sowie die Analyse unterschiedlicher Regelphilosophien auf das im Fokus der Forschung stehende Bremswegverkürzungspotenzial wird dargestellt. Die Resultate erlauben die Schlussfolgerung, dass mithilfe einer gezielten Reifenfülldruckadaption der Bremsweg signifikant verringert werden kann. Schließlich werden die Komponenten einer Reifenfülldruckverstellanlage ausgelegt und, zusammen mit einer entwickelten Regelstrategie, in einem Demonstratorfahrzeug implementiert. Damit wird erstmals eine hochdynamische Reifenfülldruckregelanlage in einem Versuchsfahrzeug realisiert und die Möglichkeit geschaffen, das Potenzial einer intelligent geregelten, hochdynamischen Reifenfülldruckregelanlage als Fahrerassistenzsystem experimentell zu bewerten. Durch umfangreiche Fahrversuche auf einem Testgelände wird das Gesamtfahrzeug-Co-Simulationsmodell validiert. Ein Vergleich numerisch berechneter und experimentell analysierter Bremsweguntersuchungen erlaubt es, die Leistungsfähigkeit der erweiterten Reifenmodelle zur Simulation des Bremswegverkürzungspotenzials durch eine Reifeninnendruckadaption zu bewerten. Nicht zuletzt durch die Analyse des Kraftübertragungsverhaltens im Reifen-Fahrbahn-Kontakt mithilfe eines Radkraftsensors wird das Wirkprinzip eines reifenfülldruckbasierten Fahrerassistenzsystems nachgewiesen. Mit der vorliegenden Forschungsarbeit wird ein Beitrag zur simulativen und experimentellen Bewertung des Potenzials, insbesondere zur Bremswegverkürzung, eines reifenfülldruckbasierten Fahrerassistenzsystems geleistet.Since the tyre inflation pressure has a significant influence on comfort, safety and environmental behaviour, the choice of the optimal inflation pressure is always a conflict of aims. An intelligent controlled Tire Pressure Control System (TPCS), that adapts the inflation pressure highly dynamic and wheel-selective according to the vehicle and road conditions, promises a high potential to minimize this conflict of aims. With this work a methodology to realise and to evaluate the performance of a tyre inflation pressure based driver-assistance system was developed. The development of a Tyre Test Trailer and a Corner Module Test Rig as a mobile, respectively stationary, testing device to acquire tyre characteristics under real, respectively laboratory, conditions as well as the development of a measurement and evaluation method allow to investigate the traction characteristics of tyres. In addition to the evaluation of different influencing parameters, the analysed measurement results quantify the influence of large inflation pressure variations on tangential force behaviour of passenger car tyres for the first time. Since the tyre characteristics, acquired in the laboratory on the drums as well as on a real asphalt road, deviate occasionally, a conversion method to consider the track surface curvature was developed. The procedure allows to scale tangential force-slip-characteristics according to tyre footprint measurements. Eventually, the universal application of the conversion method and the influence of the track surface texture on the traction behaviour were discussed. The tyre is the single connection between the vehicle and the road. Consequently, the choice of appropriate tyre simulation models as well as the guarantee of small approximation errors are essential for numerical analyses. To describe the tyre behaviour, the for vehicle dynamics simulations especially relevant Magic Formula, HSRI and Deur tyre models were extended for large inflation pressure changes. A developed parametrisation method allows to identify the model coefficients by the measured data. With the introduced model extensions a possibility to consider large tyre inflation pressure changes is presented for the first time. A created complete vehicle co-simulation model to calculate the driving dynamics of vehicles allows, in addition to the implementation of the extended tyre model equations, the integration of a parametrised anti-lock braking system and a developed Tire Pressure Control System as MIL models. The interdisciplinary and integrated simulation approach offers initially the possibility to evaluate the influence of a wheelselective, highly dynamic inflation pressure adaptation on vehicle dynamics. The influence of different parameter variations as well as the analysis of different control strategies on the potential of increasing braking performance, which is a focus of this research work, were described. The results lead to the conclusion, that a specific adaptation of the tyre inflation pressure can reduce the stopping distance significantly. Subsequently, the components of a Tire Pressure Control System were designed and, together with a developed control strategy, implemented to a demonstrator vehicle. For the first time a test vehicle with a highly dynamic Tire Pressure Control System was realised. Thereby a facility was created to evaluate experimentally the potential of an intelligent controlled, highly dynamic Tire Pressure Control System. On the basis of comprehensive driving tests on a proving ground the complete vehicle co-simulation model was validated. A comparison of numerically calculated and experimentally determined braking manoeuvres allowed to evaluate the performance of the enhanced tyre models to simulate the potential to reduce the stopping distance by adapting the inflation pressure. Not least because of the analysis of the grip performance in the tyre-road-contact with a wheel force transducer, the operating principle of a tyre inflation pressure based driver-assistance system was proved. The presented work provides a substantial contribution to evaluate the potential of a tyre inflation pressure based driver-assistance system, especially for reducing the stopping distance.Bei der Wahl des optimalen Reifenfülldrucks besteht ein großes Spannungsfeld zwischen sich gegenüberstehenden Komfort-, Sicherheits- und Umweltanforderungen. Eine intelligent geregelte Reifenfülldruckregelanlage, die den Reifeninnendruck hochdynamisch und radselektiv in Abhängigkeit des Fahrzeug- und Fahrbahnzustands adaptiert, verspricht ein großes Potenzial zur Minimierung der Zielkonflikte. In dieser Forschungsarbeit wird eine Methodik zur Realisierung und Bewertung der Leistungsfähigkeit eines reifenfülldruckbasierten Fahrerassistenzsystems vorgestellt. Die Entwicklung von Prüfeinrichtungen sowie einer Mess- und Auswertemethode erlauben die Charakterisierung großer Reifenfülldruckvariationen auf das Umfangskraftverhalten von Pkw-Reifen. Zur Abbildung werden die Magic Formula-, HSRI - und Deur-Reifenmodelle erweitert und in ein entwickeltes Gesamtfahrzeug-Co-Simulationsmodell implementiert. Damit wird erstmals die Möglichkeit geschaffen, große Fülldruckvariationen zu berücksichtigen und deren Einfluss auf die Fahrdynamik von Kraftfahrzeugen zu bewerten. Die Integration einer hochdynamischen Reifenfülldruckregelanlage in einem Versuchsfahrzeug ermöglicht erstmalig eine experimentelle Analyse des Potenzials

    Gezielte Variation und Analyse des Fahrverhaltens von Kraftfahrzeugen mittels elektrischer Linearaktuatoren im Fahrwerksbereich

    Get PDF
    Die Arbeit beschreibt die Konzeption, die Entwicklung und den Einsatz verschiedener Werkzeuge zur gezielten Variation und Analyse des Fahrverhaltens von Kraftfahrzeugen. Eine zentrale Rolle spielen hierbei elektrische Linearaktuatoren, welche durch die virtuelle Veränderung der Spezifikationen von Fahrwerksbauteilen mittels der Generierung zusätzlicher Relativkräfte zwischen Rad und Karosserie das Bewegungsverhalten der Fahrzeugkarosserie gezielt verändern können

    Zuverlässigkeitsbewertung von vernetzten eingebetteten Systemen mittels Fehlereffektsimulation

    Get PDF
    Die Bedeutsamkeit von eingebetteten Systemen steigt kontinuierlich. Dies zeigt sich bereits anhand ihrer hohen Verbreitung. Neben der reinen Anzahl steigt zusätzlich die Komplexität der einzelnen Systeme. Dies resultiert nicht nur in einem steigenden Entwurfsaufwand, sondern betrifft zusätzlich den Analyseaufwand. Hierbei ist zu beachten, dass die Systeme vermehrt sicherheitsrelevante Aufgaben übernehmen. Ein anschauliches Beispiel stellen Systeme zur Fahrerassistenz bzw. Fahrzeugautomatisierung dar. Durch den rasanten Fortschritt in den letzten Jahren, wird erwartet, dass diese Systeme in den nächsten Jahren bereits hochautomatisiertes Fahren ermöglichen. Für solche Systeme bedeutet ein Ausfall bzw. falsch erbrachter Dienst schwerwiegende Folgen für die Umwelt und Personen im Umfeld. Eine Sicherheitsbewertung ist zwingend vorgeschrieben. Die hohe Vernetzung der einzelnen Systeme bedingt, dass eine isolierte Betrachtung nicht mehr ausreichend ist. Deshalb muss die Analyse neben der gestiegenen Komplexität der einzelnen Systeme zusätzlich die Interaktionen mit weiteren Systemen beachten. Aktuelle Standards empfehlen zur Sicherheitsbewertung häufig Verfahren wie Brainstorming, Fehlermöglichkeits- und Fehlereinflussanalysen oder Fehlerbaumanalysen. Der Erfolg dieser Verfahren ist meist sehr stark von den beteiligten Personen geprägt und fordert ein umfassendes Systemwissen. Die beteiligten Personen müssen die zuvor beschriebene erhöhte Komplexität und Vernetzung beachten und analysieren. Diese Arbeit stellt einen Ansatz zur Unterstützung der Sicherheitsbewertung vor. Ziel ist, das benötigte Systemwissen von den beteiligten Personen, auf ein Simulationsmodell zu übertragen. Der Anwender ermittelt anhand des Simulationsmodells die systemweiten Fehlereffekte. Die Analyse der Fehlerpropagierung bildet die Grundlage der traditionellen Sicherheitsanalysen. Da das Simulationsmodell die Systemkomplexität und die Systemabhängigkeiten beinhaltet, reduzieren sich die Anforderungen an die beteiligten Personen und folglich der Analyseaufwand. Um solch ein Vorgehen zu ermöglichen, wird eine Methode zur Fehlerinjektion in Simulationsmodelle vorgestellt. Hierbei ist vor allem die Unterstützung unterschiedlicher Abstraktionsgrade, insbesondere von sehr abstrakten System-Level-Modellen, wichtig. Des Weiteren wird ein Ansatz zur umfassenden Fehlerspezifikation vorgestellt. Der Ansatz ermöglicht die Spezifikation von Fehlerursachen auf unterschiedlichen Abstraktionsebenen sowie die automatisierte Einbringung der Fehler in die Simulation. Neben der Einbringung der Fehler bildet die Beobachtung und Analyse der Fehlereffekte weitere wichtige Aspekte. Eine modellbasierte Spezifikation rundet den Ansatz ab und vereinfacht die Integration in einen modellgetriebenen Entwurf

    Sliding-Mode-Lernverfahren für neuronale Netzwerke in adaptiven Regelungssystemen

    Get PDF
    Die vorliegende Arbeit stellt einen Beitrag zur Nutzung von Online-trainierten neuronalen Netzwerken in sicherheitskritischen Regelungssystemen dar. Indem der Trainingsfehler und dessen Ableitung durch die vorgestellten Verfahren in eine stabile Ruhelage gezwungen werden, ist es möglich das Konvergenzverhalten des Netzwerks gezielt zu beeinflussen. Als Resultat dessen, kann das oftmals als Black-Box empfundene Netzwerktraining gegenüber klassischen Methoden transparenter gestaltet werden. Grundlage der vorgestellten Lernverfahren ist die Übertragung ausgewählter Sliding- Mode-Control-Konzepte erster und zweiter Ordnung auf das Training neuronaler Netzwerke. Durch die Verwendung der diesen Ansätzen zu Grunde liegenden Stabilitätsbedingungen, kann für die dargestellten Trainingsverfahren eine dynamische Berechnung der Lernrate umgesetzt werden. Die auf dieseWeise realisierbare Überführung der Netzwerkzustände in den asymptotisch stabilen Gleitzustand wird anhand ausgewählter Trainingsbeispiele demonstriert und hinsichtlich des Konvergenzverhaltens in Abhängigkeit eingeführter Stabilitätsparameter untersucht. Anwendung im Kontext der adaptiven Regelung sicherheitskritischer Systeme finden die dargestellten Trainingsverfahren als Teil einer nichtlinearen dynamischen Inversionsregelung. Zur Darstellung der generischen Natur der entwickelten Verfahren werden dabei sowohl ein Flug- als auch ein Fahrzeugregler mit Erweiterung um neuronale Netzwerke umgesetzt und in nichtlinearen Simulationen untersucht. Dabei unterstreichen die Ergebnisse sowohl die im Vergleich zu etablierten Ansätzen erhöhte Konvergenzgeschwindigkeit, als auch die gestiegene Robustheit gegenüber Parameterunsicherheiten und Systemschäden. In besondereWeise kann die vereinfachte Anwendbarkeit von neuronalen Netzwerken mit Verwendung der entwickelten Lernverfahren, durch die direkte Übertragbarkeit der Trainingsparameter zwischen den beiden vorgestellten Regelungsanwendungen, gezeigt werden. Darüber hinaus demonstrieren praktische Fahrversuche die Relevanz von adaptiven Regelungssystemen für den Ausgleich auftretender Systemfehler. Dabei wird durch die Untersuchung des Sliding-Mode-Lernverfahrens sowie dem Vergleich des Inversionsreglers mit einem nicht lernfähigen Regelungskonzept der Vorteil von schnellen und robust trainierten neuronalen Netzwerken unterstrichen.The present thesis makes a contribution to the use of online-trained neural networks in safety critical control systems. By forcing the training error and its derivation into the stable point of origin, it is possible to directley influence the convergence behavior of the network. As a result, the network training often perceived as black box can be made more transparent compared to classical methods. The basis of the presented learning methods is the transfer of selected first and second order sliding mode control concepts to the training of neural networks. Through the use of the intrinsic stability conditions, a dynamic calculation of the learning rate can be implemented for the presented training methods. The transition of the network states into the asymptotically stable sliding mode is demonstrated by means of selected training examples and examined with respect to the convergence behavior as a function of the introduced stability parameters. Applied in the context of the adaptive control of safety-critical systems, the presented training methods become part of a non-linear dynamic inversion controller. To illustrate the generic nature of the developed methods, both a flight controller and a vehicle controller with extension of neural networks are implemented and tested in non-linear simulations. The results underline the increased speed of convergence as compared to established approaches as well as the increased robustness against parameter uncertainties and system failures. In particular, the simplified applicability of neural networks using the developed learning methods can be demonstrated. Due to the direct transferability of the training parameters between the two control applications presented, a time-consuming empirical determination of the learning rate can be avoided. In addition, practical driving tests demonstrate the relevance of adaptive control systems for the compensation of system errors. The advantage of fast and robustly trained neural networks is underlined by the study of the sliding mode learning method and the comparison of the inversion controller with a non-adaptive control concept
    corecore