9 research outputs found

    Entwicklung und Realisierung einer FPGA-Anwendung für ein LVDS-Kommunikationssystem mit DSP-Ankopplung

    Get PDF
    Seit 2002 wird fachgebietsübergreifend im Sonderforschungsbereich 622 "Nanopositionier- und Nanomessmaschinen" an der Technischen Universität Ilmenau gearbeitet. Ziel des von der Deutschen Forschungsgemeinschaft geförderten Bereichs ist die Erforschung und Erarbeitung von wissenschaftlich-technischen Grundlagen für deren Entwurf und die Realisierung. Dieses hochgenaue Positioniersystem soll durch ein Mehrprozessorsystem gesteuert werden. Aufgabe des Fachgebietes Rechnerarchitektur ist es, unterschiedliche Alternativen für die Realisierung zu finden und zu bewerten. Dabei stehen neben der Implementierung echtzeitfähiger Betriebssystem- und Applikationssoftware auch die Entwicklung von leistungsfähiger Hardware und Kommunikationsprotokollen im Vordergrund. Ziel dieser Arbeit ist es, das LVDS-basierte Kommunikationssystem eines Multi-DSP-Prototypen zu erweitern. Durch eine Brücke soll die Vermittlung zwischen DSP und Kommunikationsknoten bereitgestellt werden. Diese Brücke ermöglicht es dem DSP, Nachrichtenpakete im Kommunikationsring zu verschicken und zu empfangen. Zusätzlich soll der DSP mittels Interrupt über bestimmte Systemereignisse informiert werden. Die Entwicklung der Vermittlungsstelle wird modellbasiert durchgeführt. Durch das fortlaufende Überprüfen des Verhaltens während der Entwurfsphase können Fehler frühzeitig erkannt und beseitigt werden. Die realisierte Funktionalität wird anschließend unter Verwendung der Hardwarebeschreibungssprache VHDL auf die Logikbausteine der Kommunikationsknoten synthetisiert. Ein weiterer Aspekt dieser Arbeit ist die umfangreiche Simulation des bereits entwickelten Kommunikationsprotokolls. Durch entsprechende Testszenarien soll die korrekte Funktionalität der Kommunikationsknoten nachgewiesen werden.Ilmenau, Techn. Univ., Bachelor-Arbeit, 201

    Batteriesimulation mittels dynamischer Datenmodelle für die Entwicklung elektrischer Antriebe

    Get PDF
    Der rasante Wandel hin zur Elektromobilität verlangt nach immer kürzeren und effizienteren Entwicklungszyklen. Vielfach steht dabei der elektrische Energiespeicher mit seinen für das Antriebsverhalten relevanten Eigenschaften, wie dem Energieinhalt oder der Leistungsverfügbarkeit, im Fokus. Für die Automobilhersteller sind daher Batteriesimulationen - basierend auf Modellen des elektrischen Batterieverhaltens - ein wesentliches Werkzeug, um schnell und kostengünstig neue Antriebe zu entwickeln. Das dynamische Übertragungsverhalten von Lithium-Ionen Zellen wird im industriellen Kontext typischerweise über phänomenologische Modelle nachgebildet, die vorrangig auf Zellmessungen basieren. Die inhärenten Fehler der Zellmodelle werden bei einer Simulation des gesamten Batteriesystems noch durch unmodellierte Effekte wie die Kontaktierung der Zellen oder inhomogene Temperaturverteilungen ergänzt. Überraschenderweise werden gleichwohl die heute umfangreich erzeugten Batteriedaten kaum genutzt, um die Qualität dieser Simulationen zu erhöhen. Vor allem die herausfordernde Verarbeitung großer und heterogener Datenmengen aus dem regulären Betrieb einer Antriebsbatterie verhindert nach wie vor eine konsequente Nutzung. Daher lautet das Ziel dieser Arbeit, mit neuartigen datenbasierten Ansätzen die Simulationen von Antriebsbatterien noch realitätsnäher zu gestalten. Dies lässt sich dadurch erreichen, dass bestehende phänomenologische Modelle mit datenbasierten Modellen kombiniert werden. Es entstehen hybride Modelle, die die Vorteile aus beiden Welten der Modellierung, wie eine hohe Genauigkeit, Stabilität und Extrapolationsfähigkeit, vereinen. Im ersten Schritt wird daher das phänomenologische Modell in Bezug auf vorhandene Fahrzeugmessungen der Batterie bewertet und im Anschluss verschiedene Hybridstrukturen miteinander verglichen. Die Parallel-Hybridstruktur kompensiert dabei den bestehenden Simulationsfehler am erfolgreichsten. Um gleichzeitig auch eine hohe Robustheit des hybriden Modells zu gewährleisten, erfolgt eine situative Begrenzung des datenbasierten Modells. Hierfür wird die Extrapolation des Modells über eine One-Class Support Vector Machine erkannt. Insbesondere in den Randbereichen der Validierungsdaten lässt sich dadurch der Fehler des hybriden Batteriemodells um weitere 15% reduzieren. Ein Fokus während der Ermittlung des hybriden Batteriemodells liegt auf der Erzeugung einer raumfüllenden Untermenge der verfügbaren Daten. Es wird aufgezeigt, dass sich hierdurch der Trainingsaufwand und die Genauigkeit des datenbasierten Modells weiter optimieren lassen. Zuletzt wird in dieser Arbeit auch ein Vergleich zwischen zwei dynamischen neuronalen Netzen als datenbasiertes Modell durchgeführt. Beide Varianten reduzieren den bestehenden Modellfehler deutlich - um bis zu 46 %. Hinsichtlich der Zuverlässigkeit der Modellausgabe überzeugt jedoch vor allem das Gated-Recurrent-Unit. Die Qualität der Batteriesimulation wird anhand von zwei Anwendungsszenarien am Antriebsprüfstandbewertet. Dabei geht es zum einen um die Dauerlauferprobung und zum anderen um die Reichweitenbestimmung von elektrischen Antrieben. Der direkte Vergleich mit einer realen Antriebsbatterie erbringt den Nachweis, dass in beiden Anwendungsszenarien die Batteriespannung und selbst das Verhalten der elektrischen Antriebsachse wesentlich realistischer nachgestellt werden als mit dem bestehenden phänomenologischen Batteriemodell

    Zum Stand der differentiellen kinematischen GPS-Positionierung

    Get PDF
    GPS hat sich in den letzten 15 Jahren zu einem wichtigen Werkzeug für die kinematische Positionsbestimmung entwickelt. Über kurze Basislinien können häufig Genauigkeiten von ca. 1 cm erzielt werden (Standardabweichung), doch bedingt dies im Allgemeinen den Betrieb einer Referenzstation in der Nähe des sich bewegenden Nutzers (»Rover«), um die Fehlereinflüsse wirksam reduzieren zu können. Im Sinne der Wirtschaftlichkeit besteht eine Notwendigkeit, Referenzstationsnetze so grobmaschig anzuordnen, wie es unter Berücksichtigung der jeweiligen Genauigkeitsanforderungen noch möglich ist. Aktive Referenzstationsnetzwerke - wie sie beispielsweise in Deutschland zwischenzeitlich errichtet wurden - weisen Entfernungen von durchschnittlich ca. 50 km auf und nutzen ihre GPS-Daten zur Ableitung von ionosphärischen, troposphärischen sowie satellitenspezifischen Flächenkorrekturen. Dieses moderne Konzept kann bei verschiedenen wissenschaftlichen Anwendungen auf Grund mangelnder Voraussetzungen nicht zur Anwendung kommen. In dieser Arbeit wird deshalb an das konventionelle Basislinien-Konzept angeknüpft und versucht, auch über lange Entfernungen eine kinematische Positionierung hoher Genauigkeit durchzuführen. Neben einer Einführung in die Grundlagen und die Beschreibung des Fehlermodells wird demonstriert, dass im kinematischen Modus in der Tat exakte Punktbestimmungen über bis zu etwa 300 km möglich sind. Eine wesentliche Limitierung bei der angewandten Methode liegt in den für diese Zwecke zu schlechten Sichtbarkeitsverhältnissen der GPS-Satelliten. Eine höhere Zahl an sichtbaren Satelliten würde die Situation verbessern. Aus diesem Grunde geht die Arbeit abschließend auf die anstehenden Innovationen in der Satellitennavigation ein und stellt ihre Bedeutung für die kinematische Positionierung heraus.GPS has become a valuable means for kinematic positioning in the past 15 years. An accuracy of approximately 1 centimetre (standard deviation) can be reached over short baselines, but a reference station needs to be established in the vicinity of the roving antenna in order to appropriately reduce the acting error sources. Economic considerations, however, require that reference station networks are planned such that the spatial resolution is kept at a minimum while taking the required accuracy of the kinematic solution as a primary design parameter. Active reference station networks in Germany, for instance, have inter-station distances of about 50 kilometres in average. The stations’ data are used to derive ionospheric, tropospheric and satellitespecific area correction parameters. Unfortunately, this state-of-the-art methodology cannot be used in many scientific applications as it is failed to fulfil necessary pre-requisites. Consequently, the work depicted in this report aims to apply the conventional baseline concept to reach high accuracy in kinematic positioning even over long distances to the reference station(s). Apart from an introduction to the basics of kinematic GPS data analysis and the description of the underlying error model it will be demonstrated that precise coordinates can actually be retrieved over baselines as long as about 300 km in kinematic mode. A major limitation of this method lies in the fact that the current GPS visibility situation is relatively weak for this purpose, i.e. a larger number of visible satellites would significantly improve the situation. For this reason, this report concludes in outlining the innovations in satellite navigation which are about to become reality in the very near future and have an incisive impact on position estimation »on the move«

    Geometrische und stochastische Modelle zur Verarbeitung von 3D-Kameradaten am Beispiel menschlicher Bewegungsanalysen

    Get PDF
    Die dreidimensionale Erfassung der Form und Lage eines beliebigen Objekts durch die flexiblen Methoden und Verfahren der Photogrammetrie spielt für ein breites Spektrum technisch-industrieller und naturwissenschaftlicher Einsatzgebiete eine große Rolle. Die Anwendungsmöglichkeiten reichen von Messaufgaben im Automobil-, Maschinen- und Schiffbau über die Erstellung komplexer 3D-Modelle in Architektur, Archäologie und Denkmalpflege bis hin zu Bewegungsanalysen in Bereichen der Strömungsmesstechnik, Ballistik oder Medizin. In der Nahbereichsphotogrammetrie werden dabei verschiedene optische 3D-Messsysteme verwendet. Neben flächenhaften Halbleiterkameras im Einzel- oder Mehrbildverband kommen aktive Triangulationsverfahren zur Oberflächenmessung mit z.B. strukturiertem Licht oder Laserscanner-Systeme zum Einsatz. 3D-Kameras auf der Basis von Photomischdetektoren oder vergleichbaren Prinzipien erzeugen durch die Anwendung von Modulationstechniken zusätzlich zu einem Grauwertbild simultan ein Entfernungsbild. Als Einzelbildsensoren liefern sie ohne die Notwendigkeit einer stereoskopischen Zuordnung räumlich aufgelöste Oberflächendaten in Videorate. In der 3D-Bewegungsanalyse ergeben sich bezüglich der Komplexität und des Rechenaufwands erhebliche Erleichterungen. 3D-Kameras verbinden die Handlichkeit einer Digitalkamera mit dem Potential der dreidimensionalen Datenakquisition etablierter Oberflächenmesssysteme. Sie stellen trotz der noch vergleichsweise geringen räumlichen Auflösung als monosensorielles System zur Echtzeit-Tiefenbildakquisition eine interessante Alternative für Aufgabenstellungen der 3D-Bewegungsanalyse dar. Der Einsatz einer 3D-Kamera als Messinstrument verlangt die Modellierung von Abweichungen zum idealen Abbildungsmodell; die Verarbeitung der erzeugten 3D-Kameradaten bedingt die zielgerichtete Adaption, Weiter- und Neuentwicklung von Verfahren der Computer Vision und Photogrammetrie. Am Beispiel der Untersuchung des zwischenmenschlichen Bewegungsverhaltens sind folglich die Entwicklung von Verfahren zur Sensorkalibrierung und zur 3D-Bewegungsanalyse die Schwerpunkte der Dissertation. Eine 3D-Kamera stellt aufgrund ihres inhärenten Designs und Messprinzips gleichzeitig Amplituden- und Entfernungsinformationen zur Verfügung, welche aus einem Messsignal rekonstruiert werden. Die simultane Einbeziehung aller 3D-Kamerainformationen in jeweils einen integrierten Ansatz ist eine logische Konsequenz und steht im Vordergrund der Verfahrensentwicklungen. Zum einen stützen sich die komplementären Eigenschaften der Beobachtungen durch die Herstellung des funktionalen Zusammenhangs der Messkanäle gegenseitig, wodurch Genauigkeits- und Zuverlässigkeitssteigerungen zu erwarten sind. Zum anderen gewährleistet das um eine Varianzkomponentenschätzung erweiterte stochastische Modell eine vollständige Ausnutzung des heterogenen Informationshaushalts. Die entwickelte integrierte Bündelblockausgleichung ermöglicht die Bestimmung der exakten 3D-Kamerageometrie sowie die Schätzung der distanzmessspezifischen Korrekturparameter zur Modellierung linearer, zyklischer und signalwegeffektbedingter Fehleranteile einer 3D-Kamerastreckenmessung. Die integrierte Kalibrierroutine gleicht in beiden Informationskanälen gemessene Größen gemeinsam, unter der automatischen Schätzung optimaler Beobachtungsgewichte, aus. Die Methode basiert auf dem flexiblen Prinzip einer Selbstkalibrierung und benötigt keine Objektrauminformation, wodurch insbesondere die aufwendige Ermittlung von Referenzstrecken übergeordneter Genauigkeit entfällt. Die durchgeführten Genauigkeitsuntersuchungen bestätigen die Richtigkeit der aufgestellten funktionalen Zusammenhänge, zeigen aber auch Schwächen aufgrund noch nicht parametrisierter distanzmessspezifischer Fehler. Die Adaptivität und die modulare Implementierung des entwickelten mathematischen Modells gewährleisten aber eine zukünftige Erweiterung. Die Qualität der 3D-Neupunktkoordinaten kann nach einer Kalibrierung mit 5 mm angegeben werden. Für die durch eine Vielzahl von meist simultan auftretenden Rauschquellen beeinflusste Tiefenbildtechnologie ist diese Genauigkeitsangabe sehr vielversprechend, vor allem im Hinblick auf die Entwicklung von auf korrigierten 3D-Kameradaten aufbauenden Auswertealgorithmen. 2,5D Least Squares Tracking (LST) ist eine im Rahmen der Dissertation entwickelte integrierte spatiale und temporale Zuordnungsmethode zur Auswertung von 3D-Kamerabildsequenzen. Der Algorithmus basiert auf der in der Photogrammetrie bekannten Bildzuordnung nach der Methode der kleinsten Quadrate und bildet kleine Oberflächensegmente konsekutiver 3D-Kameradatensätze aufeinander ab. Die Abbildungsvorschrift wurde, aufbauend auf einer 2D-Affintransformation, an die Datenstruktur einer 3D-Kamera angepasst. Die geschlossen formulierte Parametrisierung verknüpft sowohl Grau- als auch Entfernungswerte in einem integrierten Modell. Neben den affinen Parametern zur Erfassung von Translations- und Rotationseffekten, modellieren die Maßstabs- sowie Neigungsparameter perspektivbedingte Größenänderungen des Bildausschnitts, verursacht durch Distanzänderungen in Aufnahmerichtung. Die Eingabedaten sind in einem Vorverarbeitungsschritt mit Hilfe der entwickelten Kalibrierroutine um ihre opto- und distanzmessspezifischen Fehler korrigiert sowie die gemessenen Schrägstrecken auf Horizontaldistanzen reduziert worden. 2,5D-LST liefert als integrierter Ansatz vollständige 3D-Verschiebungsvektoren. Weiterhin können die aus der Fehlerrechnung resultierenden Genauigkeits- und Zuverlässigkeitsangaben als Entscheidungskriterien für die Integration in einer anwendungsspezifischen Verarbeitungskette Verwendung finden. Die Validierung des Verfahrens zeigte, dass die Einführung komplementärer Informationen eine genauere und zuverlässigere Lösung des Korrespondenzproblems bringt, vor allem bei schwierigen Kontrastverhältnissen in einem Kanal. Die Genauigkeit der direkt mit den Distanzkorrekturtermen verknüpften Maßstabs- und Neigungsparameter verbesserte sich deutlich. Darüber hinaus brachte die Erweiterung des geometrischen Modells insbesondere bei der Zuordnung natürlicher, nicht gänzlich ebener Oberflächensegmente signifikante Vorteile. Die entwickelte flächenbasierte Methode zur Objektzuordnung und Objektverfolgung arbeitet auf der Grundlage berührungslos aufgenommener 3D-Kameradaten. Sie ist somit besonders für Aufgabenstellungen der 3D-Bewegungsanalyse geeignet, die den Mehraufwand einer multiokularen Experimentalanordnung und die Notwendigkeit einer Objektsignalisierung mit Zielmarken vermeiden möchten. Das Potential des 3D-Kamerazuordnungsansatzes wurde an zwei Anwendungsszenarien der menschlichen Verhaltensforschung demonstriert. 2,5D-LST kam zur Bestimmung der interpersonalen Distanz und Körperorientierung im erziehungswissenschaftlichen Untersuchungsgebiet der Konfliktregulation befreundeter Kindespaare ebenso zum Einsatz wie zur Markierung und anschließenden Klassifizierung von Bewegungseinheiten sprachbegleitender Handgesten. Die Implementierung von 2,5D-LST in die vorgeschlagenen Verfahren ermöglichte eine automatische, effektive, objektive sowie zeitlich und räumlich hochaufgelöste Erhebung und Auswertung verhaltensrelevanter Daten. Die vorliegende Dissertation schlägt die Verwendung einer neuartigen 3D-Tiefenbildkamera zur Erhebung menschlicher Verhaltensdaten vor. Sie präsentiert sowohl ein zur Datenaufbereitung entwickeltes Kalibrierwerkzeug als auch eine Methode zur berührungslosen Bestimmung dichter 3D-Bewegungsvektorfelder. Die Arbeit zeigt, dass die Methoden der Photogrammetrie auch für bewegungsanalytische Aufgabenstellungen auf dem bisher noch wenig erschlossenen Gebiet der Verhaltensforschung wertvolle Ergebnisse liefern können. Damit leistet sie einen Beitrag für die derzeitigen Bestrebungen in der automatisierten videographischen Erhebung von Körperbewegungen in dyadischen Interaktionen.The three-dimensional documentation of the form and location of any type of object using flexible photogrammetric methods and procedures plays a key role in a wide range of technical-industrial and scientific areas of application. Potential applications include measurement tasks in the automotive, machine building and ship building sectors, the compilation of complex 3D models in the fields of architecture, archaeology and monumental preservation and motion analyses in the fields of flow measurement technology, ballistics and medicine. In the case of close-range photogrammetry a variety of optical 3D measurement systems are used. Area sensor cameras arranged in single or multi-image configurations are used besides active triangulation procedures for surface measurement (e.g. using structured light or laser scanner systems). The use of modulation techniques enables 3D cameras based on photomix detectors or similar principles to simultaneously produce both a grey value image and a range image. Functioning as single image sensors, they deliver spatially resolved surface data at video rate without the need for stereoscopic image matching. In the case of 3D motion analyses in particular, this leads to considerable reductions in complexity and computing time. 3D cameras combine the practicality of a digital camera with the 3D data acquisition potential of conventional surface measurement systems. Despite the relatively low spatial resolution currently achievable, as a monosensory real-time depth image acquisition system they represent an interesting alternative in the field of 3D motion analysis. The use of 3D cameras as measuring instruments requires the modelling of deviations from the ideal projection model, and indeed the processing of the 3D camera data generated requires the targeted adaptation, development and further development of procedures in the fields of computer graphics and photogrammetry. This Ph.D. thesis therefore focuses on the development of methods of sensor calibration and 3D motion analysis in the context of investigations into inter-human motion behaviour. As a result of its intrinsic design and measurement principle, a 3D camera simultaneously provides amplitude and range data reconstructed from a measurement signal. The simultaneous integration of all data obtained using a 3D camera into an integrated approach is a logical consequence and represents the focus of current procedural development. On the one hand, the complementary characteristics of the observations made support each other due to the creation of a functional context for the measurement channels, with is to be expected to lead to increases in accuracy and reliability. On the other, the expansion of the stochastic model to include variance component estimation ensures that the heterogeneous information pool is fully exploited. The integrated bundle adjustment developed facilitates the definition of precise 3D camera geometry and the estimation of range-measurement-specific correction parameters required for the modelling of the linear, cyclical and latency defectives of a distance measurement made using a 3D camera. The integrated calibration routine jointly adjusts appropriate dimensions across both information channels, and also automatically estimates optimum observation weights. The method is based on the same flexible principle used in self-calibration, does not require spatial object data and therefore foregoes the time-consuming determination of reference distances with superior accuracy. The accuracy analyses carried out confirm the correctness of the proposed functional contexts, but nevertheless exhibit weaknesses in the form of non-parameterized range-measurement-specific errors. This notwithstanding, the future expansion of the mathematical model developed is guaranteed due to its adaptivity and modular implementation. The accuracy of a new 3D point coordinate can be set at 5 mm further to calibration. In the case of depth imaging technology – which is influenced by a range of usually simultaneously occurring noise sources – this level of accuracy is very promising, especially in terms of the development of evaluation algorithms based on corrected 3D camera data. 2.5D Least Squares Tracking (LST) is an integrated spatial and temporal matching method developed within the framework of this Ph.D. thesis for the purpose of evaluating 3D camera image sequences. The algorithm is based on the least squares image matching method already established in photogrammetry, and maps small surface segments of consecutive 3D camera data sets on top of one another. The mapping rule has been adapted to the data structure of a 3D camera on the basis of a 2D affine transformation. The closed parameterization combines both grey values and range values in an integrated model. In addition to the affine parameters used to include translation and rotation effects, the scale and inclination parameters model perspective-related deviations caused by distance changes in the line of sight. A pre-processing phase sees the calibration routine developed used to correct optical and distance-related measurement specific errors in input data and measured slope distances reduced to horizontal distances. 2.5D LST is an integrated approach, and therefore delivers fully three-dimensional displacement vectors. In addition, the accuracy and reliability data generated by error calculation can be used as decision criteria for integration into an application-specific processing chain. Process validation showed that the integration of complementary data leads to a more accurate, reliable solution to the correspondence problem, especially in the case of difficult contrast ratios within a channel. The accuracy of scale and inclination parameters directly linked to distance correction terms improved dramatically. In addition, the expansion of the geometric model led to significant benefits, and in particular for the matching of natural, not entirely planar surface segments. The area-based object matching and object tracking method developed functions on the basis of 3D camera data gathered without object contact. It is therefore particularly suited to 3D motion analysis tasks in which the extra effort involved in multi-ocular experimental settings and the necessity of object signalling using target marks are to be avoided. The potential of the 3D camera matching approach has been demonstrated in two application scenarios in the field of research into human behaviour. As in the case of the use of 2.5D LST to mark and then classify hand gestures accompanying verbal communication, the implementation of 2.5D LST in the proposed procedures for the determination of interpersonal distance and body orientation within the framework of pedagogical research into conflict regulation between pairs of child-age friends facilitates the automatic, effective, objective and high-resolution (from both a temporal and spatial perspective) acquisition and evaluation of data with relevance to behaviour. This Ph.D. thesis proposes the use of a novel 3D range imaging camera to gather data on human behaviour, and presents both a calibration tool developed for data processing purposes and a method for the contact-free determination of dense 3D motion vector fields. It therefore makes a contribution to current efforts in the field of the automated videographic documentation of bodily motion within the framework of dyadic interaction, and shows that photogrammetric methods can also deliver valuable results within the framework of motion evaluation tasks in the as-yet relatively untapped field of behavioural research

    Reverse Engineering Methoden zur Rekonstruktion von Genregulationsnetzwerken aus Genexpressionsdaten

    Get PDF
    Neue Technologien auf dem Gebiet der Molekularbiologie ermöglichen es, das Expressionsverhalten mehrerer tausend Gene gleichzeitig zu untersuchen. Einen wichtigen Ansatz zur Analyse der dabei gewonnenen Genexpressionsdaten bilden Reverse Engineering Methoden. Sie versuchen, regulatorische Interaktionen zwischen den Genen aufzudecken und mit der Rekonstruktion des zugrundeliegenden genetischen Netzwerks das komplexe Zusammenspiel der Gene zu verstehen. Das Ziel der vorliegenden Arbeit ist es, einen umfassenden Überblick über diesen Ansatz der Datenanalyse zu vermitteln. Der erste Teil der Arbeit betrachtet zunächst die theoretischen Aspekte der Reverse Engineering Methoden, um so dem Leser eine praktische Anwendung zu erleichtern und ihm beim Verständnis ausgewählter Ansätze zu helfen. So werden in diesem ersten, theoretischen Teil mögliche genetische Netzwerkmodelle vorgestellt, welche zur Beschreibung der Genexpressions- und Genregulationsprozesse dienen, und verschiedene Reverse Engineering Algorithmen detailliert beschrieben, die die Parameter eines Netzwerkmodells mit Hilfe der gegebenen Expressionsdaten bestimmen und damit festlegen, zwischen welchen Komponenten des Netzwerks regulatorische Einflüsse bestehen. Aufgrund der Begrenzung derzeit bereitstehender Expressionsdaten sowohl in Bezug auf den Datenumfang als auch bezüglich der experimentell verfügbaren Datentypen � in der Regel sind nur die mRNA-Konzentrationen gegeben, denn diese sind wesentlich einfacher und genauer zu messen als die Protein-Konzentrationen �, muß bei der Definition eines Netzwerkmodells stark von der biologischen Realität abstrahiert werden. Weitere theoretische Überlegungen betreffen die Integration von Vorwissen als eine wichtige Strategie zur Unterstützung der Rekonstruktion eines genetischen Netzwerks. Alle vorgestellten Reverse Engineering Algorithmen wurden implementiert und können im zweiten, praktischen Teil dieser Arbeit ausführlich getestet werden. Zunächst erfolgen die Untersuchungen auf Basis von Simulationsdaten. Sie liefern wichtige Einblicke in das grundlegende Verhalten der Algorithmen in Abhängigkeit von verschiedenen Eigenschaften des zu rekonstruierenden Netzwerks und der verfügbaren Daten. Ein Anwendungsbeispiel testet schließlich alle Reverse Engineering Methoden auch an realen Expressionsdaten. Es vermittelt so abschließend einen Eindruck davon, inwieweit die auf abstrakten Netzwerkmodellen basierenden Reverse Engineering Methoden die Identifizierung von regulatorischen Einflüssen aus derzeit verfügbaren Expressionsdaten überhaupt ermöglichen und verdeutlicht die Probleme bei der praktischen Anwendung der Methoden

    Neuronale Netze mit erweiterten bayesschen Methoden für reale Datensammlungen

    Get PDF
    Zu zahlreichen Problemen, die bei der Verarbeitung von realen Trainingsdaten durch neuronale Netze auftreten können, und die bisher in der Literatur nicht oder nicht ausreichend diskutiert wurden, werden Lösungen präsentiert. Alle diese Verfahren werden in einem Gesamtsystem zur Verarbeitung von Korrosionsdaten implementiert und empirisch validiert. Ausgang aller Konzepte und Algorithmen bilden neuronale Netze mit erweiterten bayesschen Methoden: sie verarbeiten Trainingsdaten mit individuellen Messfehlerangaben. Entsprechend können zu den Prognosen auch Prognosefehler in Form von Konfidenzen berechnet werden. Für die Implementierung wurden generalisierte lineare Netze verwendet. Sie ermöglichen einen sehr effizienten Trainingsalgorithmus, der neben den Gewichten auch die a priori Verteilung der Gewichte vollautomatisch bestimmt. Weiter wird eine Reihe von theoretischen Aussagen präsentiert, die für das Verständnis der erweiterten bayesschen Methoden wichtig sind, und die das Verhältnis zwischen Trainings- und Prognosefehlern, den Basisfunktionen und der Gewichtsregularisierung beschreiben. Die Kooperation von Netzen wird eingeführt, um zwei strukturelle Probleme der vorliegenden Korrosionsdatensammlung effektiv zu lösen. Da sich die Messstellen einerseits in einem sehr hochdimensionalen Raum befinden, sie aber andererseits in vergleichsweise wenigen Clustern angeordnet sind, werden jeweils inhaltlich zusammengehörige Trainingsdaten zu einzelnen Experten zusammengefasst. Außerdem werden Trainingsdaten, die in einem Parameter fehlende, also verteilte Werte aufweisen, in anderen Experten trainiert als Trainingsdaten mit konkreten Werten. Darüber hinaus beschleunigt die Kooperation sowohl das Training als auch die Prognose und verringert den benötigten Speicherplatz. Die Beziehung zwischen einem einzelnen Netz, das auf allen Daten trainiert wurde, und zwei kooperierenden Netzen, die zusammen auf den gleichen Daten trainiert wurden, wird analytisch und beispielhaft untersucht. Die Kooperation generalisiert dabei näherungsweise genauso gut wie ein einzelnes, universelles Netz. Die Korrosion ist überwiegend, aber nicht überall eine deterministische Funktion der Eingangsgrößen. Das vorgestellte Modell des regionalen Rauschens ist, wenn entsprechende Trainingsdaten zur Verfügung stehen, in der Lage, diejenigen Regionen im Eingaberaum zu erkennen, in denen Trainingsdaten, gemessen an ihren Messfehlerangaben, zueinander in Widerspruch stehen. Die Standardabweichung des inhärenten Rauschens wird dabei erkannt und bildet zusammen mit dem bayesschen Prognosefehler einen erweiterten Fehlerbalken der Prognose. Das in der Literatur üblicherweise verwendete Klassifikationsmodell, das die Eingangsgrößen als Zufallsvariablen in Abhängigkeit der zu trainierenden Klasse annimmt, ist auf die Korrosion nicht anwendbar. Daher wird ein alternatives Modell entwickelt, welches diese Abhängigkeit umkehrt. Es ermöglicht darüber hinaus eine Trennung der trainierten und der prognostizierten Klassen, sodass die Information, die in den Trainingsdaten enthalten ist, besser genutzt werden kann. Die Verarbeitung von Daten, die nicht ursprünglich zum Training von neuronalen Netzen zusammengestellt wurden, erfordert eine umfangreiche Vorverarbeitung. Dazu werden Methoden eines zweistufigen Verfahrens beschrieben, dessen zentrales Element das komplexe, benutzer- und problemorientierte konzeptionelle Datenschema ist. Bei der Abbildung der ursprünglichen Trainingsdaten in dieses Schema werden Spezifika der Datenbeschreibung abgebaut und so eine phänomenorientierte Beschreibung geleistet. In die weitere Abbildung auf die Netzein- und -ausgänge fließt analytisches Problemwissen ein, was dann zu erheblich verbesserten Generalisierungseigenschaften führt. Ein Überblick über den Leistungsumfang der entstandenen Software und empirische Auswertungen, die die Leistungsfähigkeit und die Korrektheit aller beschriebenen Modelle und Konzepte belegen, schließen die Arbeit ab

    Entwicklung von Methoden zum Entwurf einer robusten Anti-Rupf-Regelung am Beispiel von Fahrzeugen mit trocken laufender Doppelkupplung

    Get PDF
    Die vorliegende Forschungsarbeit befasst sich mit der Entwicklung einer robusten Regelung zur aktiven Dämpfung von Antriebsstrangschwingungen in der Schlupfphase der Kupplung zur Verbesserung des Fahrkomforts speziell für Antriebsstränge mit trocken laufender Doppelkupplung. Ziel ist insbesondere die Entwicklung zielführender und effizienter Methoden, die die Entwicklung geeigneter Schwingungsdämpfungskonzepte durch aktive Momentenmodulation unterstützen. Die behandelte Problemstellung resultiert aus den wachsenden Anforderungen an Emissionsreduktion, dem damit einhergehenden Bestreben nach Verringerung der systeminhärenten Dämpfung und Verstärkter Anwendung von Leichtbaumethoden im Antriebsstrang bei gleichzeitiger Optimierung des Fahrkomforts speziell von Doppelkupplungsgetrieben. Dieser Zielkonflikt der Entwicklung von Antriebsstrangkomponenten soll durch geeignete hard- oder softwarebasierte Ansätze zur Schwingungsdämpfung nach Möglichkeit aufgelöst werden. Bisherige Ansätze zu einer solchen Lösung sind im Hinblick auf rein mechanische Lösungen entweder nicht ausreichend effektiv oder zu komplex, wogegen die effizienteren softwarebasierten Lösungen oft störanfällig, in ihrer Wirkung limitiert oder nicht in ausreichender Breite erprobt sind. Somit ergibt sich für die vorliegende wissenschaftliche Arbeit als Ziel, ein regelungstechnisches Konzept zur effizienten und insbesondere robusten Dämpfung zu finden, welches sich ebenfalls in die bestehende Getriebesteuerungssoftware integrieren lässt. Darüber hinaus werden Methoden zur Validierung dieses software-basierten Ansatzes besonders im Hinblick auf die unsicheren Systemeigenschaften generiert. Dabei stützt sich die Arbeit auf die Anwendung einer Methode zur effizienten Systemidentifikation durch Verwendung von pseudozufälligen Signalen in Simulation und Fahrzeug, einer damit entwickelten detaillierten Systemmodellierung und -simulation sowie einer so entwickelten integrierten Validierungsmethode die durch realitätsnahe Reproduktion der Phänomene eine zielgerichtete Entwicklungsarbeit ermöglicht. Mithilfe dieser Methoden wird einer aus mehreren betrachteten Ansätzen zur robusten Regelung ausgewählter Ansatz zur H-Infinity-Regelung im Zeitbereich unter Verwendung von integralen quadratischen Zwangsbedingungen (IQC) sowie der s-Prozedur entwickelt und geprüft. Damit stellt diese Arbeit den ersten Ansatz zum Entwurf einer in diesem Sinne robusten Anti-Rupf-Regelung sowie die erste bekannte praktische Anwendung des gewählten regelungstechnischen Ansatzes dar. Weitere Ergebnisse sind eine detaillierte Systembetrachtung in Form eines Zustandsraum- und Simulationsmodells sowie eine in diesem Anwendungsbereich neue Methode zur Systemidentifikation
    corecore