93 research outputs found

    Geometrische und stochastische Modelle zur Optimierung der Leistungsfähigkeit des Strömungsmessverfahrens 3D-PTV

    Get PDF
    Die 3D Particle Tracking Velocimetry (3D PTV) ist eine Methode zur bildbasierten Bestimmung von Geschwindigkeitsfeldern in Gas- oder Flüssigkeitsströmungen. Dazu wird die Strömung mit Partikeln markiert und durch ein Mehrkamerasystem beobachtet. Das Ergebnis der Datenauswertung sind 3D Trajektorien einer großen Anzahl von Partikeln, die zur statistischen Analyse der Strömung genutzt werden können. In der vorliegenden Arbeit werden verschiedene neu entwickelte Modelle gezeigt, die das Einsatzspektrum vergrößern und die Leistungsfähigkeit der 3D PTV erhöhen. Wesentliche Neuerungen sind der Einsatz eines Spiegelsystems zur Generierung eines virtuellen Kamerasystems, die Modellierung von komplex parametrisierten Trennflächen der Mehrmedienphotogrammetrie, eine wahrscheinlichkeitsbasierte Trackingmethode sowie eine neuartige Methode zur tomographischen Rekonstruktion von Rastervolumendaten. Die neuen Modelle sind an drei realen Experimentieranlagen und mit synthetischen Daten getestet worden. Durch den Einsatz eines Strahlteilers vor dem Objektiv einer einzelnen Kamera und vier Umlenkspiegeln, positioniert im weiteren Strahlengang, werden vier virtuelle Kameras generiert. Diese Methode zeichnet sich vor allem durch die Wirtschaftlichkeit als auch durch die nicht notwendige Synchronisation aus. Vor allem für die Anwendung im Hochgeschwindigkeitsbereich sind diese beiden Faktoren entscheidend. Bei der Beobachtung von Phänomenen in Wasser kommt es an den Trennflächen verschiedener Medien zur optischen Brechung. Diese muss für die weitere Auswertung zwingend modelliert werden. Für komplexe Trennflächen sind einfache Ansätze über zusätzliche Korrekturterme nicht praktikabel. Der entwickelte Ansatz basiert auf der mehrfachen Brechung jedes einzelnen Bildstrahls. Dazu müssen die Trennflächenparameter und die Kameraorientierungen im selben Koordinatensystem bekannt sein. Zumeist wird die Mehrbildzuordnung von Partikeln durch die Verwendung von Kernlinien realisiert. Auf Grund von instabilen Kameraorientierungen oder bei einer sehr hohen Partikeldichte sind diese geometrischen Eigenschaften nicht mehr ausreichend, um die Mehrbildzuordnung zu lösen. Unter der Ausnutzung weiterer geometrischer, radiometrischer und physikalischer Eigenschaften kann die Bestimmung der 3D Trajektorien dennoch durchgeführt werden. Dabei werden durch die Analyse verschiedener Merkmale diejenigen ausgewählt, welche sich für die spatio-temporale Zuordnung eignen. Die 3D PTV beruht auf der Diskretisierung der Partikelabbildungen im Bildraum und der anschließenden Objektkoordinatenbestimmung. Eine rasterbasierte Betrachtungsweise stellt die tomographische Rekonstruktion des Volumens dar. Hierbei wird die Intensitätsverteilung wird im Volumen rekonstruiert. Die Bewegungsinformationen werden im Anschluss aus den Veränderungen aufeinander folgender 3D-Bilder bestimmt. Durch dieses Verfahren können Strömungen mit einer höheren Partikeldichte im Volumen analysiert werden. Das entwickelte Verfahren basiert auf der schichtweisen Entzerrung und Zusammensetzung der Kamerabilder. Die entwickelten Modelle und Ansätze sind an verschiedenen Versuchsanlagen erprobt worden. Diese unterschieden sich stark in der Größe (0,5 dm³ – 20 dm³ – 130 m³) und den vorherrschenden Strömungsgeschwindigkeiten (0,3 m/s – 7 m/s – 0,5 m/s).3D Particle Tracking Velocimetry (3D PTV) is an image based method for flow field determination. It is based on seeding a flow with tracer particles and recording the flow with a multi camera system. The results are 3D trajectories of a large number of particles for a statistical analysis of the flow. The thesis shows different novel models to increase the spectrum of applications and to optimize efficiency of 3D PTV. Central aspects are the use of the mirror system to generate a virtual multi camera system, the modelling of complex interfaces of multimedia photogrammetry, a probability based tracking method and a novel method for tomographic reconstruction of volume raster data. The improved models are tested in three real testing facilities and with synthetic data. Using a beam splitter in front of the camera lens and deflecting mirrors arranged in the optical path, a four headed virtual camera system can be generated. This method is characterised by its economic efficiency and by the fact that a synchronisation is not necessary. These facts are important especially when using high speed cameras. When observing phenomena in water, there will be refraction at the different interfaces. This has to be taken into account and modelled for each application. Approaches which use correction terms are not suitable to handle complex optical interfaces. The developed approach is based on a multiple refraction ray tracing with known interface parameters and camera orientations. Mostly the multi image matching of particles is performed using epipolar geometry. Caused by the not stable camera orientation or a very high particle density this geometric properties are not sufficient to solve the ambiguities. Using further geometrical radiometrical and physical properties of particles, the determination of the 3D trajectories can be performed. After the analysis of different properties those of them are chosen which are suitable for spatio-temporal matching. 3D PTV bases on the discretisation of particle images in image space and the following object coordinate determination. A raster based approach is the tomographic reconstruction of the volume. Here the light intensity distribution in the volume will be reconstructed. Afterwards the flow information is determined from the differences in successive 3D images. Using tomographic reconstruction techniques a higher particle density can be analysed. The developed approach bases on a slice by slice rectification of the camera images and on a following assembly of the volume. The developed models and approaches are tested at different testing facilities. These differ in size (0.5 dm³ – 20 dm³ – 130 m³) and flow velocities (0.3 m/s – 7 m/s – 0.5 m/s)

    Entwicklung von Methoden zur optischen 3D-Vermessung in Bewegung

    Get PDF
    Zur dreidimensionalen Vermessung makroskopischer Objekte eignen sich optische Techniken unter anderem aufgrund ihres berührungslosen und damit zerstörungsfreien und unveränderlichen Vorgehens für eine Vielzahl von Anwendungen, die von Archäologie über Medizintechnik bis hin zu Soll-Ist-Vergleichen in der Qualitätssicherung und dem sogenannten „Rapid-Prototyping“ reichen. Der stereoskopischen Erfassung geht grundsätzlich eine Projektion temporärer Musterverteilungen in die Messszene zur Bereitstellung der Ansichtenverknüpfung voraus, wobei die Basis präziser Oberflächenrekonstruktionen eine Vielzahl paarweise verschiedener Musterverteilungen ist. Dabei besteht insbesondere für die Abbildung dynamischer Prozesse ein Zielkonflikt mit dem zur Ansichtenverknüpfung benötigten Stillstand während der Mustersequenz. Existierende Ansätze zur Auflösung dieses Zielkonfliktes lassen sich einerseits in hardwareorientierte und auf Algorithmik basierte Ansätze andererseits untergliedern. Hardwareseitig kommen primär Hochgeschwindigkeitskomponenten zum Einsatz, die eine Reduktion der Relativbewegung zwischen Messobjekt und 3D-Sensor während der simultanen Musterprojektion und Bildaufnahme realisieren. Alternativ bietet sich algorithmisch unter der Akzeptanz von Genauigkeitseinbußen die Verkürzung der Mustersequenz an. Erstmalig wird mit der vorliegenden Arbeit ein Vorgehen zur Bewegungsdetektion mit anschließender -kompensation beschrieben, um Standardhardware im Zusammenhang mit den Vorteilen ausgedehnter Mustersequenzen nutzen zu können. Dabei erfolgt die Bewegungsschätzung im dreidimensionalen Raum und unterliegt keinen Einschränkungen hinsichtlich der Bewegungsgeschwindigkeit und der Anzahl verwendeter, paarweise verschiedener Projektionsmuster mit trigonometrischer Intensitätsverteilung. Zur Verifikation des anschließenden Vorgangs der 3D-Bewegungskompensation werden zahlreiche Untersuchungen an synthetischen Datensätzen wie auch Aufnahmen eines 3D-Tischdigitalisierers gezeigt

    Potenziale der Photogrammetrie bei der Vermessung von Verarbeitungsmaschinen

    Get PDF
    Um die Prozessstabilität in Verarbeitungsmaschinen auch bei hohen Ausbringungen bewerten und darauf aufbauend sicherstellen zu können ist eine geometrisch-kinematische Analyse des realen Verarbeitungsprozesses notwendig. Dazu wird im Beitrag ein optisches Hochgeschwindigkeits-Mehrkamera-Messsystem vorgestellt, mit dem auch schnelle Prozesse berührungslos analysiert werden können. Es wird gezeigt, wie durch die Zusammenführung von Bewegungsanalyse und Daten aus der Maschinensteuerung der Informationsgehalt und damit auch die Aussagefähigkeit von Messungen deutlich erhöht werden kann. Als Beispielprozess wird der intermittierende Transport kleinformatiger Stückgüter (z.B. Schokoladenriegel) gewählt

    Entwicklung und Anwendung eines Particle-Tracking-Velocimeters zur Untersuchung von groß-skaligen Strukturen in thermischer Konvektion

    Get PDF
    Entwicklung und Anwendung eines Particle-Tracking-Velocimeters zur Untersuchungvon groß-skaligen Strukturen in thermischer KonvektionIn der vorliegenden Dissertation wurde ein dreidimensionales Particle-Tracking-Velocimeter zur Messungvon Geschwindigkeitsfeldern und Aufnahme von einzelnen Trajektorien in Luft in sehr großenMessvolumina entwickelt und erfolgreich in turbulenter thermischer Konvektion angewendet. Im Fokusdieser Studie stand die Untersuchung der bisher wenig erforschten Strukturbildung in nat¨urlichenKonvektionsstr¨omungen. Das 3D-PTV-System besteht aus vier Kameras, zwei Blitzger¨aten und Bildverarbeitungssoftware.Als Tracer-Partikel wurden heliumgef¨ullte Seifenblasen und heliumgef¨ullte Latexballonseingesetzt. Die r¨aumliche Aufl¨osung und Genauigkeit des Systems wurden mittels einesTestk¨orpers mit bekannter Trajektorie gepr¨uft. Der erste Einsatz des PTV-Systems in einer Rayleigh-B´enard-Zelle mit einem Durchmesser 7,15 m und einer H¨ohe 3,58 m lieferte charakteristische Modender groß-skaligen Zirkulationsstr¨omung außerhalb der Grenzschichten. Aus den aufgenommenen einzelnenPartikel-Trajektorien lassen sich wichtige Daten ¨uber die Luftstr¨omung wie Geschwindigkeitszeitreihenund Wahrscheinlichkeitsdichtefunktion (PDF) der Geschwindigkeits- und Beschleunigungfluktuationengewinnen

    Development of an instrument for evaluation of interferograms

    Get PDF
    A system for the evaluation of interference patterns was evaluated. A picture analysis system based on a computer with a television digitizer was used for digitizing and processing interferograms

    Geometrische und stochastische Modelle für die integrierte Auswertung terrestrischer Laserscannerdaten und photogrammetrischer Bilddaten: Geometrische und stochastische Modelle für die integrierte Auswertung terrestrischer Laserscannerdaten und photogrammetrischer Bilddaten

    Get PDF
    Terrestrische Laserscanner finden seit einigen Jahren immer stärkere Anwendung in der Praxis und ersetzen bzw. ergänzen bisherige Messverfahren, oder es werden neue Anwendungsgebiete erschlossen. Werden die Daten eines terrestrischen Laserscanners mit photogrammetrischen Bilddaten kombiniert, ergeben sich viel versprechende Möglichkeiten, weil die Eigenschaften beider Datentypen als weitestgehend komplementär angesehen werden können: Terrestrische Laserscanner erzeugen schnell und zuverlässig dreidimensionale Repräsentationen von Objektoberflächen von einem einzigen Aufnahmestandpunkt aus, während sich zweidimensionale photogrammetrische Bilddaten durch eine sehr gute visuelle Qualität mit hohem Interpretationsgehalt und hoher lateraler Genauigkeit auszeichnen. Infolgedessen existieren bereits zahlreiche Ansätze, sowohl software- als auch hardwareseitig, in denen diese Kombination realisiert wird. Allerdings haben die Bildinformationen bisher meist nur ergänzenden Charakter, beispielsweise bei der Kolorierung von Punktwolken oder der Texturierung von aus Laserscannerdaten erzeugten Oberflächenmodellen. Die konsequente Nutzung der komplementären Eigenschaften beider Sensortypen bietet jedoch ein weitaus größeres Potenzial. Aus diesem Grund wurde im Rahmen dieser Arbeit eine Berechnungsmethode – die integrierte Bündelblockausgleichung – entwickelt, bei dem die aus terrestrischen Laserscannerdaten und photogrammetrischen Bilddaten abgeleiteten Beobachtungen diskreter Objektpunkte gleichberechtigt Verwendung finden können. Diese Vorgehensweise hat mehrere Vorteile: durch die Nutzung der individuellen Eigenschaften beider Datentypen unterstützen sie sich gegenseitig bei der Bestimmung von 3D-Objektkoordinaten, wodurch eine höhere Genauigkeit erreicht werden kann. Alle am Ausgleichungsprozess beteiligten Daten werden optimal zueinander referenziert und die verwendeten Aufnahmegeräte können simultan kalibriert werden. Wegen des (sphärischen) Gesichtsfeldes der meisten terrestrischen Laserscanner von 360° in horizontaler und bis zu 180° in vertikaler Richtung bietet sich die Kombination mit Rotationszeilen-Panoramakameras oder Kameras mit Fisheye-Objektiv an, weil diese im Vergleich zu zentralperspektiven Kameras deutlich größere Winkelbereiche in einer Aufnahme abbilden können. Grundlage für die gemeinsame Auswertung terrestrischer Laserscanner- und photogrammetrischer Bilddaten ist die strenge geometrische Modellierung der Aufnahmegeräte. Deshalb wurde für terrestrische Laserscanner und verschiedene Kameratypen ein geometrisches Modell, bestehend aus einem Grundmodell und Zusatzparametern zur Kompensation von Restsystematiken, entwickelt und verifiziert. Insbesondere bei der Entwicklung des geometrischen Modells für Laserscanner wurden verschiedene in der Literatur beschriebene Ansätze berücksichtigt. Dabei wurde auch auf von Theodoliten und Tachymetern bekannte Korrekturmodelle zurückgegriffen. Besondere Bedeutung innerhalb der gemeinsamen Auswertung hat die Festlegung des stochastischen Modells. Weil verschiedene Typen von Beobachtungen mit unterschiedlichen zugrunde liegenden geometrischen Modellen und unterschiedlichen stochastischen Eigenschaften gemeinsam ausgeglichen werden, muss den Daten ein entsprechendes Gewicht zugeordnet werden. Bei ungünstiger Gewichtung der Beobachtungen können die Ausgleichungsergebnisse negativ beeinflusst werden. Deshalb wurde die integrierte Bündelblockausgleichung um das Verfahren der Varianzkomponentenschätzung erweitert, mit dem optimale Beobachtungsgewichte automatisch bestimmt werden können. Erst dadurch wird es möglich, das Potenzial der Kombination terrestrischer Laserscanner- und photogrammetrischer Bilddaten vollständig auszuschöpfen. Zur Berechnung der integrierten Bündelblockausgleichung wurde eine Software entwickelt, mit der vielfältige Varianten der algorithmischen Kombination der Datentypen realisiert werden können. Es wurden zahlreiche Laserscannerdaten, Panoramabilddaten, Fisheye-Bilddaten und zentralperspektive Bilddaten in mehreren Testumgebungen aufgenommen und unter Anwendung der entwickelten Software prozessiert. Dabei wurden verschiedene Berechnungsvarianten detailliert analysiert und damit die Vorteile und Einschränkungen der vorgestellten Methode demonstriert. Ein Anwendungsbeispiel aus dem Bereich der Geologie veranschaulicht das Potenzial des Algorithmus in der Praxis.The use of terrestrial laser scanning has grown in popularity in recent years, and replaces and complements previous measuring methods, as well as opening new fields of application. If data from terrestrial laser scanners are combined with photogrammetric image data, this yields promising possibilities, as the properties of both types of data can be considered mainly complementary: terrestrial laser scanners produce fast and reliable three-dimensional representations of object surfaces from only one position, while two-dimensional photogrammetric image data are characterised by a high visual quality, ease of interpretation, and high lateral accuracy. Consequently there are numerous approaches existing, both hardware- and software-based, where this combination is realised. However, in most approaches, the image data are only used to add additional characteristics, such as colouring point clouds or texturing object surfaces generated from laser scanner data. A thorough exploitation of the complementary characteristics of both types of sensors provides much more potential. For this reason a calculation method – the integrated bundle adjustment – was developed within this thesis, where the observations of discrete object points derived from terrestrial laser scanner data and photogrammetric image data are utilised equally. This approach has several advantages: using the individual characteristics of both types of data they mutually strengthen each other in terms of 3D object coordinate determination, so that a higher accuracy can be achieved; all involved data sets are optimally co-registered; and each instrument is simultaneously calibrated. Due to the (spherical) field of view of most terrestrial laser scanners of 360° in the horizontal direction and up to 180° in the vertical direction, the integration with rotating line panoramic cameras or cameras with fisheye lenses is very appropriate, as they have a wider field of view compared to central perspective cameras. The basis for the combined processing of terrestrial laser scanner and photogrammetric image data is the strict geometric modelling of the recording instruments. Therefore geometric models, consisting of a basic model and additional parameters for the compensation of systematic errors, was developed and verified for terrestrial laser scanners and different types of cameras. Regarding the geometric laser scanner model, different approaches described in the literature were considered, as well as applying correction models known from theodolites and total stations. A particular consideration within the combined processing is the definition of the stochastic model. Since different types of observations with different underlying geometric models and different stochastic properties have to be adjusted simultaneously, adequate weights have to be assigned to the measurements. An unfavourable weighting can have a negative influence on the adjustment results. Therefore a variance component estimation procedure was implemented in the integrated bundle adjustment, which allows for an automatic determination of optimal observation weights. Hence, it becomes possible to exploit the potential of the combination of terrestrial laser scanner and photogrammetric image data completely. For the calculation of the integrated bundle adjustment, software was developed allowing various algorithmic configurations of the different data types to be applied. Numerous laser scanner, panoramic image, fisheye image and central perspective image data were recorded in different test fields and processed using the developed software. Several calculation alternatives were analysed, demonstrating the advantages and limitations of the presented method. An application example from the field of geology illustrates the potential of the algorithm in practice

    Optische 3D-Messtechnik : Präzise Gestaltvermessung mit einem erweiterten Streifenprojektionsverfahren

    Get PDF
    Die Streifenprojektion mit zeitlich kodierten Beleuchtungsmustern hat sich nach ihrer Erfindung - trotz vorhandener Schwächen - schnell neben den, seit Jahrzehnten ausgereiften, mechanischen Koordinaten-Messmaschinen in der 3D-Messtechnik etabliert. Diese Arbeit stellt einen Beitrag zu ihrer Konsolidierung dar. Zur Abschätzung der Leistungsfähigkeit werden die Genauigkeitsgrenzen eines Streifenprojektionssystems mit einem neuen Ansatz theoretisch erfasst. Es wird ein Verfahren zur präzisen Bestimmung der systematischen, räumlich hochfrequenten Fehler eines Streifenprojektionssystems beschrieben. Durch die genaue Bestimmung der systematischen Fehler wird ihre Korrektur mit Hilfe einer Umkehrfunktion möglich. Außerdem wird ein vereinfachtes radiometrisches Kalibrierverfahren vorgestellt, das mehr System-spezifische Phänomene als die herkömmlichen Methoden erfasst und dabei mit geringerem Aufwand umzusetzen ist. Basierend auf erprobten numerischen Methoden der Photogrammetrie wird ein geometrisches Kalibrierverfahren für eine hoch genaue Systemkalibrierung spezifiziert, das mit einem einfachen Kalibrierkörper und ohne den Einsatz einer Präzision-Positioniermechanik auskommt. Da die Robustheit jedes Messsystems eine wesentliche Komponente für seine Einsetzbarkeit ist, wird ein robuster Dekoder für kombinierte Gray-Kode-Phasenschiebe Systeme beschrieben, der auch mit schwierigen Objekt-Situationen zurecht kommt und für nicht dekodierte Punkte eine genaue Klassifizierung der Ausfall-Ursache angibt. Schließlich werden eine Implementierung dieser Techniken im Ganymed-System und einige ausgewählte Anwendungen beschrieben

    MODERN PHOTOGRAMMETRY IN CIVIL ENGINEERING - EXAMPLES FOR MONITORING AND EVALUATION

    Get PDF
    Monitoring und Bewertung sind Hauptaufgaben im Management bzw. der Revitalisierung von Bauwerken. Unterschiedliche Verfahren können bei der Akquisition der erforderlichen geometrischen Information, wie z. B. Größe oder Verformung eines Gebäudes, eingesetzt werden. Da das Potenzial der digitalen Fotografie kontinuierlich wächst, stellt die Industriephotogrammetrie heute eine bedeutende Alternative zu den klassischen Verfahren wie Dehnmessstreifen oder anderen taktilen Sensoren dar. Moderne Industriephotogrammetrie erfasst die Bilder mittels digitaler Systeme. Dies bedeutet, dass die Information digitaler Bilder mit Hilfe der digitalen Bildverarbeitung untersucht werden muss, um die Bildkoordinaten der Messpunkte zu erhalten. Eine der Aufgaben der Bildverarbeitung für photogrammetrische Zwecke besteht somit darin, den Mittelpunkt von kreisförmigen Marken zu lokalisieren. Die modernen Operatoren liefern Subpixelgenauigkeit für die Koordinaten des Punktes. Das optische Messverfahren der Industriephotogrammetrie erfordert hinsichtlich der Hardware in erster Linie hochauflösende digitale Kameras. Dabei lassen sich die Kameras in Videokameras, HighSpeed-Kameras, intelligente Kameras sowie so genannte Consumer und Professionelle Kameras unterscheiden. Die geometrische Auflösung digitaler HighEnd-Kameras liegt heute bei über 10 Megapixel. In punkto Datentransfer zum Rechner sind verschiedene Standards am Markt verfügbar, z. B. USB2.0, GigE-Vision, CameraLink oder Firewire. Die Wahl des Standards hängt immer von der spezifischen Aufgabenstellung ab, da keine der Techniken eine führende Position einnimmt. Die moderne Photogrammetrie bietet viele neue Möglichkeiten für das Monitoring und die Bewertung von Bauwerken. Sie kann ein-, zwei-, drei- oder vierdimensionale Informationen liefern, falls erforderlich auch in Echtzeit. Als berührungsloses Messverfahren ist der Einsatz der Photogrammetrie noch möglich, wenn die taktilen Sensoren z. B. aufgrund ihres Platzbedarfes nicht mehr eingesetzt werden können. Hochauflösende Videokameras erlauben es, selbst dynamische Untersuchungen mit großer Präzision durchzuführen

    Photogrammetrische Erfassung der Verformungs- und Rissentwicklung bei baumechanischen Untersuchungen

    Get PDF
    Verfahren der digitalen Nahbereichsphotogrammetrie ermöglichen eine dreidimensionale Erfassung von Objekten und stellen damit interessante Lösungsansätze für Messaufgaben im Bautechnischen Mess- und Versuchswesen dar. Ihr Einsatz bietet bei einer Vielzahl baumechanischer Untersuchungen die Voraussetzung für eine kontinuierliche, zeitsynchrone Objektoberflächenerfassung bei kurz- und langzeitigen Belastungsversuchen im Labor und in situ. Die daraus resultierenden Möglichkeiten der kontinuierlichen Erfassung von Verformungs-, Riss- und Schädigungsentwicklungen an Objektoberflächen stellen für viele experimentelle Untersuchungen im Bauingenieurwesen eine signifikante Qualitätssteigerung dar, die mit klassischen Messtechniken – wie z. B. Dehnmessstreifen oder induktiven Wegaufnehmern – nur bedingt bzw. nicht realisiert werden kann. Um das Potential der digitalen Nahbereichsphotogrammetrie zur kontinuierlichen Erfassung der Verformungs-, Riss- und Schädigungsentwicklung an Objektoberflächen bei baumechanischen Untersuchungen erfassen zu können, wurden – aufbauend auf den bekannten Grundlagen und Lösungsansätzen – systematische Untersuchungen durchgeführt. Diese bildeten den Ausgangspunkt für den Einsatz photogrammetrischer Verfahren bei experimentellen Untersuchungen in den verschiedenen Teildisziplinen des Bauingenieurwesens, z. B. im Holz-, Massiv-, Mauerwerks-, Stahl- und Straßenbau. Die photogrammetrisch zu erfassenden Versuchsobjekte – einschließlich ihrer Veränderungen bei den Belastungsversuchen – waren dabei u. a. kleinformatige Prüfkörper und Baukonstruktionen aus den verschiedensten Materialien bzw. Verbundmaterialien. Bei den anwendungsorientierten Untersuchungen musste beachtet werden, dass aufgrund der z. T. sehr heterogenen Anforderungen und der zahlreichen Möglichkeiten, die beim Einsatz photogrammetrischer Verfahren denkbar waren, die Notwendigkeit der Auswahl und ggf. einer Weiter- bzw. Neuentwicklung geeigneter Systeme, effizienter Verfahren und optimaler Auswertealgorithmen der digitalen Nahbereichsphotogrammetrie bestand. In diesem Zusammenhang wurde mit der systematischen Zusammenstellung und Untersuchung relevanter Einflussgrößen begonnen. Diese waren oftmals durch die jeweiligen photogrammetrischen Messprozesse und Messaufgaben beeinflusst. Die Ergebnisse machen deutlich, dass die digitale Nahbereichsphotogrammetrie ein flexibel anwendbares Werkzeug für die Erfassung der Verformungs-, Riss- und Schädigungsentwicklung bei baumechanischen Untersuchungen darstellt. Spezielle Messaufgaben stellen im Bautechnischen Mess- und Versuchswesen oftmals sehr hohe Anforderungen an die Messgenauigkeit, die Robustheit und das Messvolumen. Sie erfordern optimierte Verfahren und führten im Zusammenhang mit der vorliegenden Arbeit zu einer Reihe von Lösungen, wie beispielsweise der 2.5D-Objekterfassung auf Basis der Dynamischen Projektiven Transformation oder der Objekterfassung mittels Spiegelphotogrammetrie. Im Hinblick auf die Objektsignalisierung wurde eine intensitätsbasierte Messmarke entwickelt. Diese ermöglicht besonders bei sehr hochgenauen Deformations- bzw. Dehnungsmessungen ein großes Genauigkeitspotential im Sub-Pixelbereich, das im 1/100 eines Pixels liegt. In Bezug auf die photogrammetrischen Auswerteprozesse wurden optimierte Bildzuordnungsverfahren implementiert, die beispielsweise eine Punkteinmessung von bis zu 60.000 Punkten pro Sekunde ermöglichen und eine Grundlage für die flächenhafte Rissanalyse darstellen. In Bezug auf die qualitative und quantitative Risserfassung wurden verschiedene Verfahren entwickelt. Diese ermöglichen z. B. die lastabhängige Erfassung der Rissposition und -breite in Messprofilen. In einem Messbereich von 100 mm x 100 mm konnten beispielsweise Verformungen mit einer Genauigkeit bis 1 µm und Rissbreiten ab 3 µm erfasst werden. Im Zusammenhang mit den zahlreichen anwendungsbezogenen Untersuchungen entstanden immer wieder Fragen hinsichtlich der Faktoren, die einen Einfluss auf den photogrammetrischen Messprozess im Bautechnischen Mess- und Versuchswesen ausüben. Aufgrund der zahlreichen Einflussgrößen, die als Steuer- bzw. Störgrößen eine mögliche Wirkung auf bauspezifische photogrammetrische Messprozesse ausüben können, wurde im Rahmen der vorliegenden Arbeit mit deren systematischer Zusammenstellung relevanter Einflussgrößen begonnen. Die Relevanz einzelner Einflussgrößen konnte durch Untersuchungen bereits bestätigt werden. Um eine ganzheitliche Bewertung aller relevanten Einflussgrößen aufgabenabhängig vornehmen zu können, wurde ein spezieller Versuchsstand entwickelt. Dieser ermöglicht eine vollautomatisierte systematische Untersuchung bauspezifischer photogrammetrischer Messprozesse unter definierten Versuchsbedingungen und dient dem systematischen Einsatz photogrammetrischer Verfahren im Bautechnischen Mess- und Versuchswesen hinsichtlich der Absicherung bestehender Messaufgaben, kann aber auch zu weiteren neuen und optimierten Messprozessen führen.Methods of digital close range photogrammetry are a useful tool for the measurement of three-dimensional objects in civil engineering material testing. They are generally suitable for automatic measurements with chronological synchronism of object-surfaces during short and long time load tests in laboratories and in situ. The methods provide an opportunity for measuring deformations, cracks and damages at the object-surfaces during load tests in civil engineering material testing. These possibilities can present new results for a lot of applications in civil engineering material testing. Displacement and deformation measurements still rely on wire strain gauges or inductive displacement transducers. However, they are not suitable for a large number of measurement points or the detection of cracks during load tests. First of all, a number of systematic investigations was conducted. This was necessary to identify capable methods of the digital photogrammetry for the measuring of deformations, cracks and damages at object-surfaces during load tests in civil engineering material testing. These investigations laid the foundation for practical measurements during short and long time load tests of samples and constructions from different parts of the civil engineering (e.g. timber construction, solid structure, stell and road construction). The application-oriented research in civil engineering material testing demonstrates the wide range of demands on systems and methods of digital close range photogrammetry have to meet. Often the methods and systems of digital close range photogrammetry had to be modified or developed. In this context the systematic analysis of relevant determining factors was started.The results demonstrate that the methods and systems of digital close range photogrammetry are a suitable and flexible tool for the measurement of deformations, cracks and damages at the object-surfaces in civil engineering material testing. In addition, the special experiments in civil engineering material testing demonstrate the high requirements laid upon methods and systems of the digital closed range photogrammetry, for instance regarding with the measurement resolution/range and robustness processes. This was the motivation to optimize and to develop methods and systems for the special measurement tasks in civil engineering material testing, for instance a 2.5D measurement technique based on the Dynamic Projective Transformation (DPT) or the use of mirrors. Also a special measurement target was developed. This type of measurement target modifies intensities and is ideal for high deformation measurements (1/100 pixel). The large number of points in conjunction with area-based measurements require time-optimized methods for the analysis process. The modified and developed methods/programs enable fast analysis-processes, e.g. in conjunction with point-matching process 60.000 points per second.The developed crack-detection-methods allow area- and profile-based to analyze the load-dependent position and width of cracks, e.g. cracks > 3 µm (100 mm x 100 mm). A main target of this work was to compile all relevant determining factors regarding the application of the digital close range photogrammetry during load tests in civil engineering material testing. To a large extent, this target was reached. However, the compilation of all relevant determining factors requires a special experimental set-up. This experimental set-up was developed. In the future, it may enable the automatic research of all significant determining factors. The results can be used to qualify or optimize the established methods and processes. Also it's possible that the results generates new measurement processes

    Geometrische und stochastische Modelle zur Verarbeitung von 3D-Kameradaten am Beispiel menschlicher Bewegungsanalysen

    Get PDF
    Die dreidimensionale Erfassung der Form und Lage eines beliebigen Objekts durch die flexiblen Methoden und Verfahren der Photogrammetrie spielt für ein breites Spektrum technisch-industrieller und naturwissenschaftlicher Einsatzgebiete eine große Rolle. Die Anwendungsmöglichkeiten reichen von Messaufgaben im Automobil-, Maschinen- und Schiffbau über die Erstellung komplexer 3D-Modelle in Architektur, Archäologie und Denkmalpflege bis hin zu Bewegungsanalysen in Bereichen der Strömungsmesstechnik, Ballistik oder Medizin. In der Nahbereichsphotogrammetrie werden dabei verschiedene optische 3D-Messsysteme verwendet. Neben flächenhaften Halbleiterkameras im Einzel- oder Mehrbildverband kommen aktive Triangulationsverfahren zur Oberflächenmessung mit z.B. strukturiertem Licht oder Laserscanner-Systeme zum Einsatz. 3D-Kameras auf der Basis von Photomischdetektoren oder vergleichbaren Prinzipien erzeugen durch die Anwendung von Modulationstechniken zusätzlich zu einem Grauwertbild simultan ein Entfernungsbild. Als Einzelbildsensoren liefern sie ohne die Notwendigkeit einer stereoskopischen Zuordnung räumlich aufgelöste Oberflächendaten in Videorate. In der 3D-Bewegungsanalyse ergeben sich bezüglich der Komplexität und des Rechenaufwands erhebliche Erleichterungen. 3D-Kameras verbinden die Handlichkeit einer Digitalkamera mit dem Potential der dreidimensionalen Datenakquisition etablierter Oberflächenmesssysteme. Sie stellen trotz der noch vergleichsweise geringen räumlichen Auflösung als monosensorielles System zur Echtzeit-Tiefenbildakquisition eine interessante Alternative für Aufgabenstellungen der 3D-Bewegungsanalyse dar. Der Einsatz einer 3D-Kamera als Messinstrument verlangt die Modellierung von Abweichungen zum idealen Abbildungsmodell; die Verarbeitung der erzeugten 3D-Kameradaten bedingt die zielgerichtete Adaption, Weiter- und Neuentwicklung von Verfahren der Computer Vision und Photogrammetrie. Am Beispiel der Untersuchung des zwischenmenschlichen Bewegungsverhaltens sind folglich die Entwicklung von Verfahren zur Sensorkalibrierung und zur 3D-Bewegungsanalyse die Schwerpunkte der Dissertation. Eine 3D-Kamera stellt aufgrund ihres inhärenten Designs und Messprinzips gleichzeitig Amplituden- und Entfernungsinformationen zur Verfügung, welche aus einem Messsignal rekonstruiert werden. Die simultane Einbeziehung aller 3D-Kamerainformationen in jeweils einen integrierten Ansatz ist eine logische Konsequenz und steht im Vordergrund der Verfahrensentwicklungen. Zum einen stützen sich die komplementären Eigenschaften der Beobachtungen durch die Herstellung des funktionalen Zusammenhangs der Messkanäle gegenseitig, wodurch Genauigkeits- und Zuverlässigkeitssteigerungen zu erwarten sind. Zum anderen gewährleistet das um eine Varianzkomponentenschätzung erweiterte stochastische Modell eine vollständige Ausnutzung des heterogenen Informationshaushalts. Die entwickelte integrierte Bündelblockausgleichung ermöglicht die Bestimmung der exakten 3D-Kamerageometrie sowie die Schätzung der distanzmessspezifischen Korrekturparameter zur Modellierung linearer, zyklischer und signalwegeffektbedingter Fehleranteile einer 3D-Kamerastreckenmessung. Die integrierte Kalibrierroutine gleicht in beiden Informationskanälen gemessene Größen gemeinsam, unter der automatischen Schätzung optimaler Beobachtungsgewichte, aus. Die Methode basiert auf dem flexiblen Prinzip einer Selbstkalibrierung und benötigt keine Objektrauminformation, wodurch insbesondere die aufwendige Ermittlung von Referenzstrecken übergeordneter Genauigkeit entfällt. Die durchgeführten Genauigkeitsuntersuchungen bestätigen die Richtigkeit der aufgestellten funktionalen Zusammenhänge, zeigen aber auch Schwächen aufgrund noch nicht parametrisierter distanzmessspezifischer Fehler. Die Adaptivität und die modulare Implementierung des entwickelten mathematischen Modells gewährleisten aber eine zukünftige Erweiterung. Die Qualität der 3D-Neupunktkoordinaten kann nach einer Kalibrierung mit 5 mm angegeben werden. Für die durch eine Vielzahl von meist simultan auftretenden Rauschquellen beeinflusste Tiefenbildtechnologie ist diese Genauigkeitsangabe sehr vielversprechend, vor allem im Hinblick auf die Entwicklung von auf korrigierten 3D-Kameradaten aufbauenden Auswertealgorithmen. 2,5D Least Squares Tracking (LST) ist eine im Rahmen der Dissertation entwickelte integrierte spatiale und temporale Zuordnungsmethode zur Auswertung von 3D-Kamerabildsequenzen. Der Algorithmus basiert auf der in der Photogrammetrie bekannten Bildzuordnung nach der Methode der kleinsten Quadrate und bildet kleine Oberflächensegmente konsekutiver 3D-Kameradatensätze aufeinander ab. Die Abbildungsvorschrift wurde, aufbauend auf einer 2D-Affintransformation, an die Datenstruktur einer 3D-Kamera angepasst. Die geschlossen formulierte Parametrisierung verknüpft sowohl Grau- als auch Entfernungswerte in einem integrierten Modell. Neben den affinen Parametern zur Erfassung von Translations- und Rotationseffekten, modellieren die Maßstabs- sowie Neigungsparameter perspektivbedingte Größenänderungen des Bildausschnitts, verursacht durch Distanzänderungen in Aufnahmerichtung. Die Eingabedaten sind in einem Vorverarbeitungsschritt mit Hilfe der entwickelten Kalibrierroutine um ihre opto- und distanzmessspezifischen Fehler korrigiert sowie die gemessenen Schrägstrecken auf Horizontaldistanzen reduziert worden. 2,5D-LST liefert als integrierter Ansatz vollständige 3D-Verschiebungsvektoren. Weiterhin können die aus der Fehlerrechnung resultierenden Genauigkeits- und Zuverlässigkeitsangaben als Entscheidungskriterien für die Integration in einer anwendungsspezifischen Verarbeitungskette Verwendung finden. Die Validierung des Verfahrens zeigte, dass die Einführung komplementärer Informationen eine genauere und zuverlässigere Lösung des Korrespondenzproblems bringt, vor allem bei schwierigen Kontrastverhältnissen in einem Kanal. Die Genauigkeit der direkt mit den Distanzkorrekturtermen verknüpften Maßstabs- und Neigungsparameter verbesserte sich deutlich. Darüber hinaus brachte die Erweiterung des geometrischen Modells insbesondere bei der Zuordnung natürlicher, nicht gänzlich ebener Oberflächensegmente signifikante Vorteile. Die entwickelte flächenbasierte Methode zur Objektzuordnung und Objektverfolgung arbeitet auf der Grundlage berührungslos aufgenommener 3D-Kameradaten. Sie ist somit besonders für Aufgabenstellungen der 3D-Bewegungsanalyse geeignet, die den Mehraufwand einer multiokularen Experimentalanordnung und die Notwendigkeit einer Objektsignalisierung mit Zielmarken vermeiden möchten. Das Potential des 3D-Kamerazuordnungsansatzes wurde an zwei Anwendungsszenarien der menschlichen Verhaltensforschung demonstriert. 2,5D-LST kam zur Bestimmung der interpersonalen Distanz und Körperorientierung im erziehungswissenschaftlichen Untersuchungsgebiet der Konfliktregulation befreundeter Kindespaare ebenso zum Einsatz wie zur Markierung und anschließenden Klassifizierung von Bewegungseinheiten sprachbegleitender Handgesten. Die Implementierung von 2,5D-LST in die vorgeschlagenen Verfahren ermöglichte eine automatische, effektive, objektive sowie zeitlich und räumlich hochaufgelöste Erhebung und Auswertung verhaltensrelevanter Daten. Die vorliegende Dissertation schlägt die Verwendung einer neuartigen 3D-Tiefenbildkamera zur Erhebung menschlicher Verhaltensdaten vor. Sie präsentiert sowohl ein zur Datenaufbereitung entwickeltes Kalibrierwerkzeug als auch eine Methode zur berührungslosen Bestimmung dichter 3D-Bewegungsvektorfelder. Die Arbeit zeigt, dass die Methoden der Photogrammetrie auch für bewegungsanalytische Aufgabenstellungen auf dem bisher noch wenig erschlossenen Gebiet der Verhaltensforschung wertvolle Ergebnisse liefern können. Damit leistet sie einen Beitrag für die derzeitigen Bestrebungen in der automatisierten videographischen Erhebung von Körperbewegungen in dyadischen Interaktionen.The three-dimensional documentation of the form and location of any type of object using flexible photogrammetric methods and procedures plays a key role in a wide range of technical-industrial and scientific areas of application. Potential applications include measurement tasks in the automotive, machine building and ship building sectors, the compilation of complex 3D models in the fields of architecture, archaeology and monumental preservation and motion analyses in the fields of flow measurement technology, ballistics and medicine. In the case of close-range photogrammetry a variety of optical 3D measurement systems are used. Area sensor cameras arranged in single or multi-image configurations are used besides active triangulation procedures for surface measurement (e.g. using structured light or laser scanner systems). The use of modulation techniques enables 3D cameras based on photomix detectors or similar principles to simultaneously produce both a grey value image and a range image. Functioning as single image sensors, they deliver spatially resolved surface data at video rate without the need for stereoscopic image matching. In the case of 3D motion analyses in particular, this leads to considerable reductions in complexity and computing time. 3D cameras combine the practicality of a digital camera with the 3D data acquisition potential of conventional surface measurement systems. Despite the relatively low spatial resolution currently achievable, as a monosensory real-time depth image acquisition system they represent an interesting alternative in the field of 3D motion analysis. The use of 3D cameras as measuring instruments requires the modelling of deviations from the ideal projection model, and indeed the processing of the 3D camera data generated requires the targeted adaptation, development and further development of procedures in the fields of computer graphics and photogrammetry. This Ph.D. thesis therefore focuses on the development of methods of sensor calibration and 3D motion analysis in the context of investigations into inter-human motion behaviour. As a result of its intrinsic design and measurement principle, a 3D camera simultaneously provides amplitude and range data reconstructed from a measurement signal. The simultaneous integration of all data obtained using a 3D camera into an integrated approach is a logical consequence and represents the focus of current procedural development. On the one hand, the complementary characteristics of the observations made support each other due to the creation of a functional context for the measurement channels, with is to be expected to lead to increases in accuracy and reliability. On the other, the expansion of the stochastic model to include variance component estimation ensures that the heterogeneous information pool is fully exploited. The integrated bundle adjustment developed facilitates the definition of precise 3D camera geometry and the estimation of range-measurement-specific correction parameters required for the modelling of the linear, cyclical and latency defectives of a distance measurement made using a 3D camera. The integrated calibration routine jointly adjusts appropriate dimensions across both information channels, and also automatically estimates optimum observation weights. The method is based on the same flexible principle used in self-calibration, does not require spatial object data and therefore foregoes the time-consuming determination of reference distances with superior accuracy. The accuracy analyses carried out confirm the correctness of the proposed functional contexts, but nevertheless exhibit weaknesses in the form of non-parameterized range-measurement-specific errors. This notwithstanding, the future expansion of the mathematical model developed is guaranteed due to its adaptivity and modular implementation. The accuracy of a new 3D point coordinate can be set at 5 mm further to calibration. In the case of depth imaging technology – which is influenced by a range of usually simultaneously occurring noise sources – this level of accuracy is very promising, especially in terms of the development of evaluation algorithms based on corrected 3D camera data. 2.5D Least Squares Tracking (LST) is an integrated spatial and temporal matching method developed within the framework of this Ph.D. thesis for the purpose of evaluating 3D camera image sequences. The algorithm is based on the least squares image matching method already established in photogrammetry, and maps small surface segments of consecutive 3D camera data sets on top of one another. The mapping rule has been adapted to the data structure of a 3D camera on the basis of a 2D affine transformation. The closed parameterization combines both grey values and range values in an integrated model. In addition to the affine parameters used to include translation and rotation effects, the scale and inclination parameters model perspective-related deviations caused by distance changes in the line of sight. A pre-processing phase sees the calibration routine developed used to correct optical and distance-related measurement specific errors in input data and measured slope distances reduced to horizontal distances. 2.5D LST is an integrated approach, and therefore delivers fully three-dimensional displacement vectors. In addition, the accuracy and reliability data generated by error calculation can be used as decision criteria for integration into an application-specific processing chain. Process validation showed that the integration of complementary data leads to a more accurate, reliable solution to the correspondence problem, especially in the case of difficult contrast ratios within a channel. The accuracy of scale and inclination parameters directly linked to distance correction terms improved dramatically. In addition, the expansion of the geometric model led to significant benefits, and in particular for the matching of natural, not entirely planar surface segments. The area-based object matching and object tracking method developed functions on the basis of 3D camera data gathered without object contact. It is therefore particularly suited to 3D motion analysis tasks in which the extra effort involved in multi-ocular experimental settings and the necessity of object signalling using target marks are to be avoided. The potential of the 3D camera matching approach has been demonstrated in two application scenarios in the field of research into human behaviour. As in the case of the use of 2.5D LST to mark and then classify hand gestures accompanying verbal communication, the implementation of 2.5D LST in the proposed procedures for the determination of interpersonal distance and body orientation within the framework of pedagogical research into conflict regulation between pairs of child-age friends facilitates the automatic, effective, objective and high-resolution (from both a temporal and spatial perspective) acquisition and evaluation of data with relevance to behaviour. This Ph.D. thesis proposes the use of a novel 3D range imaging camera to gather data on human behaviour, and presents both a calibration tool developed for data processing purposes and a method for the contact-free determination of dense 3D motion vector fields. It therefore makes a contribution to current efforts in the field of the automated videographic documentation of bodily motion within the framework of dyadic interaction, and shows that photogrammetric methods can also deliver valuable results within the framework of motion evaluation tasks in the as-yet relatively untapped field of behavioural research
    corecore