94 research outputs found

    Analyse von Laserscannerdaten mit digitalen Bildverarbeitungsmethoden

    Get PDF
    Das Laserscanning stellt ein leistungsfähiges Verfahren zur topographischen Geländeerfassung bzw. zur Herstellung aktueller Digitaler Höhenmodelle (DHM) dar. Die Beschäftigung mit dem Laserscanning hat im wesentlichen folgende Zielsetzungen: Zum einen soll für Wald- und Küstengebiete, in denen photogrammetrische Geländeaufnahmen schwierig oder nicht möglich sind, eine unmittelbare Erfassung der Geländeoberfläche ermöglicht werden. Zum anderen läßt sich bei diesem weitestgehend automatisierten Meßverfahren mit einer vollständig digitalen Auswertung der Meßdaten eine schnelle Lösung mit geringem Personalaufwand erzielen. Insbesondere die steigende Nachfrage nach aktuellen Digitalen Höhenmodellen erfordert Aufnahmeverfahren, die die notwendigen Höhenpunkte mit hinreichender Genauigkeit auch für große Flächen und für schwierige Waldgebiete in angemessener Zeit liefern können. Die mit Flugzeuglaserscannern gewonnenen Daten stellen zunächst unstrukturierte und unregelmäßig verteilte Punkthaufen dar, die einer intensiven Nachbearbeitung bedürfen. Zur Nachbearbeitung von Laserpunkten ergibt sich als erste Aufgabe eine Separation der gewünschten Laserpunkte auf der Geländeoberfläche (Bodenpunkte) von den nicht verwertbaren Punkten (Nichtbodenpunkte). Eine weitere Aufgabe ist die Extraktion von Strukturlinien aus Laserscannerdaten bzw. aus allgemeinen DHM-Daten. Beim Erkennen und Trennen der Bodenpunkte von den für den DHM-Aufbau nicht relevanten Punkten werden Verfahren untersucht, die auf mathematischer Morphologie und robuster Parameterschätzung basieren. Mit der Einführung der morphologischen Operation wird die Geländeoberfläche näherungsweise geschätzt. Dadurch werden dann Bodenpunkt- und Nichtbodenpunkthypothesen gebildet. Die anschließende Aufgabe besteht in der Modellierung der Geländeoberfläche und Hypothesentests. Dabei werden robuste Schätzmodelle entwickelt und untersucht. Die verwendeten Modelle werden in verschiedenen Testgebieten mit zahlreichen Abbildungen verifiziert. Das hier entwickelte Verfahren zur Extraktion von Strukturlinien basiert auf dem Canny-Operator der Bildverarbeitungsmethoden und auf Krümmungstheorie. Das entwickelte und realisierte Verfahren besitzt hohe Erweiterbarkeit und Übertragbarkeit. Es erlaubt auf einfache Weise Erweiterungen für andere Anwendungsgebiete. Dies wird anhand von zahlreichen Beispielen und Abbildungen dargestellt. Die Genauigkeit der Extraktion von Strukturlinien wird durch die Bestimmung der Subpixelposition gesteigert. Insgesamt zeigt die Arbeit zur Extraktion von Strukturlinien, dass durch die Einführung von digitalen Bildverarbeitungsmethoden in vielen Anwendungsgebieten gute Ergebnisse erzielt werden können, ohne objektspezifisches Wissen einsetzen zu müssen. Die Arbeiten könnten durch eine Optimierung der Algorithmen und Programme sowie in einer kompletten Implementierung unter UNIX oder WINDOWS erweitert werden. Eine weitere Aufgabe besteht in der Integration von Wissen, beispielsweise von Fernerkundungdaten oder Informationen der topographischen Karte.Laserscanning is a sophisticated method for topographic mapping. It serves for the generation of digital elevation models (DEM). The following issues are of main interest for the scientific investigation of laserscanning: a) topographic immediate survey of ground in areas where photogrammetric methods fail or are difficult and not possible (e.g. coastal areas and forests) and b) implementation of a processing chain for the raw data which is automatic to a large extent. As a response to the increasing demand for DEM it is anticipated to provide final products in a short time with low personal costs and with a sufficient accuracy even for large areas. Airborne laser scanner raw data are unstructured and irregular points which need intensive post processing. The first step is the separation of valuable points which lie on the ground surface (ground points) from outlyers which are located above it (non-ground points). Another task is the extraction of structure lines from laser scanner or other DEM data. Methods, based on mathematical morphology and robust parameter estimation, are explored for the detection of ground points and for the separation of ground points from non-ground points. For a first approximation the shape of the surface is estimated with the help of a morphological operator. As a result it is possible to postulate hypotheses for ground points and non-ground points. The following task is the modeling of the ground surface and hypothesis tests. Models, based on robust parameter estimation, are developed and studied. The developed models are verified in relation with different test areas. The presented and developed method for the extraction of structure lines bases on the Canny-Operator and on the differential geometry of curves. This operator was initially developed for image processing and is now used in a new context. The developed and implemented methodology is open for further extension and compatibility. It is hence possible to use it in other fields of application. The accuracy of the extraction of structure lines increases due to the determination of sub-pixel positions. The presented work shows that image processing methods yield good results for the extraction of structure lines without the need of specific knowledge of objects. Future work could focus on the optimization of algorithms and programs and on a complete implementation with UNIX or Windows. Another task would be the integration of external knowledge, e.g. from remote sensing or topographic maps

    Modellbasierte Objekterkennung mittels Neuronaler Netze unter Verwendung textureller Merkmale

    Get PDF

    Digitale Bildsignalverarbeitung : Grundlagen, Verfahren, Beispiele

    Get PDF
    Mit dem vorliegenden Buch soll eine Einführung in die digitale Bildverarbeitung gegeben werden. Hierbei werden gemäß der allgemeinen Themenstellung der vorliegenden Buchreihe insbesondere die signalorientierten Aspekte der Bildverarbeitung in den Vordergrund gestellt. Den besonderen Reiz der Bildverarbeitung sehe ich in dem interessanten Zusammenwirken von intuitiven und theoretischen Lösungsansätzen, die jeweils durch ”anschauliche” Experimente evaluierbar sind. Entsprechend wird in der vorliegenden Darstellung versucht, insbesondere anhand von zahlreichen Simulationsbeispielen ein Verständnis dieses jungen, an Bedeutung zunehmenden Gebietes beim Leser zu erreichen. Zum Verständnis des Buches sind außer Kenntnissen der Mathematik, wie sie etwa in ingenieurswissenschaftlichen Studiengängen vermittelt werden, Grundkenntnisse der linearen Systemtheorie bzw. Signalverarbeitung und Grundkenntnisse der Wahrscheinlichkeitsrechnung vorteilhaft

    Marker Detection in a Scene

    Get PDF
    In dieser Arbeit wird ein Detektionsverfahren vorgestellt, das einfarbige, kreisförmige Objekte in einem digitalen Bild erkennt. Die Methode umfasst eine Farbsegmentierung, eine Berechnung des Distanzmaßes und eine Überprüfung der Form. Der Algorithmus ist in der Programmiersprache Java als Plugin für die Bildverarbeitungssoftware ImageJ geschrieben.This thesis provides a method to detect monochromatic circular-shaped objects in a digital image. The method consists of a color segmentation, a distance map calculation and a shape check. The algorithm is written in the programming language Java and runs as a plugin for the image processing software ImageJ

    Untersuchungen zur Anwendung von mehrdimensionalen Korrelationsverfahren bei der Determination von Kanten mit hochauflösenden optischen Messmaschinen

    Get PDF
    Diese Arbeit untersucht, wie durch mikroskopische Bildserien mit unterschiedlichen Fokuspositionen Objekte sicherer lokalisiert oder charakterisiert werden können. Das vorgeschlagene Verfahren der extrafokalen Korrelation wird ausführlich in Simulationen und Experimenten an Kantenobjekten diskutiert. Abschließend erfolgt ein Ausblick für die Anwendung bei komplexeren Objekten. Einleitend wird die theoretisch bekannte kantenversteilernde Wirkung bei kohärenter Beleuchtung experimentell nachgewiesen und kritisch auf die Begriffe optisches Auflösungsvermögen und Schärfentiefe bei Mikroskopsystemen eingegangen. Zur Sicherstellung möglichst großer Rechenressourcen wird auf effektive Datenformate, schnelle Fourier-Transformationen und Parallelisierung eingegangen. An modifizierten Mikroskopsystemen konnte gezeigt werden, dass Korrelationsverfahren die sonst störenden Oszillationen an Kantenrändern vorteilhaft nutzen können, wenn die zur Korrelation benutzten Erwartungswerte diese Oszillationen berücksichtigen. Die Einbeziehung extrafokaler Bildebenen kann gleichfalls die Reproduzierbarkeit der Detektion von Kantenorten erhöhen, d. h. auch Bereiche außerhalb einer definierten Schärfentiefe können sinnvoll zur Determination eines Kantenortes genutzt werden, wenn der Gewinn an Information den Verlust durch das zunehmende Rauschen überwiegt. In bestimmten Parameterbereichen ist die extrafokale Korrelation mit Erwartungswerten der reinen Mittelung über benachbarten Bildebenen überlegen. Insbesondere bei kohärenter Beleuchtung sind reine Mittelungen der extrafokalen Korrelation unterlegen. Die extrafokale Korrelation, basierend auf der Suche nach der kleinsten Summe der Fehlerquadrate, ist zwar aufwendiger, aber oft erfolgreicher als die schnellere Fourier-Kreuzkorrelation. Das Verfahren der extrafokalen Korrelation kann auch seriell benutzt werden, um 2-dimensionale Verläufe von Kanten zu analysieren, was z. B. bei der Bestimmung von Strukturbreiten-Homogenitäten der Fall ist. Angerissen wird die Erweiterung des Verfahrens für komplexere Objekte, die am Beispiel der Kreisdurchmesserbestimmung in dieser Arbeit seriell bearbeitet wurde, da die notwendige 4-dimensionale Korrelation mit großen Datenmengen künftigen Rechnergenerationen vorbehalten bleibt. Im Anhang wird das Negativ-Kontrast-Misch-Verfahren als spezielle Methode zur Kontraststeigerung vorgestellt

    Parallelisierbare Erkennung trihedraler, starrer und statischer Polyeder in einzelnen hochauflösenden Abstandsbildern

    Get PDF
    Ein Problem bei der autonomen Navigation mobiler Roboter besteht darin, die aktuelle Position eines Roboters innerhalb bekannt strukturierter Umgebung zu bestimmen. Die Positionsbestimmung aufgrund interner Sensoren wie Kreisel oder wegmessender Systeme weist allerdings eine mit der Zeit wachsende Drift auf. Interne Sensoren müssen daher von Zeit zu Zeit mit Hilfe externer Sensoren an die Umgebung angepasst werden. Andere Verfahren zur externen Positionsbestimmung können durch Erkennung dreidimensionaler Objekte anhand ihrer Form sinnvoll ergänzt werden. Da bei der Navigation auch die Positionsbestimmung Echtzeitanforderungen erfüllen muss, sind insbesondere gut parallelisierbare Verfahren von grosser Bedeutung. Zur Erfassung der Form von Szenen sind vor allem 3D-Laserscanner geeignet. Aufgrund bestimmter Vorteile bei der Bildaufnahme werden hier hochauflösende Abstandsbilder von 3D-Laserradarscannern verwendet. Unter Verwendung des a-priori Wissens, dass Szenen aus starren und statischen Polyedern bestehen, in deren Polyederecken sich genau drei Ebenen schneiden, wird eine kantenbasierte Szenenbeschreibung des Abstandsbildes generiert. Zu erkennende Objekte werden als charakteristische Ansichten repräsentiert werden, wobei charakteristische Ansichten und Szenenbeschreibung gleiche Struktur besitzen. Zunächst werden mittels eines speziellen Krümmungsmasses potentielle Kantenpunkte verschiedenen Typs extrahiert. Die Position der Kantenpunkte wird in einer Lokalisierungsphase so verfeinert, dass bestimmte Kantenpunkte trotz eines für das Radarmessverfahren typischen Sensoreffekts extrahiert werden. Aus den Kantenpunkten wird eine Szenenbeschreibung aus 3D-Kanten aufgebaut, die sich vor allem durch geeignet gewählte Attribute fr Polyederecken auszeichnet. Die Erkennung von Objekten anhand der Szenenbeschreibung besteht darin, Korrespondenzen zwischen 3D-Objekt- und 3D-Szenenkanten zu finden. Zur Lösung des Korrespondenzproblems werden künstliche neuronale Netze und verwandte Ansätze vorgeschlagen und innerhalb eines einheitlichen Rahmens gegenübergestellt. Qualitative Erkennungsresultate werden für künstliche neuronale Netze bestimmten Typs aufgezeigt. Anhand eines Benchmarks wird ein Vergleich mit einem verwandten Verfahren durchgeführt

    Einführung in die Digitale Bildverarbeitung: Lehrbuch für ingenieurwissenschaftliche Studiengänge

    Get PDF
    Das Buch gibt eine Einführung in die Digitale Bildverarbeitung. Der Inhalt des Buches gliedert sich in sechs Kapitel. Im ersten Kapitel werden die wichtigsten Definitionen und Anwendungsgebiete der Digitalen Bildverarbeitung sowie wesentliche Komponenten eines digitalen Bildverarbeitungssystems erklärt. Das zweite Kapitel befasst sich mit den Grundlagen digitaler Bilder, den Bilddatenformaten und Kompressionsverfahren. Die Grundlagen der Farbtheorie und ein kurzer Überblick über die wichtigsten Farbsysteme werden im dritten Kapitel vermittelt. Die zwei anschließenden Kapitel beschäftigen sich mit der Manipulation von Grauwerten. Der Schwerpunkt liegt hier auf den Punktoperationen und den Filtertechniken. Das letzte Kapitel behandelt die für die Lehrgebiete Photogrammetrie, Fernerkundung und Geoinformationssysteme überaus wichtigen Grundlagen der geometrischen Transformation.:Vorwort 1. Einführung in die digitale Bildverarbeitung 1.1 Definition der Bildverarbeitung 1.2 Anwendungsgebiete der Digitalen Bildverarbeitung 1.3 Komponenten eines Bildverarbeitungssystems 2. Digitale Bilder 2.1 Entstehung digitaler Bilder 2.2 Bildmatrix und Grauwerte 2.3 Digitale Bilder im Ortsbereich 2.3.1 Bildrepräsentation 2.3.2 Auflösung eines Pixels 2.3.3 Das Pixelkoordinatensystem 2.3.4 Grundsätzliche Festlegungen 2.3.5 Topologien oder Nachbarschaftsrelationen 2.3.6 Distanzen 2.4 Eigenschaften digitaler Bilder 2.4.1 Mittelwert und mittlere quadratische Abweichung 2.4.2 Varianz und Standardabweichung 2.4.3 Histogramm 2.4.4 Stochastische Einflüsse 2.5 Kompressionen und Datenformate 2.5.1 Ausgewählte Verfahren zur Bildkompression 2.5.2 Bilddatenformate 3. Farbtheorie 3.1 Was ist Farbe? 3.2 Farbsysteme 3.2.1 RGB- und CMY- Farbsystem 3.2.2 Das Farbdreieck (Maxwell’sches Dreieck) 3.2.3 Das IHS- Modell 3.2.4 Das CIE- Farbmodell 3.3 Bildwiedergabe 3.4 Farbmanipulation 4. Punktoperationen 4.1 Schwellwertoperation zur Erzeugung von Binärbildern 4.2 Arithmetische Bildoperationen 4.3 Logische oder Boolesche Kombinationen 4.4 Kontrast- und Helligkeitsänderungen 4.4.1 Kontrastübertragungsfunktionen 4.4.2 Kontrastveränderung durch Histogrammanpassungen 4.4.3 Äquidensitenherstellung 5. Filteroperationen 5.1 Lineare Filter 5.1.1 Tiefpassfilter 5.1.2 Hochpassfilter 5.1.2.5 Schärfung 5.2 Morphologische Filter 5.2.1 Medianfilter 5.2.2 Minimum- und Maximumfilter 5.2.3 Dilatation und Erosion im Binärbild 5.2.4 Opening und Closing 6. Geometrische Bildtransformationen 6.1 Koordinatentransformationen im 2D-Raum 6.2 Direkte und indirekte Transformation 6.2.1 Direkte Transformation 6.2.2 Indirekte Transformation 6.3 Resampling 6.3.1 Nächster Nachbar 6.3.2 Bilineare Interpolation 6.3.3 Interpolationen höherer Ordnung 6.3.4 Zusammenfassung der Interpolationsmethoden Quellennachweis SachregisterThe book provides an introduction into digital image processing. The content of the book is divided into six chapters. In the first chapter, the most important definitions and areas of application of digital image processing as well as essential components of a digital image processing system are explained. The second chapter deals with the basics of digital images, image data formats and compression methods. The basics of color theory and a brief overview of the most important color systems are presented in the third chapter. The following two chapters deal with the manipulation of gray values. The focus here is on point operations and filtering techniques. The last chapter deals with the fundamentals of geometric transformation, which are extremely important for the areas of photogrammetry, remote sensing and geographic information systems.:Vorwort 1. Einführung in die digitale Bildverarbeitung 1.1 Definition der Bildverarbeitung 1.2 Anwendungsgebiete der Digitalen Bildverarbeitung 1.3 Komponenten eines Bildverarbeitungssystems 2. Digitale Bilder 2.1 Entstehung digitaler Bilder 2.2 Bildmatrix und Grauwerte 2.3 Digitale Bilder im Ortsbereich 2.3.1 Bildrepräsentation 2.3.2 Auflösung eines Pixels 2.3.3 Das Pixelkoordinatensystem 2.3.4 Grundsätzliche Festlegungen 2.3.5 Topologien oder Nachbarschaftsrelationen 2.3.6 Distanzen 2.4 Eigenschaften digitaler Bilder 2.4.1 Mittelwert und mittlere quadratische Abweichung 2.4.2 Varianz und Standardabweichung 2.4.3 Histogramm 2.4.4 Stochastische Einflüsse 2.5 Kompressionen und Datenformate 2.5.1 Ausgewählte Verfahren zur Bildkompression 2.5.2 Bilddatenformate 3. Farbtheorie 3.1 Was ist Farbe? 3.2 Farbsysteme 3.2.1 RGB- und CMY- Farbsystem 3.2.2 Das Farbdreieck (Maxwell’sches Dreieck) 3.2.3 Das IHS- Modell 3.2.4 Das CIE- Farbmodell 3.3 Bildwiedergabe 3.4 Farbmanipulation 4. Punktoperationen 4.1 Schwellwertoperation zur Erzeugung von Binärbildern 4.2 Arithmetische Bildoperationen 4.3 Logische oder Boolesche Kombinationen 4.4 Kontrast- und Helligkeitsänderungen 4.4.1 Kontrastübertragungsfunktionen 4.4.2 Kontrastveränderung durch Histogrammanpassungen 4.4.3 Äquidensitenherstellung 5. Filteroperationen 5.1 Lineare Filter 5.1.1 Tiefpassfilter 5.1.2 Hochpassfilter 5.1.2.5 Schärfung 5.2 Morphologische Filter 5.2.1 Medianfilter 5.2.2 Minimum- und Maximumfilter 5.2.3 Dilatation und Erosion im Binärbild 5.2.4 Opening und Closing 6. Geometrische Bildtransformationen 6.1 Koordinatentransformationen im 2D-Raum 6.2 Direkte und indirekte Transformation 6.2.1 Direkte Transformation 6.2.2 Indirekte Transformation 6.3 Resampling 6.3.1 Nächster Nachbar 6.3.2 Bilineare Interpolation 6.3.3 Interpolationen höherer Ordnung 6.3.4 Zusammenfassung der Interpolationsmethoden Quellennachweis Sachregiste
    corecore