1,292 research outputs found
NOVA INFORMACIJSKA TEHNOLOGIJA PROCJENE KORISTI IZDVAJANJA CESTA POMOĆU SATELITSKIH SNIMKI VISOKE REZOLUCIJE TEMELJENE NA PCNN I C-V MODELU
Road extraction from high resolution satellite images has been an important research topic for analysis of urban areas. In this paper road extraction based on PCNN and Chan-Vese active contour model are compared. It is difficult and computationally expensive to extract roads from the original image due to presences of other road-like features with straight edges. The image is pre-processed using median filter to reduce the noise. Then road extraction is performed using PCNN and Chan-Vese active contour model. Nonlinear segments are removed using morphological operations. Finally the accuracy for the road extracted images is evaluated based on quality measures.Izdvajanje cesta pomoću satelitskih slika visoke rezolucije je važna istraživačka tema za analizu urbanih područja. U ovom radu ekstrakcije ceste se uspoređuju na PCNN i Chan-Vese aktivnom modelu. Teško je i računalno skupo izdvojiti ceste iz originalne slike zbog prisutnosti drugih elemenata ravnih rubova sličnih cestama. Slika je prethodno obrađena korištenjem filtera za smanjenje smetnji. Zatim se ekstrakcija ceste izvodi pomoću PCNN i Chan-Vese aktivnog modela konture. Nelinearni segmenti su uklonjeni primjenom morfoloških operacija. Konačno, točnost za ceste izdvojene iz slika se ocjenjuje na temelju kvalitativnih mjera
Urban morphology analysis by remote sensing and gis technique, case study: Georgetown, Penang
This paper was analysed the potential of applications of satellite remote sensing to urban planning research in urban morphology. Urban morphology is the study of the form of human settlements and the process of their formation and transformation. It is an approach in designing urban form that considers both physical and spatial components of the urban structure. The study conducted in Georgetown, Penang purposely main to identify the evolution of urban morphology and the land use expansion. In addition, Penang is well known for its heritage character, especially in the city of Georgetown with more than 200 years of urban history. Four series of temporal satellite SPOT 5 J on year 2004, 2007, 2009 and 2014 have been used in detecting an expansion of land use development aided by ERDAS IMAGINE 2014. Three types of land uses have been classified namely build-up areas, un-built and water bodies show a good accuracy with achieved above 85%. The result shows the built-up area significantly increased due to the rapid development in urban areas. Simultaneously, this study provides an understanding and strengthening a relation between urban planning and remote sensing applications in creating sustainable and resilience of the city and future societies as well
Recommended from our members
Multi-perspective, Multi-modal Image Registration and Fusion
Multi-modal image fusion is an active research area with many civilian and military applications. Fusion is defined as strategic combination of information collected by various sensors from different locations or different types in order to obtain a better understanding of an observed scene or situation. Fusion of multi-modal images cannot be completed unless these two modalities are spatially aligned. In this research, I consider two important problems. Multi-modal, multi-perspective image registration and decision level fusion of multi-modal images. In particular, LiDAR and visual imagery. Multi-modal image registration is a difficult task due to the different semantic interpretation of features extracted from each modality. This problem is decoupled into three sub-problems. The first step is identification and extraction of common features. The second step is the determination of corresponding points. The third step consists of determining the registration transformation parameters. Traditional registration methods use low level features such as lines and corners. Using these features require an extensive optimization search in order to determine the corresponding points. Many methods use global positioning systems (GPS), and a calibrated camera in order to obtain an initial estimate of the camera parameters. The advantages of our work over the previous works are the following. First, I used high level-features, which significantly reduce the search space for the optimization process. Second, the determination of corresponding points is modeled as an assignment problem between a small numbers of objects. On the other side, fusing LiDAR and visual images is beneficial, due to the different and rich characteristics of both modalities. LiDAR data contain 3D information, while images contain visual information. Developing a fusion technique that uses the characteristics of both modalities is very important. I establish a decision-level fusion technique using manifold models
Real-time Intelligent Alert System on Driver’s Hypo-Vigilance Detection Using Template Matching Technique
According to experts, anyone who do not take break after long period of driving task can cause weariness. This system is one of the major approaches for preventing accidents by fatigue detection and distraction detection. Since there are many systems are available for warning the drivers. As fatigue is the main reason for accidents as well as distraction of drivers especially in the highways and rural areas. Because fatigue reduces driver’s perceptions and decision making capability to control the vehicle. This results irritation and the person is no longer paying attention in driving. In this paper, method for face detection and eye tracking from human face image is used. We have discussed method for determining eye template of open eyes and closed eyes. It is based on real-time acquisition of a driver’s face images and template matching method is applied to extract hypo-vigilance symptoms.
DOI: 10.17762/ijritcc2321-8169.15025
Recommended from our members
Light detection and ranging (LiDAR) : what we can and cannot see in the forest for the trees
Recently concerns over anthropogenic carbon pollution have received increased global attention and research in forest biomass and carbon sequestration has gained momentum. Light Detection and Ranging (LiDAR) remote sensing has in the last decade demonstrated forest measurement and biomass estimation potential. The project objective was to compare LiDAR forest biomass estimates to traditional field biomass estimates in a conifer predominant forest located in the Pacific Northwest region of the United States. Chapter 2 of this dissertation investigated mapping-grade GPS accuracy in determining tree locations. Results indicated that post processing of coded pseudorange satellite signals is the most accurate of those we tested for GPS surveying under a conifer dominant forest canopy. Chapter 3 compared LiDAR, total station, and GPS receiver discrete point elevations and DEMs across a range of forest settings. Average total station plot elevation differences ranged from -0.06 m (SD 0.40) to -0.59 m (SD 0.23) indicating that LiDAR elevations are higher than actual elevations. Average plot GPS elevation differences ranged from 0.24 (SD 1.55) to 2.82 m (SD 4.58), and from 0.27 (SD 2.33) to 2.69 m (SD 5.06) for LiDAR DEMs. Chapter 4 assessed LiDAR’s ability to measure three-dimensional forest structure and estimate biomass using single stem (trees and shrubs) remote sensing. The LiDAR data tree extraction computer software programs FUSION, TreeVaW, and watershed segmentation were compared. LiDAR spatial accuracy assessment resulted in overall average error and standard deviation (SD) for FUSION, TreeVaW, and watershed segmentation of 2.05 m (SD 1.67 m), 2.19 m (SD 1.83 m), and 2.31 m (SD 1.94 m) respectively. Overall average LiDAR tree height error and standard deviations (SD) respectively for FUSION, TreeVaW and watershed segmentation were -0.09 m (SD 2.43 m), 0.28 m (SD 1.86 m), and 0.22 m (2.45 m) in even-age, uneven-age, and old growth plots combined; and for one clearcut plot 0.56 m (SD 1.07 m), 0.28 m (SD 1.69 m), and 1.17 m (SD 0.68 m), respectively. Biomass comparisons included feature totals per plot, mean biomass per feature by plot, and total biomass by plot for each extraction method. Overall LiDAR biomass estimations resulted in FUSION and TreeVaW underestimating by 25 and 31% respectively, and watershed segmentation overestimating by approximately 10%. LiDAR biomass underestimation occurred in 66% and overestimation occurred in 34% of the plot comparisons
UAVs for the Environmental Sciences
This book gives an overview of the usage of UAVs in environmental sciences covering technical basics, data acquisition with different sensors, data processing schemes and illustrating various examples of application
Perception of Unstructured Environments for Autonomous Off-Road Vehicles
Autonome Fahrzeuge benötigen die Fähigkeit zur Perzeption als eine notwendige Voraussetzung für eine kontrollierbare und sichere Interaktion, um ihre Umgebung wahrzunehmen und zu verstehen.
Perzeption für strukturierte Innen- und Außenumgebungen deckt wirtschaftlich lukrative Bereiche, wie den autonomen Personentransport oder die Industrierobotik ab, während die Perzeption unstrukturierter Umgebungen im Forschungsfeld der Umgebungswahrnehmung stark unterrepräsentiert ist.
Die analysierten unstrukturierten Umgebungen stellen eine besondere Herausforderung dar, da die vorhandenen, natürlichen und gewachsenen Geometrien meist keine homogene Struktur aufweisen und ähnliche Texturen sowie schwer zu trennende Objekte dominieren.
Dies erschwert die Erfassung dieser Umgebungen und deren Interpretation, sodass Perzeptionsmethoden speziell für diesen Anwendungsbereich konzipiert und optimiert werden müssen.
In dieser Dissertation werden neuartige und optimierte Perzeptionsmethoden für unstrukturierte Umgebungen vorgeschlagen und in einer ganzheitlichen, dreistufigen Pipeline für autonome Geländefahrzeuge kombiniert: Low-Level-, Mid-Level- und High-Level-Perzeption.
Die vorgeschlagenen klassischen Methoden und maschinellen Lernmethoden (ML) zur Perzeption bzw.~Wahrnehmung ergänzen sich gegenseitig. Darüber hinaus ermöglicht die Kombination von Perzeptions- und Validierungsmethoden für jede Ebene eine zuverlässige Wahrnehmung der möglicherweise unbekannten Umgebung, wobei lose und eng gekoppelte Validierungsmethoden kombiniert werden, um eine ausreichende, aber flexible Bewertung der vorgeschlagenen Perzeptionsmethoden zu gewährleisten.
Alle Methoden wurden als einzelne Module innerhalb der in dieser Arbeit vorgeschlagenen Perzeptions- und Validierungspipeline entwickelt, und ihre flexible Kombination ermöglicht verschiedene Pipelinedesigns für eine Vielzahl von Geländefahrzeugen und Anwendungsfällen je nach Bedarf.
Low-Level-Perzeption gewährleistet eine eng gekoppelte Konfidenzbewertung für rohe 2D- und 3D-Sensordaten, um Sensorausfälle zu erkennen und eine ausreichende Genauigkeit der Sensordaten zu gewährleisten.
Darüber hinaus werden neuartige Kalibrierungs- und Registrierungsansätze für Multisensorsysteme in der Perzeption vorgestellt, welche lediglich die Struktur der Umgebung nutzen, um die erfassten Sensordaten zu registrieren: ein halbautomatischer Registrierungsansatz zur Registrierung mehrerer 3D~Light Detection and Ranging (LiDAR) Sensoren und ein vertrauensbasiertes Framework, welches verschiedene Registrierungsmethoden kombiniert und die Registrierung verschiedener Sensoren mit unterschiedlichen Messprinzipien ermöglicht. Dabei validiert die Kombination mehrerer Registrierungsmethoden die Registrierungsergebnisse in einer eng gekoppelten Weise.
Mid-Level-Perzeption ermöglicht die 3D-Rekonstruktion unstrukturierter Umgebungen mit zwei Verfahren zur Schätzung der Disparität von Stereobildern: ein klassisches, korrelationsbasiertes Verfahren für Hyperspektralbilder, welches eine begrenzte Menge an Test- und Validierungsdaten erfordert, und ein zweites Verfahren, welches die Disparität aus Graustufenbildern mit neuronalen Faltungsnetzen (CNNs) schätzt. Neuartige Disparitätsfehlermetriken und eine Evaluierungs-Toolbox für die 3D-Rekonstruktion von Stereobildern ergänzen die vorgeschlagenen Methoden zur Disparitätsschätzung aus Stereobildern und ermöglichen deren lose gekoppelte Validierung.
High-Level-Perzeption konzentriert sich auf die Interpretation von einzelnen 3D-Punktwolken zur Befahrbarkeitsanalyse, Objekterkennung und Hindernisvermeidung. Eine Domänentransferanalyse für State-of-the-art-Methoden zur semantischen 3D-Segmentierung liefert Empfehlungen für eine möglichst exakte Segmentierung in neuen Zieldomänen ohne eine Generierung neuer Trainingsdaten. Der vorgestellte Trainingsansatz für 3D-Segmentierungsverfahren mit CNNs kann die benötigte Menge an Trainingsdaten weiter reduzieren. Methoden zur Erklärbarkeit künstlicher Intelligenz vor und nach der Modellierung ermöglichen eine lose gekoppelte Validierung der vorgeschlagenen High-Level-Methoden mit Datensatzbewertung und modellunabhängigen Erklärungen für CNN-Vorhersagen.
Altlastensanierung und Militärlogistik sind die beiden Hauptanwendungsfälle in unstrukturierten Umgebungen, welche in dieser Arbeit behandelt werden.
Diese Anwendungsszenarien zeigen auch, wie die Lücke zwischen der Entwicklung einzelner Methoden und ihrer Integration in die Verarbeitungskette für autonome Geländefahrzeuge mit Lokalisierung, Kartierung, Planung und Steuerung geschlossen werden kann.
Zusammenfassend lässt sich sagen, dass die vorgeschlagene Pipeline flexible Perzeptionslösungen für autonome Geländefahrzeuge bietet und die begleitende Validierung eine exakte und vertrauenswürdige Perzeption unstrukturierter Umgebungen gewährleistet
Computational intelligence approaches to robotics, automation, and control [Volume guest editors]
No abstract available
- …