511 research outputs found

    A Multimodal Feature Selection Method for Remote Sensing Data Analysis Based on Double Graph Laplacian Diagonalization

    Get PDF
    When dealing with multivariate remotely sensed records collected by multiple sensors, an accurate selection of information at the data, feature, or decision level is instrumental in improving the scenes’ characterization. This will also enhance the system’s efficiency and provide more details on modeling the physical phenomena occurring on the Earth’s surface. In this article, we introduce a flexible and efficient method based on graph Laplacians for information selection at different levels of data fusion. The proposed approach combines data structure and information content to address the limitations of existing graph-Laplacian-based methods in dealing with heterogeneous datasets. Moreover, it adapts the selection to each homogenous area of the considered images according to their underlying properties. Experimental tests carried out on several multivariate remote sensing datasets show the consistency of the proposed approach

    Superpixel based sea ice segmentation with high-resolution optical images: analysis and evaluation.

    Get PDF
    By grouping pixels with visual coherence, superpixel algorithms provide an alternative representation of regular pixel grid for precise and efficient image segmentation. In this paper, a multi-stage model is used for sea ice segmentation from the high-resolution optical imagery, including the pre-processing to enhance the image contrast and suppress the noise, superpixel generation and classification, and post-processing to refine the segmented results. Four superpixel algorithms are evaluated within the framework, where the high-resolution imagery of the Chukchi sea is used for validation. Quantitative evaluation in terms of the segmentation quality and floe size distribution, and visual comparison for several selected regions of interest are presented. Overall, the model with TS-SLIC yields the best results, with a segmentation accuracy of 98.19% on average and adhering to the ice edges well

    SuperpixelGraph: Semi-automatic generation of building footprint through semantic-sensitive superpixel and neural graph networks

    Full text link
    Most urban applications necessitate building footprints in the form of concise vector graphics with sharp boundaries rather than pixel-wise raster images. This need contrasts with the majority of existing methods, which typically generate over-smoothed footprint polygons. Editing these automatically produced polygons can be inefficient, if not more time-consuming than manual digitization. This paper introduces a semi-automatic approach for building footprint extraction through semantically-sensitive superpixels and neural graph networks. Drawing inspiration from object-based classification techniques, we first learn to generate superpixels that are not only boundary-preserving but also semantically-sensitive. The superpixels respond exclusively to building boundaries rather than other natural objects, while simultaneously producing semantic segmentation of the buildings. These intermediate superpixel representations can be naturally considered as nodes within a graph. Consequently, graph neural networks are employed to model the global interactions among all superpixels and enhance the representativeness of node features for building segmentation. Classical approaches are utilized to extract and regularize boundaries for the vectorized building footprints. Utilizing minimal clicks and straightforward strokes, we efficiently accomplish accurate segmentation outcomes, eliminating the necessity for editing polygon vertices. Our proposed approach demonstrates superior precision and efficacy, as validated by experimental assessments on various public benchmark datasets. A significant improvement of 8% in AP50 was observed in vector graphics evaluation, surpassing established techniques. Additionally, we have devised an optimized and sophisticated pipeline for interactive editing, poised to further augment the overall quality of the results

    Cloud Detection And Information Cloning Technique For Multi Temporal Satellite Images

    Get PDF
    Tez (Doktora) -- İstanbul Teknik Üniversitesi, Fen Bilimleri Enstitüsü, 2017Thesis (Ph.D.) -- İstanbul Technical University, Institute of Science and Technology, 2017Uzaktan algılanmış uydu görüntülerinde atmosfer etkilerinden kaynaklı olarak ortaya çıkan bölgesel bulutlar ve bu bulutların gölgeleri, yapılan çalışmalarda problem oluşturan temel gürültü kaynaklarındandır. Değişim analizi, NDVI hesaplama gibi önemli dijital işlemlerde bulut ve gölge bölgeleri, genel olarak yanıltıcı sonuçlar veren bölgeler olduğundan dijital işlemler çoğu zaman bu alanlar maskelenerek gerçekleştirilmektedir. Bu problem birçok çalışmada aynı bölgeden farklı zamanlarda elde edilmiş uydu görüntüleri ile mozaikleme yapılarak aşılmıştır. Ancak, mozaikleme sırasında oluşan spektral ve dokusal bozulmalar çalışmaları olumsuz etkilemektedir. Görüntünün çekilme anına bir daha dönülemeyeceğinden, bulutsuz bir görüntü elde etmek önemli bir süreç haline gelmektedir. Google Earth gibi sık kullanılan harita araçları aynı bölgeye ait çekilmiş birçok görüntü kullanarak bu görüntülerin ortalamalarından bulutsuz mozaikler elde ederek kullanıcılara sunmaktadır. Bu çalışmada bulutlu görüntüler çok zamanlı bulutsuz görüntülerden klonlama yapılarak bulutsuz hale getirilecektir. Diğer benzer çalışmalara ek olarak, klonlama süreci bir fotoğraf düzenleme işleminden öte görüntünün spektral özellikleri kullanılarak gerçekleştirilerek en yakın tarih ve spektral benzerlik göz önünde bulundurularak bulutsuz görüntü elde edilecektir. Üretilen bulutsuz görüntüde oluşan kenar bozulma etkileri çeşitli filtreler ile azaltılacaktır. Geliştirilen yöntem farklı zamanlarda çekilmiş Landsat-8 uydu görüntüleri ile test edilmiştir. Görüntüde bulunan bulutların belirlenmesi, bulut klonlama işleminin gerçekleştirilmesi için ilk aşama ve doğruluğu direkt olarak klonlama doğruluğu etkileyen bir süreçtir. Bulutların oluşturduğu parlaklık ve gölgelerinin oluşturduğu kararmalar birçok veri analizini olumsuz etkilemektedir. Bu etkiler, atmosferik düzeltmede oluşacak zorluklar, NDVI değerlerinin yükselmesi, sınıflandırmadaki hatalar ve değişim analizinin yanlış gerçekleştirilmesi şeklinde olabilir. Tüm bu etkilerin doğrultusunda, uzaktan algılama görüntülerinde bulutlar ve gölgeleri önemli bir gürültü kaynağı olduğundan bunların dijital işlemlerden önceki ilk aşamada belirlenmesi önem taşımaktadır. Bu çalışmada, Landsat-8 görüntüleri kullanılarak ve mevcut ısıl bantların da yardımıyla, bulut ve gölgelerinin belirlenmesi için bölütleme tabanlı bir kural dizisi ile uygulanan bir yöntem önerilmiş ve test edilmiştir. Çalışmaya temel olan bulut belirleme algoritması, ACCA ve Fmask algoritmalarının geliştirilmiş, sadeleştirilmiş, otomatize edilmiş ve bölütleme tabanlı uyarlanmış bir sürümü olarak değerlendirilebilir . Bu yöntem sayesinde, spektral özellikler ve geometrik özellikler bir arada kullanılarak Landsat 8 görüntülerinden bulut ve bulut gölgeleri belirlenmiştir. Spektral ve geometrik özelliklerin yanı sıra Landsat ısıl bant verileri ile, bulut-gölge ve soğuk yüzey (kar, buz) ayırımı güçlendirilmiştir. Komşuluk ilişkileri kullanılarak, belirlenen bulut alanları etrafındaki bulut gölgelerinin belirleme doğruluğu arttırılmıştır. Geliştirilen algoritma, dört farklı bölge için farklı zamanlarda çekilmiş Landsat görüntüleri üzerinde test edilerek değerlendirilmiştir. Bulut belirleme algoritmasında temel olarak Landsat 8 görüntülerinin OLI ve ısıl bantları kullanılmaktadır. Landsat-8 verileri, DN değerler olarak işlenmemiş halde sağlanmaktadır. Bu veriler, Landsat verileri ile birlikte gelen meta veri dosyasında (MTL) verilen oranlama katsayıları ile atmosfer üstü yansıtım değerlerine ve radyans değerlerine dönüştürülebilmektedir. Böylece veriler fiziksel anlamı olan birimlere dönüştürülmüş olur. Meta veri dosyasında sağlanan ısıl bant katsayıları ile ısıl bant verileri, parlaklık sıcaklığı bilgisine dönüştürülebilmektedir. OLI bantları atmosfer üstü yansıtım değerlerine (ToA), ısıl bantlar ise parlaklık sıcaklığına dönüştürülerek algoritmada kullanılmıştır. Yansıtım değerlerine dönüştürülen görüntülerde bulut alanlarının belirlenmesi için öncelikle bölütleme algoritması ile görüntü süper-piksellere ayrılmış ve kural tabanlı bir sınıflandırma dizisi uygulanarak bulut alanları görüntü üzerinden belirlenmiştir. Bulut alanlarının belirlenmesinden sonra, spektral testler ve bulut alanlarının komşuluk ilişkileri değerlendirilerek bulut gölgesi alanları da belirlenmiştir. Süper pikseller, pikselleri anlamlı gruplar halinde birleştirerek, piksel grupları oluşturmak için kullanılmaktadır. Görüntüdeki aynı bilgiye sahip olan piksellerin birleştirilmesi ile görüntü işleme amaçlı işlemlerin hızı da yüksek oranda artmaktadır. K-ortalamalar (K-means) yönteminin mekânsal özelliklerini de kullanan bir uyarlamasını temel alarak süper pikselleri üreten SLIC algoritması da bu amaçla kullanılan etkin yöntemlerden biridir. Bulut süper piksellerinin üretilmesinde SLIC yöntemi kullanılmıştır. Görüntülerden bulut alanlarının belirlenmesi için, bulutların spektral karakteristiğinin belirlenmesi ile işleme başlanmıştır. Görüntü üzerinden toplanan bulut noktalarının spektral imzaları karşılaştırılmıştır. Algoritma bu imzalar temel alınarak geliştirilmiştir. Bulut özelliklerine benzer şekilde, bulut gölgesi alanlarının sınıflandırılmasında da, görüntü üzerinden toplanan bulut noktalarının spektral imzalarının yorumlanmasını temel alan bir yöntem ile ısıl bandı devre dışı bırakan bir bant oranlama indeksi geliştirilmiştir. Bu indeks ile gölge alanlarının değeri diğer arazi örtüsü özelliklerinden keskin bir şekilde ayrıldığından eşik değeri belirlenmesi dinamik olarak gerçekleştirilebilmektedir. İkinci olarak, farklı gölge alanlarının, bulut gölgeleri ile karışmasını önlemek amacıyla görüntü özniteliklerinden olan güneş azimut açısı kullanılarak tüm bulut bölgelerinin bu açı ile doğru orantılı şekilde belli bir uzaklıkta izdüşümü alınmıştır. Bu izdüşüm alanlar, potansiyel gölge alanlarını ifade etmektedir. Gölge alan belirleme indeksi sonucu ile bu izdüşüm alanların kesişimi final gölge bölgelerinin sınıflandırılmasında kullanılmıştır Bulut ve gölgelerinin belirlenmesi, uzaktan algılamada uzun zamandır üzerinde çalışılan ve birçok yöntemin geliştirildiği bir konudur. Bu yöntemler kimi zaman yeterli doğrulukta sonuçlar verirken, kimi zaman da yeterli doğruluğu sağlayamamaktadır. Piksel tabanlı yöntemlerin yanı sıra, görüntüyü süper-piksellere ayıran bölütleme tabanlı yöntemlerin bulut ve gölge belirlemede kullanılması yeni bir konudur. Bu şekilde, görüntü, homojen özellikler sergileyen piksel gruplarına ayrılarak, hem hesaplama gücü azaltılmakta, hem de nesne tabanlı bir yaklaşım sergilendiğinden, sınıflandırılması hedeflenen özellikler geometrik karakteristikleri bakımından etkin bir şekilde görüntü üzerinden elde edilebilmektedir. Bu çalışmada geliştirilen bulut ve gölge belirleme algoritmaları ile bölütleme tabanlı bir yaklaşım bu kapsamda uygulanmıştır. İlk aşamada elde edilen süper-piksellerin doğruluğu sınıflandırma doğruluğunu doğrudan etkilemektedir. Bu nedenle küçük bir ölçek parametresi seçilerek süper-piksellerin boyutları küçük tutulmuş ve piksel gruplamaları homojen tutularak, heterojen süper-piksellerin oluşması olasılığı azaltılmıştır. Bulut ve gölge gibi nesneler, parlak ve koyu yansıtım değerleri nedeniyle görüntü üzerindeki spektral karakteristikleri belirgin bir şekilde oluşan özelliklerdir. Bu bilgiler esas alınarak SLIC algoritması ile etkin bir bölütleme uygulanarak bulut ve gölge alanları süper-piksellere ayrılmıştır. Spektral tabanlı bir yaklaşımla geliştirilen indeksler ile kural seti şeklinde bir yapı kurularak; parlaklık sıcaklığı, güneş açısı, NDSI, NDWI gibi özellikler de sınıflandırma kural setine eklenerek, çok kriterli bir yapıda bulut ve gölge alanları görüntü üzerinden belirlenmiştir. Burada yeni bir yaklaşım olan bulut-gölge izdüşümü yaklaşımı ile bulut ve gölge arasındaki geometrik bağıntı kullanılarak gölge sınıflandırması doğruluğu arttırılmıştır. Tüm bu sonuçlar farklı bölgelerden alınmış görüntüler üzerindeki aynı parametreler ile koşturularak, yöntemin transfer edilebilirliği test edilmiştir. ACCA, Fmask gibi algoritmaların yanında, burada geliştirilen algoritma, transfer edilebilirliği, süper-piksel tabanlı olması sebebiyle getirdiği işlem kolaylığı ve basitleştirilmiş işlem adımları ile kullanışlılığını kanıtlamıştır. Bulut ve gölge alanlarının tespitinden sonra klonlama işlemine altlık oluşturacak bulut maskeleri elde edilmiştir. Bulut alanlarının, bulutsuz görüntülerden hangisi seçilerek klonlanılmasına görüntüler arasında yapılan spektral benzerlik testleri ile karar verilmiştir. Tüm bu görüntülerin bulutlu görüntüye olan korelesyonları hesaplanarak korelasyonu en yüksek olan görüntü bilgi aktarımı için kullanılmıştır. Görüntülerin klonlanmasında, bulutlu görüntünün çekildiği tarihe en yakın 3 aylık görüntüler girdi olarak alınmıştır. Tespit edilen bulut alanları ayrı ayrı analiz edilerek, öncelikle seçilen alana yakın tarihli görüntülerde aynı bölgenin bulutsuz olup olmadığı görüntülerin kesişimleri alınarak test edilmiştir. Bu testin sonrasında bulutsuz görüntüler ile bulutlu görüntü arasında korelasyonu en yüksek görüntüden taşırma algoritması ile (Flood Fill) bilgi aktarımı yapılarak bulutsuz görüntü elde edilmiştir Görüntülerin klonlanmasından sonra oluşan kenar bozulma etkilerinin düzeltilmesi için, klonlanan bölge sınırlarına ortalama filtresi (mean filter, averaging filter) uygulanmıştır. Görüntülerin klonlanmasının ardından, üretilen bulutsuz görüntülerin yakın zaman ait bulutsuz görüntülere olan benzerliği, Yapısal Benzerlik İndeksi Yöntemi (YBIY) (Structural Similarity Index) ile test edilmiştir. YBIY iki resim arasındaki benzerliğin ölçülmesi için geliştirilmiş, Karesel Ortalama Hata’nın (KOH) geliştirilmiş bir sürümü olan ve sık kullanılan bir yöntemdir. Bu yöntem, karşılaştırılan görüntülerden birisini mutlak doğru olarak kabul ederek, diğer görüntünün bu görüntüden sapmasını tespit etmektedir. Görüntünün kontrast ve spektral özelliklerini yanı sıra, yapısal bozulmalarını da hesaplamaya kattığından çalışma için uygun yöntem olarak belirlenmiş ve uygulanmıştır. Bulutlu görüntülerdeki bulutların giderilmesi uzaktan algılama disiplini üzerinde çalışanların uzun zamandır çalıştığı bir konudur. Sis etkisinin giderilmesi için bazı spektral yöntemler geliştirilmiş olsa da, geçirimsiz bulutların giderilmesi ancak farklı zamanlı uydu görüntülerinden bilgi aktarımı ile gerçekleşmektedir. Bu çalışmada, yapılan diğer çalışmalarda kazanılan bulut belirleme başarımının sonrasında bu bilgi kullanılarak görüntüde bulunan bulutların, aynı bölgeden çekilmiş farklı zamanlı görüntülerden bilgi aktarımı ile bulutsuz hale getirilmesi sağlanmıştır. Diğer bulutsuz görüntü elde etme yöntemlerinin yanı sıra, bulutlu alanların bulutsuz görüntülerden klonlanması sırasında, görüntülerin spektral ve yapısal özelliklerini korumak ön planda tutulmuştur. Farklı görüntü benzerlik ve görüntü kalitesi yöntemleri kullanılarak sadece görsellik önde tutulmadan spektral ve yapısal bilgiyi de koruyan bir yöntem geliştirilmiştir.One of the main sources of noises in remote sensing satellite images are regional clouds and shadows of these clouds caused by atmospheric conditions. In many studies, these clouds and shadows are masked with multitemporal images taken from the same area to decrease effects of misclassification and deficiency in different image processing techniques, such as change detection and NDVI calculation. This problem is surpassed in many studies by mosaicking with different images obtained from different acquisition dates of the same region. The main step of all these studies that cover cloud cloning or cloud detection is the detection of clouds from a satellite image. In this study, clouds and shadow patches are classified by using a spectral feature based rule set created after segmentation process of Landsat 8 image. Not only spectral characteristics but also structural parameters like pattern, area and dimension are used to detect clouds and shadows. Information of cloud projection is used to strengthen cloud shadow classification. Rule set of classification is developed within a transferable approach to reach a scene independent solution. Results are tested with different satellite images from different areas to test transferability and compared to other state-of art methods in the literature. Detection of clouds and cloud shadows features correctly is the main step of cloning procedure to create cloudless image from multitemporal image dataset. Multitemporal image dataset is used to find best image to clone cloud image. Choosing best image for cloning process is an important step for reliable cloning. Statistical and seasonal similarity tests are used to find best image to clone cloud covered image. Vector intersections are used to find cloudless images between multitemporal dataset. Flood Fill method is used to create cloudless image from cloud covered image by using information extraction from cloudless images in dataset. Accuracy of cloning process is tested by using SSIM index to find structural and spectral similarity to cloudless image. All cloning results are tested with different image from different regions to check transferability of study. This study can be regarded as a scientific approach to create cloudless image mosaics for each kind of application. Method in this thesis is a scientific approach to well-known methods of famous cloudless mosaic generation methods of Google, Mapbox Co. etc. for creation of visually good-looking base maps for web maps.DoktoraPh.D

    Two-Phase Object-Based Deep Learning for Multi-Temporal SAR Image Change Detection

    Get PDF
    Change detection is one of the fundamental applications of synthetic aperture radar (SAR) images. However, speckle noise presented in SAR images has a negative effect on change detection, leading to frequent false alarms in the mapping products. In this research, a novel two-phase object-based deep learning approach is proposed for multi-temporal SAR image change detection. Compared with traditional methods, the proposed approach brings two main innovations. One is to classify all pixels into three categories rather than two categories: unchanged pixels, changed pixels caused by strong speckle (false changes), and changed pixels formed by real terrain variation (real changes). The other is to group neighbouring pixels into superpixel objects such as to exploit local spatial context. Two phases are designed in the methodology: (1) Generate objects based on the simple linear iterative clustering (SLIC) algorithm, and discriminate these objects into changed and unchanged classes using fuzzy c-means (FCM) clustering and a deep PCANet. The prediction of this Phase is the set of changed and unchanged superpixels. (2) Deep learning on the pixel sets over the changed superpixels only, obtained in the first phase, to discriminate real changes from false changes. SLIC is employed again to achieve new superpixels in the second phase. Low rank and sparse decomposition are applied to these new superpixels to suppress speckle noise significantly. A further clustering step is applied to these new superpixels via FCM. A new PCANet is then trained to classify two kinds of changed superpixels to achieve the final change maps. Numerical experiments demonstrate that, compared with benchmark methods, the proposed approach can distinguish real changes from false changes effectively with significantly reduced false alarm rates, and achieve up to 99.71% change detection accuracy using multi-temporal SAR imagery

    Graph-based Data Modeling and Analysis for Data Fusion in Remote Sensing

    Get PDF
    Hyperspectral imaging provides the capability of increased sensitivity and discrimination over traditional imaging methods by combining standard digital imaging with spectroscopic methods. For each individual pixel in a hyperspectral image (HSI), a continuous spectrum is sampled as the spectral reflectance/radiance signature to facilitate identification of ground cover and surface material. The abundant spectrum knowledge allows all available information from the data to be mined. The superior qualities within hyperspectral imaging allow wide applications such as mineral exploration, agriculture monitoring, and ecological surveillance, etc. The processing of massive high-dimensional HSI datasets is a challenge since many data processing techniques have a computational complexity that grows exponentially with the dimension. Besides, a HSI dataset may contain a limited number of degrees of freedom due to the high correlations between data points and among the spectra. On the other hand, merely taking advantage of the sampled spectrum of individual HSI data point may produce inaccurate results due to the mixed nature of raw HSI data, such as mixed pixels, optical interferences and etc. Fusion strategies are widely adopted in data processing to achieve better performance, especially in the field of classification and clustering. There are mainly three types of fusion strategies, namely low-level data fusion, intermediate-level feature fusion, and high-level decision fusion. Low-level data fusion combines multi-source data that is expected to be complementary or cooperative. Intermediate-level feature fusion aims at selection and combination of features to remove redundant information. Decision level fusion exploits a set of classifiers to provide more accurate results. The fusion strategies have wide applications including HSI data processing. With the fast development of multiple remote sensing modalities, e.g. Very High Resolution (VHR) optical sensors, LiDAR, etc., fusion of multi-source data can in principal produce more detailed information than each single source. On the other hand, besides the abundant spectral information contained in HSI data, features such as texture and shape may be employed to represent data points from a spatial perspective. Furthermore, feature fusion also includes the strategy of removing redundant and noisy features in the dataset. One of the major problems in machine learning and pattern recognition is to develop appropriate representations for complex nonlinear data. In HSI processing, a particular data point is usually described as a vector with coordinates corresponding to the intensities measured in the spectral bands. This vector representation permits the application of linear and nonlinear transformations with linear algebra to find an alternative representation of the data. More generally, HSI is multi-dimensional in nature and the vector representation may lose the contextual correlations. Tensor representation provides a more sophisticated modeling technique and a higher-order generalization to linear subspace analysis. In graph theory, data points can be generalized as nodes with connectivities measured from the proximity of a local neighborhood. The graph-based framework efficiently characterizes the relationships among the data and allows for convenient mathematical manipulation in many applications, such as data clustering, feature extraction, feature selection and data alignment. In this thesis, graph-based approaches applied in the field of multi-source feature and data fusion in remote sensing area are explored. We will mainly investigate the fusion of spatial, spectral and LiDAR information with linear and multilinear algebra under graph-based framework for data clustering and classification problems
    corecore