42 research outputs found
4D Reconstruction and Visualization of Cultural Heritage: Analysing our Legacy Through Time
Temporal analyses and multi-temporal 3D reconstruction are fundamental for the preservation and maintenance of all forms of Cultural Heritage (CH) and are the basis for decisions related to interventions and promotion. Introducing the fourth dimension of time into three-dimensional geometric modelling of real data allows the creation of a multi-temporal representation of a site. In this way, scholars from various disciplines (surveyors, geologists, archaeologists, architects, philologists, etc.) are provided with a new set of tools and working methods to support the study of the evolution of heritage sites, both to develop hypotheses about the past and to model likely future developments. The capacity to “see” the dynamic evolution of CH assets across different spatial scales (e.g. building, site, city or territory) compressed in diachronic model, affords the possibility to better understand the present status of CH according to its history. However, there are numerous challenges in order to carry out 4D modelling and the requisite multi-data source integration. It is necessary to identify the specifications, needs and requirements of the CH community to understand the required levels of 4D model information. In this way, it is possible to determine the optimum material and technologies to be utilised at different CH scales, as well as the data management and visualization requirements. This manuscript aims to provide a comprehensive approach for CH time-varying representations, analysis and visualization across different working scales and environments: rural landscape, urban landscape and architectural scales. Within this aim, the different available metric data sources are systemized and evaluated in terms of their suitability
Methodology for assessment of the accessibility of a brown coal deposit with Analytical Hierarchy Process and Weighted Linear Combination
Comparison of HYPERION and ALI satellite imagery classification
Celem przeprowadzonych badan było porównanie wyników klasyfikacji obrazów satelitarnych - hiperspektralnych: HYPERION i wielospektralnych: ALI, zarejestrowanych w zakresach spektralnych podobnych do obrazu: LANDSAT. Testy prowadzono na obszarze leżącym na wschód od aglomeracji krakowskiej, dla którego dysponowano obrazami z platformy EO – 1 zarejestrowanymi w 2006 roku, dzięki projektowi KBN (nr 3T 09D 09429). W badaniach wykorzystano oprogramowanie specjalistyczne (ENVI 4.1) dedykowane opracowaniom danych teletedetekcyjnych. Obrazy HYPERION zostały wstępnie przetworzone w celu usunięcia zakłóceń spowodowanych wpływem atmosfery i tzw. efektem „smiling”. Klasyfikacje przeprowadzono tylko metodami tradycyjnie wykorzystywanymi w przetwarzaniu obrazów wielospektralnych, czyli za pomocą klasyfikacji nienadzorowanej i nadzorowanej. Założenie metodyczne porównania wyników klasyfikacji polegało na wykorzystaniu dla obu obrazów tych samych uczących pól treningowych i podobnych pól kontrolnych wykorzystywanych do oceny dokładności. Ponadto wszystkie parametry zastosowanych algorytmów były równie_ identyczne dla obu obrazów. Pola treningowe i testowe wybierano manualnie z wykorzystaniem kompozycji barwnych. W trakcie prowadzenia testów zaistniała konieczność zredukowania liczby analizowanych kanałów obrazu HYPERION, ponieważ w przeciwnym razie nie uzyskiwano zadawalających wyników klasyfikacji. W takim przypadku dokładność klasyfikacji obrazu HYPERION była wyższa ni_ dokładność klasyfikacji obrazu ALI. Natomiast wynik klasyfikacji wszystkich kanałów obrazu HYPERION albo w ogóle był nie do zaakceptowania, albo wynik klasyfikacji był znacznie gorszy ni_ w przypadku ALI i ograniczonej liczby kanałów HYPERION.The main aim of the research was to compare the results of satellite image classification: HYPERION and ALI, recorded in a spectral range similar to LANDSAT. Analyses were performed using the test area to the east of Krakow. Satellite iamges were obtained in 2006 thanks to scientific project KBN (no. 3T 09D 09429). The image processed with ENVI. HYPERION was initially preprocessed to remove so-called atmospheric effects, and so-called “similing” effect. The classification was performed using conventional spectral methods: unsupervised and supervised classification. The background of the comparison was applied in the same training and control area, and the same parameters of classification. Training and control areas ware selected using colour compositions. In the research, a need to reduce the amount of HYPERION channels emerged, otherwise the classification results would not be possible to interpret. In such case, the accuracy of HYPERION channel reduction classification was higher than that of ALI. The result of classification of all HYPERION image channels, however, was either completely unacceptable, or the classification result was much worse than in the case of ALI and limited number of HYPERION channels
NMT (GRID/TIN) analysis - OKI data example
Przedmiotem prezentowanych analiz był numeryczny model terenu (NMT) w postaci regularnej i nieregularnej siatki (GRID i TIN - Triangulated Irregular Network). Do budowy NMT wykorzystano dane źródłowe zgromadzone w OKI (Ośrodek Koordynacyjno-
Informacyjny przy Regionalnym Zarządzie Gospodarki Wodnej w Krakowie). Wykorzystując dane źródłowe tworzono model TIN, a następnie GRID wykorzystując oprogramowanie Terrain Analyst i aplikacje IT-GIS OKI. Następnie porównywano wyniki modelu GRID z wysokościami z danych źródłowych. Celem prac badawczych była analiza rozbieżności modelu GRID w zależności od wykorzystywanego algorytmu i od wielkości oczka siatki (3m, 2.5m, 2m, 1.5m i 1m). Na podstawie przeprowadzonych badan można sformułować wniosek, _e wyniki obu algorytmów różnią sie od siebie, a GRID wygenerowany za pomocą aplikacji IT-GIS OKI jest bardziej zgodny z wartościami wysokości w punktach pomiarowych w porównaniu z modelem GRID wygenerowanym za pomocą Terrain Analyst. Wzrost rozdzielczości powoduje generalnie zmniejszenie rozbieżności, ale jedynie dla 1 % punktów. Odchyłki w ponad 80% są poniżej +/- 10 cm, a ponad 99% różnic znajduje się w zakresie +/- 60 cm. Podsumowując można sformułować ogólny wniosek, że testowany NMT w postaci GRID o oczku 3m jest wystarczający dla modelowania stref zagrożenia powodziowego,
przyjąwszy dokładność założona w specyfikacji technicznej OKI http://oki.krakow.rzgw.gov.pl/).The subject of the analysis contained herein is the Digital Terrain Model (NMT) in a form of GRID and TIN. Initial data gathered in OKI (Coordination-Information Centre in Regional Water Management Office in Krakow) were applied to NMT generation. With the initial data, TIN was calculated and afterwards, GRID in Terrain Analyst and IT-GIS OKI application. Then, GRID was compared with the initial data. The main issue of the study was to analyse the discrepancy obtained from different algorithms, and with varying GRID resolution (3m, 2.5m, 2m, 1.5m i 1m). From the research made, it can be concluded that the two algorithms (Terrain Analyst and IT-GIS OKI) give different results. The accuracy of GRID generated with IT-GIS OKI application was higher than that obtained using the Terrain Analyst. The smaller the cell size in GRID, the better is the GRID accuracy, but the improvements appear only in 1% of points. There are more than 80% discrepancies below +/- 10 cm, and more than 99% discrepancies below +/- 60 cm. To summarise, it can be stated that GRID of 3 m cell size, generated using IT-GIS OKI application is accurate enough for flood area estimation, according to OKI technical specification (http://oki.krakow.rzgw.gov.pl/)
Validation of measurement of land parcel areas on ortophotomap
W niniejszym artykule zaprezentowano wybrane zagadnienia będące przedmiotem badań w ramach projektu UE Validation of methods for measurement of land parcel areas realizowanego i koordynowanego w AGH (Kraków) w 2005 roku. W ramach tego projektu wykonywano pomiary teledetekcyjne (dwa eksperymenty pomiarowe - AGH) oraz pomiary GPS (jeden eksperyment - UWM w Olsztynie). Pomiary zostały zaplanowane i opracowane zgodnie z normą ISO 5725 przez USI Gemblaux w Belgii. Celem projektu było opracowanie metodyki kalibracji pomiarów powierzchni działek rolnych. W publikacji przedstawiono krótką analizę obowiązującego podejścia do tego zagadnienia oraz opisano proponowaną przez autorkę alternatywną metodę kalibracji. W metodzie tej parametrem wykorzystywanych dla określania dokładności powierzchni działki rolnej jest błąd położenia punktu charakteryzujący dokładność pomiaru. Do eksperymentu teledetekcyjnego wykorzystano lotnicze i satelitarne ortofotomapy o rozdzielczości 0,2-2,5 m. 36 działek rolnych było wektoryzowanych przez 6-12 operatorów. W 1 eksperymencie wykonano 3888 pomiarów (w 2 eksperymencie - 1296). Wyniki opracowano zgodnie z normą SO 5725. Dla ortofotomap o bardzo wysokiej rozdzielczości (wielkość piksela O,2-1 m) otrzymano błąd położenia punktu: ok. +/-2 m, dla obrazów satelitarnych EROS (2 m) i SPOT (2,5 m) uzyskano błąd położenia punktu: ok. +/-5 m. Jako optymalny zestaw dla kalibracji metodyki określania powierzchni działek rolnych w oparciu o ortofotomapy zaproponowano: 30-40 działek, 3 operatorów, 3 dni pomiarowe i 3 powtórzenia.In the paper chosen results of the UE project Validation of methods for measurement of land parcel areas are presented. The project was realized and coordinated at the AGH in Krakow. During the project 3 measurement experiments were performed: 2 remote sensing (AGH Kraków) and 1 GPS (UWM Olsztyn). The experiment was prepared and statistical analyzed at USI Gembleux. The aim of the study was to elaborate the validation method for land parcel measurements. In the paper short discussion of the existing approach is presented and alternative method proposed by author is described. Results of remote sensing experiments are shown. Point position error, characterizing measurements technique, was assumed as a parameter for area accuracy assessment. In RS experiments airborne and satellite ortophotomaps, with pixel size of 0.2-2.5 m were applied. 36 land parcels were digitized by 6-12 operators. In experiment 1 - 3888 measurements were made (1296 - in experiment 2). Data were according ISO 5725 analyzed. For VHR ortophotomaps (pixel size 0.2-1 m) we obtained the point position error of ca. +/- 2m. For EROS and SPOT (pixel size 2 and 2.5 m) point position error was ca +/-5 m. An optimal measurement set for proposal of validation method for RS is: 30-40 parcels, 3 operators, 3 days and 3 repetitions
GIS – a tool in decision support – risk caused by data quality effect
Systemy GIS oferują bogate narzędzia analityczne do przetwarzania danych, które również w Polsce stopniowo zaczynają być wykorzystywane do wspomagania decyzji. Pojawia się w związku z tym pytanie: jakie jest ryzyko związane z decyzją podjętą na podstawie analiz GIS? Na ryzyko podjęcia nieprawidłowej decyzji ma wpływ na pewno jakość danych źródłowych znajdujących się w bazie. Zwykle jednak nie tylko dane są podstawą podjęcia decyzji, ale wyniki ich przetworzeń. Dane źródłowe podlegają przekształceniom, są wykorzystywane jako dane wejściowe w różnych modelach. Wynik analizy jest obciążony zarówno niedokładnością danych źródłowych, jak również niedokładnością wykorzystywanych algorytmów i nieadekwatnością modeli do rzeczywistości. W systemach GIS, tworzonych w Polsce, rzadko gromadzi się informacje o dokładności danych źródłowych. Z kolei wykorzystywane oprogramowanie GIS tylko sporadycznie umożliwia analizę wpływu dokładności danych na wynik przeprowadzonej analizy. Problem ten jest pozostawiony do rozwiązania indywidualnemu użytkownikowi. W niektórych narzędziach GIS ma on do wyboru najbardziej, popularną obecnie, metodę Monte Carlo. Metoda ta, pomimo, że jest uniwersalna, tzn. może być wykorzystywana właściwie we wszystkich analizach GIS, ma dwie wady: analizy trzeba wykonywać setki razy, żeby oszacować dokładność wyniku analizy, a poza tym nie pozwala ona na określanie przestrzennego rozkładu dokładności analizy. Alternatywą są metody analityczne lub empiryczne, o ile znane są wykorzystywane w systemie GIS algorytmy obliczeniowe. Przedstawiona powyżej problematyka, dotycząca wpływu dokładności danych na ryzyko podejmowania decyzji z wykorzystaniem systemów GIS, została omówiona szerzej w niniejszej publikacji. Porównano w niej wyniki analizy przestrzennych wykonanej z uwzględnieniem wpływu dokładności danych źródłowych oraz bez uwzględnienia tego faktu. Problem przenoszenia się dokładności danych źródłowych na wynik analizy przestrzennej pokazano na przykładzie wyboru nowej lokalizacji pod zabudowę. W analizie uwzględniono dokładność numerycznego modelu terenu (DTM). Umożliwiło to oszacowanie ryzyka związanego z podjęciem decyzji wyboru lokalizacji i koniecznością wykonania nieplanowanych prac ziemnych w celu wyrównaniem terenu.There are many GIS tools for data analysis, also applied in Poland to decision support. The following question can appear: what is the risk of a decision based on the GIS analysis? GIS data quality certainly affects on the decision risk. Usually not only raw data are analyzed, but also the results of data transformations. Data are often transformed in GIS systems and used in different models as input data. Results of transformation are influenced by the original data quality (especially accuracy) and model/algorithm reliability.
In GIS databases in Poland, information on data quality is very rare gathered. On the other hand, GIS software only occasionally delivers tools for algorithm and function accuracy analysis. The problem is left individually to the user. In some software, the popular Monte Carlo method is implemented. The method is very universal, it means that can be applied in almost all GIS analyses Monte Carlo has also disadvantages: analyses must be carried out hundreds times, and the spatial distribution of the results error is difficult to obtain. Analytical or empirical methods are an alternative if the algorithms implemented in GIS software are known.
In the paper, the risk connected to the GIS analyses based on the data with known accuracy is presented. Spatial analysis is performed by hard methods, without data quality consideration and assuming some data uncertainty. Error propagation is presented in the paper based on a new urban area example and the DTM accuracy was considered in the spatial analysis. The risk of ground leveling caused by DTM inaccuracy was evaluated
An impact of the digital terrain relief model inaccuracy on a slopes and bearings error
Cyfrowy Model Rzeźby Terenu (CMRT) wykorzystywany jest powszechnie w Systemach Informacji Geograficznej, między innymi w celu obliczenia spadków i ekspozycji terenu. Mogą one być dalej wykorzystywane do analiz typu np.: wybór optymalnej lokalizacji obiektu lub określenie najkrótszej drogi. CMRT może być także bezpośrednio wykorzystywany do analiz np. zagrożeń powodziowych. Od poprawności, wiarygodności modelu zależy wynik przeprowadzonej analizy. Cyfrowy model terenu występuje w postaci siatki trójkątów tzw. TIN lub kwadratów, tzw. GRID. Pomimo, że model typu TIN jest bardziej „reprezentatywny”, lepiej „przylega” do rzeczywistej powierzchni terenu do analiz przestrzennych wykorzystuje się zwykle model, typu GRID. Gridowe pakiety GIS.’owe zawierają moduły do generowania spadków i azymutów oparte o różne algorytmy obliczeniowe. W Zakładzie Fotogrametrii i Informatyki Teledetekcyjnej AGH w Krakowie badano wpływ algorytmu obliczeniowego na wartości spadków i ekspozycji /Drzewiecki. W,Mularz S., Pirowski T., 1999/.W niniejszym artykule przedstawiony został natomiast problem wpływu niedokładności modelu na błąd nachyleń i azymutów, a nie wpływu różnych algorytmów na poprawność określenia spadków i azymutów
ON-LINE GIS ANALYSIS AND IMAGE PROCESSING FOR GEOPORTAL KIELCE/POLAND DEVELOPMENT
GIS databases are widely available on the Internet, but mainly for visualization with limited functionality; very simple queries are
possible i.e. attribute query, coordinate readout, line and area measurements or pathfinder. A little more complex analysis (i.e.
buffering or intersection) are rare offered. Paper aims at the concept of Geoportal functionality development in the field of GIS
analysis. Multi-Criteria Evaluation (MCE) is planned to be implemented in web application. OGC Service is used for data
acquisition from the server and results visualization. Advanced GIS analysis is planned in PostGIS and Python programming. In the
paper an example of MCE analysis basing on Geoportal Kielce is presented. Other field where Geoportal can be developed is
implementation of processing new available satellite images free of charge (Sentinel-2, Landsat 8, ASTER, WV-2). Now we are
witnessing a revolution in access to the satellite imagery without charge. This should result in an increase of interest in the use of
these data in various fields by a larger number of users, not necessarily specialists in remote sensing. Therefore, it seems reasonable
to expand the functionality of Internet's tools for data processing by non-specialists, by automating data collection and prepared
predefined analysis
