14 research outputs found

    An adverbial approach for the formal specification of topological constraints involving regions with broad boundaries

    Get PDF
    Topological integrity constraints control the topological properties of spatial objects and the validity of their topological relationships in spatial databases. These constraints can be specified by using formal languages such as the spatial extension of the Object Constraint Language (OCL). Spatial OCL allows the expression of topological constraints involving crisp spatial objects. However, topological constraints involving spatial objects with vague shapes (e.g., regions with broad boundaries) are not supported by this language. Shape vagueness requires using appropriate topological operators (e.g., strongly Disjoint, fairly Meet) to specify valid relations between these objects; otherwise, the constraints cannot be respected. This paper addresses the problem of the lack of terminology to express topological constraints involving regions with broad boundaries. We propose an extension of Spatial OCL based on a geometric model for objects with vague shapes and an adverbial approach for topological relations between regions with broad boundaries. This extension of Spatial OCL is then tested on an agricultural database

    Improving the geospatial consistency of digital libraries metadata

    Get PDF
    Consistency is an essential aspect of the quality of metadata. Inconsistent metadata records are harmful: given a themed query, the set of retrieved metadata records would contain descriptions of unrelated or irrelevant resources, and may even not contain some resources considered obvious. This is even worse when the description of the location is inconsistent. Inconsistent spatial descriptions may yield invisible or hidden geographical resources that cannot be retrieved by means of spatially themed queries. Therefore, ensuring spatial consistency should be a primary goal when reusing, sharing and developing georeferenced digital collections. We present a methodology able to detect geospatial inconsistencies in metadata collections based on the combination of spatial ranking, reverse geocoding, geographic knowledge organization systems and information-retrieval techniques. This methodology has been applied to a collection of metadata records describing maps and atlases belonging to the Library of Congress. The proposed approach was able to automatically identify inconsistent metadata records (870 out of 10,575) and propose fixes to most of them (91.5%) These results support the ability of the proposed methodology to assess the impact of spatial inconsistency in the retrievability and visibility of metadata records and improve their spatial consistency

    ONTOLOGY BASED QUALITY EVALUATION FOR SPATIAL DATA

    Get PDF

    Using OSM, Geo-tagged Flickr photos and authoritative data: A quality perspective

    Get PDF
    The appearance of OpenStreetMap (OSM) in 2004 sparked a phenomenon known as Volunteered Geographic Information (VGI). Today, VGI comes in many flavours (e.g. toponyms, GPS tracks, geo-tagged photos, micro-blogging or complete topographic maps) and from various sources. One subject that has attracted research interest from the early days of VGI is how good such datasets are and how to combine them with authoritative datasets. To this end, the paper explores three intertwined subjects from a quality point of view First, we examine the topo-semantic consistency of OSM data by evaluating a number of rules between polygonal and linear features and then paying special attention to quality of Points of Interest (POIs). A number of topo-semantic rules will be used to evaluate the valididy of features’ location. The focus then turns to the use of geo-tagged photos to evaluate the location and type of OSM data and to disambiguate topological issues that arise when different OSM layers overlap

    Methodology of evaluation and correction of geometric data topology in QGIS software

    Get PDF
    Geographical Information Systems (GIS) has revolutionised the process of collecting and processing data, therefore, more and more data recorded in an analogue form are transformed into the digital format. However, the process of generating vector models poses a risk of appearing defects of different types. A methodology of correcting common geometric and topological errors that appear in the manual vectorization of a raster model was presented in the paper. The research material was the vector layer including the digitized version of several dozens of drawings of spatial development plans. The paper also presents a procedure for creating a vector model of spatial data with attention paid to potential sources of errors which could be incurred at the stage of its creation as well as indicates methods for their prevention. The tools and plug-ins for evaluation and revision of geometric and topological correctness of a vector model implemented in QGIS software were mainly used in the survey. Elaborated algorithms are aimed at acceleration of data processing to allow their usage during that process. Indeed, proper conducting of spatial analyses needs to administer a data set which is free of errors. Only then, is it possible to obtain proper results and draw appropriate conclusions

    Handling Data Consistency through Spatial Data Integrity Rules in Constraint Decision Tables

    Get PDF

    Developing a model and a language to identify and specify the integrity constraints in spatial datacubes

    Get PDF
    La qualité des données dans les cubes de données spatiales est importante étant donné que ces données sont utilisées comme base pour la prise de décision dans les grandes organisations. En effet, une mauvaise qualité de données dans ces cubes pourrait nous conduire à une mauvaise prise de décision. Les contraintes d'intégrité jouent un rôle clé pour améliorer la cohérence logique de toute base de données, l'un des principaux éléments de la qualité des données. Différents modèles de cubes de données spatiales ont été proposés ces dernières années mais aucun n'inclut explicitement les contraintes d'intégrité. En conséquence, les contraintes d'intégrité de cubes de données spatiales sont traitées de façon non-systématique, pragmatique, ce qui rend inefficace le processus de vérification de la cohérence des données dans les cubes de données spatiales. Cette thèse fournit un cadre théorique pour identifier les contraintes d'intégrité dans les cubes de données spatiales ainsi qu'un langage formel pour les spécifier. Pour ce faire, nous avons d'abord proposé un modèle formel pour les cubes de données spatiales qui en décrit les différentes composantes. En nous basant sur ce modèle, nous avons ensuite identifié et catégorisé les différents types de contraintes d'intégrité dans les cubes de données spatiales. En outre, puisque les cubes de données spatiales contiennent typiquement à la fois des données spatiales et temporelles, nous avons proposé une classification des contraintes d'intégrité des bases de données traitant de l'espace et du temps. Ensuite, nous avons présenté un langage formel pour spécifier les contraintes d'intégrité des cubes de données spatiales. Ce langage est basé sur un langage naturel contrôlé et hybride avec des pictogrammes. Plusieurs exemples de contraintes d'intégrité des cubes de données spatiales sont définis en utilisant ce langage. Les designers de cubes de données spatiales (analystes) peuvent utiliser le cadre proposé pour identifier les contraintes d'intégrité et les spécifier au stade de la conception des cubes de données spatiales. D'autre part, le langage formel proposé pour spécifier des contraintes d'intégrité est proche de la façon dont les utilisateurs finaux expriment leurs contraintes d'intégrité. Par conséquent, en utilisant ce langage, les utilisateurs finaux peuvent vérifier et valider les contraintes d'intégrité définies par l'analyste au stade de la conception

    Joukkoistetun paikkatiedon laatu ja luotettavuus : Turun kaupunkiseudun pyöräilyverkosto OpenStreetMap-karttapalvelussa

    Get PDF
    Kansalaislähtöinen joukkoistettu paikkatieto on noussut varteenotettavaksi tietolähteeksi viranomaisten ja kaupallisen sektorin tuottaman auktoritatiivisen paikkatiedon rinnalle. Tuotantotavat poikkeavat toisistaan merkittävästi, mikä ilmenee joukkoistetun lopputuotteen laatuvaihteluna. Sitä aiheuttavat tavoitteiltaan ja taitotasoltaan kirjava kartoittajajoukko, tuotantoalustojen ominaisuudet ja avoin tuotantotapa, joka ei pakota vaatimustenmukaisuutta. Jotta joukkoistettua paikkatietoa voidaan luotettavasti hyödyntää auktoritatiivisessa yhteydessä, on ymmärrettävä sen laadullisia piirteitä. Niitä koskevaa kotimaista tutkimustietoa on vähän ja tiedon tarve on uusiutuva joukkoistetun paikkatiedon jatkuvasti päivittyessä ja rikastuessa teemoiltaan. Tutkielmassa tähän tarpeeseen pyrittiin vastaamaan vertaamalla joukkoistetun OpenStreetMap-karttapalvelun pyöräilyverkostotietoa Turun kaupungin ja sen ympäryskuntien ylläpitämän paikkatietoaineiston laatuvaatimuksiin. Laatu mitattiin ISO 19157:2013-standardin mukaisesti täydellisyyden, sijaintitarkkuuden ja topologisen eheyden laatuparametreille. Niitä määrällistettiin verkoston kokonaispituudella, keskimääräisellä etäisyydellä ja geometrisella yhdenmukaisuudella sekä kappalemääräisellä laskennalla. Alueellista vaihtelua arvioitiin visuaalisesti, keskihajonnalla ja tilastollisesti Anselinin paikallisella Moranin I -tunnusluvulla. Koska paikkatietoaineiston kokonaislaadun muodostaa kvantitatiivisen laadun lisäksi sopivuus käyttötarkoitukseen ja lisäksi kokonaislaadun molempien komponenttien yhteisvaikutus luotettavuuteen on aiemmassa tutkimuksessa jäänyt vähälle huomiolle, aineiston käytettävyyttä arvioitiin pyöräilyverkoston kartoitustarpeiden näkökulmasta laatuarvioon perustuen. Luotaava käytettävyysmittaus painotti pyöräilyverkoston kartoitustarpeille kriittisiä laatuparametreja käytettävyyttä ilmaisevassa aggregaatissa. Joukkoistetun paikkatiedon laatuun vaikuttavat tekijät ovat osin tilasidonnaisia. Tätä tutkittiin laatu- ja käytettävyysarvioiden tulosten alueellisen vaihtelun arviolla. OpenStreetMap-aineiston täydellisyyden ja sijaintitarkkuuden havaittiin olevan lähellä laatuvaatimusta ja osin täyttävän sen. Topologinen eheys osoittautui sen sijaan heikoksi. Käytettävyysmittaus puolestaan osoitti virheettömyyden vaatimuksen korostuvan sovellustarpeiden monimutkaistuessa. Sama aineisto voi soveltua hyvin yhteen käyttötarkoitukseen, mutta olla kelvoton toiseen. Kvantitatiivisen laadun ja käytettävyyden suuri alueellinen vaihtelu heikensi selvästi aineiston luotettavuutta. Vaikka laajoja yhtenäisiä hyvätasoisia alueita paikallisesti havaittiin, aineistotason luotettavuus oli välttävä. Tulokset osoittavat joukkoistetun paikkatiedon lunastavan osan sen hyödyntämiseen liittyvistä odotuksista, mutta sen luotettavuutta on vaikea ennakoida. Tämä viittaa laadunvarmistuksen jatkuvaan välttämättömyyteen sekä tarpeeseen asettaa laatumittauksen tavoitteet tapauskohtaisesti. Tällöin myös laatuparametreiltään tai alueellisesti osittain heikkolaatuista aineistoa voidaan käyttää sovelluskohteiden niin salliessa ja joukkoistetun paikkatiedon temaattisesta moninaisuudesta päästään erityyppisissä sovellusyhteyksissä hyötymään.Citizen-sourced volunteered geographic information (VGI) has emerged as a significant data source alongside authoritative spatial data produced by governmental agencies and the commercial sector. The modes of production differ substantially, resulting in variable quality in the crowdsourced final product. This variability stems from a diverse group of mappers in terms of objectives and skill levels, platform attributes, and an open production method that does not enforce conformity to standards. To reliably utilize crowdsourced spatial data in authoritative contexts, one must comprehend its quality attributes. There's a paucity of domestic research on this topic, and the need for information is recurrent, with VGI continually updating and diversifying in themes. This study aimed to address this gap by comparing the cycling network data from the crowdsourced OpenStreetMap service to the quality standards of spatial datasets maintained by the city of Turku and its surrounding municipalities. Quality was assessed based on the ISO 19157:2013 standard, focusing on completeness, positional accuracy, and topological integrity quality parameters. These were quantified by the total network length, average distance, geometric consistency, and count-based calculations. The regional variability was assessed both visually and statistically, using standard deviation and Anselin's local Moran's I index. Given that the overall quality of spatial datasets is not only defined by quantitative quality but also its suitability for intended use, and considering previous research has often overlooked the combined impact of these components on reliability, the usability of the dataset was evaluated from the perspective of cycling network mapping needs based on the quality assessment. This exploratory usability assessment emphasized quality parameters critical to cycling network mapping in an aggregate indicating usability. Factors influencing the quality of crowdsourced spatial data are partly location dependent. This was examined by analyzing the regional variability in the results of quality and usability assessments. The completeness and positional accuracy of the OpenStreetMap dataset were found to be close to the quality requirements and in some cases meeting them. However, topological integrity was notably weak. The usability assessment indicated an increased emphasis on the requirement for accuracy as application needs become more complex. The same dataset might be well-suited for one purpose but unsuitable for another. The significant regional variability in quantitative quality and usability markedly reduced the dataset's reliability. Even though extensive, consistently high-quality areas were observed locally, the dataset's overall reliability was found to be subpar. The results suggest that crowdsourced spatial data meets some of the expectations related to its utilization but remains a volatile data source in terms of reliability. This underscores the continuous necessity for quality assurance and the need to set quality assessment objectives on a case-by-case basis. This approach allows for the use of datasets that may be subpar in quality parameters or regional attributes, given the application permits, capitalizing on the thematic diversity of crowdsourced spatial data in various application contexts
    corecore