113 research outputs found

    Big Data: How Geo-information Helped Shape the Future of Data Engineering

    Get PDF
    Very large data sets are the common rule in automated mapping, GIS, remote sensing, and what we can name geo-information. Indeed, in 1983 Landsat was already delivering gigabytes of data, and other sensors were in orbit or ready for launch, and a tantamount of cartographic data was being digitized. The retrospective paper re-visits several issues that geo-information sciences had to face from the early stages on, including: structure ( to bring some structure to the data registered from a sampled signal, metadata); processing (huge amounts of data for big computers and fast algorithms); uncertainty (the kinds of errors, their quantification); consistency (when merging different sources of data is logically allowed, and meaningful); ontologies (clear and agreed shared definitions, if any kind of decision should be based upon them). All these issues are the background of Internet queries, and the underlying technology has been shaped during those years when geo-information engineering emerged

    Préface

    No full text
    inboo

    JavaScript and open data

    No full text
    International audienceA browser, an Internet connection, and some time to spend taming the JavaScript language are all that is needed to reach out into the vast reservoir of data on the Web.JavaScript and Open Data invites the reader on a tour of JavaScript with a focus on accessing and presenting data. The book details the features introduced by JavaScript standards since 2015. The first two parts, “Core JavaScript” and “Client-Side JavaScript”, review these features whilst the part on “Applications” introduces some of the basic skills of a “data scientist”.Based upon ES6 and ES7, the latest standards, this JavaScript training will help the reader to explore, without any additional tools, the digital universe of the Web in the era of Big Data: a domain which anyone should be able to visit in their own way without hidden intermediaries

    Knowledge Fusion, Data Quality and Learning

    No full text
    International audienc

    Multi-Source Geo-Information Fusion in Transition: A Summer 2019 Snapshot

    No full text
    Since the launch of Landsat-1 in 1972, the scientific domain of geo-information has been incrementally shaped through different periods, due to technology evolutions: in devices (satellites, UAV, IoT), in sensors (optical, radar, LiDAR), in software (GIS, WebGIS, 3D), and in communication (Big Data). Land Cover and Disaster Management remain the main big issues where these technologies are highly required. Data fusion methods and tools have been adapted progressively to new data sources, which are augmenting in volume, variety, and in quick accessibility. This Special Issue gives a snapshot of the current status of that adaptation, as well as looking at what challenges are coming soon

    Numérisation d'un siècle de paysage ferroviaire français : recul du rail, conséquences territoriales et coût environnemental

    No full text
    National audienceThe reconstruction of geographical data over a century, allows to figuring out the evolution of the French railway landscape, and how it has been impacted by major events (eg.: WWII), or longer time span processes : industry outsourcing, metropolization, public transport policies or absence of them. This work is resulting from the fusion of several public geographical data (SNCF, IGN), enriched with the computer-assisted addition of multiple data gathered on the Internet (Wikipedia, volunteer geographic information). The dataset compounds almost every rail stations (even simple stops) and railway branch nodes, whose link to their respective rail lines allows to build the underlying consistent graph of the network. Every rail line has a "valid to" date (or approx) so that time evolution can be displayed. The present progress of that reconstruction sums up to roughly 90% of what is expected (exact total unknown). This allows to consider temporal demographic analysis (how many cities and towns served by the railway since 1925 up on today), and environmental simulations as well (CO2 cost by given destination ).La reconstitution de données géographiques sur une longue période permet de visualiser l'évolution du paysage ferroviaire français sur un siècle, au gré des grands événements de courte durée (guerre) ou de plus longue durée (délocalisation de secteurs industriels, métropolisation). Ce travail est le fruit d'opérations de fusion d'informations géographiques provenant de sources publiques (SNCF, IGN) et de la collecte assistée par ordinateur de sources « volontaires » ouvertes sur l'Internet (Wikipédia et sites amateurs). Les données numériques codées sont les gares (y compris simples arrêts) et noeuds d'embranchement associés à leurs lignes respectives, correctement géocodés et ordonnés afin de reconstituer le graphe cohérent du réseau. Les dates de validité des lignes permettent d'en déduire l'état à une date donnée. L'état actuel de la reconstitution, environ 90% du total, permet d'envisager certaines évaluations démographiques (communes servies par le réseau ferré entre 1925 et aujourd'hui) et environnementales (émissions de CO 2 simulées par trajet)

    Apprentissage automatique et fusion de connaissances spatio-temporelles

    No full text
    National audienceDès que deux affirmations, concernent le même objet, ou le meme etat du monde réel, on tend à les rapprocher, à évaluer leur compatibilité, pour en déduire de nouvelles conséquences. Le partage de la localisation spatiale implique ce besoin de fusion. Mais, les données relatives au monde réel sont souvent porteuses d'incertitude et d'ambiguité. Elles sont observées de manière imparfaite et sont liées à des concepts souvent similaires, mais différents. Ceci impose de rapprocher les concepts avant de rapprocher les données, afin que le mécanisme de raisonnement tienne compte des erreurs possibles et garantisse la validité des inférences, à défaut de garantir la vérité. Nous présentons plusieurs résultats : - fusion des concepts (alignement d'ontologies), par apprentissage et analyse des concepts formels (treillis de Galois); - étude préalable des "causes possibles" par un apprentissage à base de réseaux bayésiens, sur des séries temporelles de données spatiales; - détection de conflits (incohérences logiques) entre informations spatiales et sur leur révision pour restaurer la cohérence. L'apprentissage artificiel peut ainsi aider à traiter les situations où données numériques et informations qualitatives sont souvent mélées

    NUMERISATION D'UN SIECLE DE PAYSAGE FERROVIAIRE FRANÇAIS : recul du rail, conséquences territoriales et coût environnemental

    No full text
    National audienceThe reconstruction of geographical data over a century, allows to figuring out the evolution of the French railway landscape, and how it has been impacted by major events (eg.: WWII), or longer time span processes : industry outsourcing, metropolization, public transport policies or absence of them. This work is resulting from the fusion of several public geographical data (SNCF, IGN), enriched with the computer-assisted addition of multiple data gathered on the Internet (Wikipedia, volunteer geographic information). The dataset compounds almost every rail stations (even simple stops) and railway branch nodes, whose link to their respective rail lines allows to build the underlying consistent graph of the network. Every rail line has a "valid to" date (or approx) so that time evolution can be displayed. The present progress of that reconstruction sums up to roughly 90% of what is expected (exact total unknown). This allows to consider temporal demographic analysis (how many cities and towns served by the railway since 1925 up on today), and environmental simulations as well (CO2 cost by given destination ).La reconstitution de données géographiques sur une longue période permet de visualiser l'évolution du paysage ferroviaire français sur un siècle, au gré des grands événements de courte durée (guerre) ou de plus longue durée (délocalisation de secteurs industriels, métropolisation). Ce travail est le fruit d'opérations de fusion d'informations géographiques provenant de sources publiques (SNCF, IGN) et de la collecte assistée par ordinateur de sources « volontaires » ouvertes sur l'Internet (Wikipédia et sites amateurs). Les données numériques codées sont les gares (y compris simples arrêts) et noeuds d'embranchement associés à leurs lignes respectives, correctement géocodés et ordonnés afin de reconstituer le graphe cohérent du réseau. Les dates de validité des lignes permettent d'en déduire l'état à une date donnée. L'état actuel de la reconstitution, environ 90% du total, permet d'envisager certaines évaluations démographiques (communes servies par le réseau ferré entre 1925 et aujourd'hui) et environnementales (émissions de CO 2 simulées par trajet)
    • …
    corecore