3 research outputs found

    Classification automatique de nuages de points issus de LiDAR aéroporté par réseau à convolutions continues

    Get PDF
    Les données issues de LiDAR aéroporté permettent de modéliser de façon précise la topographie d’un territoire et sont utilisées dans différents contextes. Le processus de classification du nuage de points permet d’assigner une classe d’occupation du sol à chacun des points. La quantité et la répartition non homogène de ces points complexifient grandement l’automatisation de cette tâche. Pour certaines classes d’objets, les algorithmes traditionnels ne réussissent pas à classifier correctement les points avec un niveau de qualité satisfaisant. C’est le cas pour les classes "bâtiments", "plans d’eau" et "végétation". Ce faisant, cette étape nécessite une intervention manuelle importante afin de corriger la classification effectuée automatiquement, augmentant ainsi le coût de valorisation de ces données. Le succès des algorithmes d’apprentissage profond en vision par ordinateur a mené à une révolution dans différents domaines, notamment en traitement d’images satellitaires. Ces succès ont inspiré diverses recherches sur la classification de nuages de points. La plupart de ces recherches portent sur le traitement de nuages de points issus de LiDAR mobile terrestre, mais elles peuvent très bien être adaptées pour le traitement de données LiDAR aéroporté. Cette recherche vise à utiliser une méthode d’apprentissage profond pour permettre une automatisation du processus de classification de nuages de points aéroportés, en évaluant une méthode sur deux jeux de données de contextes variés (urbain et rural), puis en modifiant la méthode de sélection des sous-ensembles de points pour qu’elle soit adaptée à la densité locale. La méthode originale a été testée sur deux jeux de données couvrant près de 16 000 km2, près de Montréal (QC) et de St-Jean (NB) et l’amélioration a été évaluée sur le jeu de données de référence DALES. La méthodologie utilisée est basée sur une adaptation de l’opération de convolution de Boulch (2020) appelée ConvPoint. Cette opération de convolution continue a été utilisée dans une architecture de type encodeur-décodeur qui permet de classifier les points directement, sans avoir recours à une étape de sursegmentation. En expérimentant avec différentes configurations, nous avons obtenu d'excellents résultats d'Intersection-sur-Union (IoU) pour les classes "Végétation moyenne-haute" (93 %) et "Bâtiment" (86 %) sur les ensembles de données de Montréal et Saint-Jean. La taille de bloc adaptative a conduit à certains gains de performances sur le jeu de données de référence DALES ainsi qu'à une sensibilité réduite aux hyperparamètres de la ConvPoint

    Deep Learning-Based Classification of Large-Scale Airborne LiDAR Point Cloud

    No full text
    Airborne LiDAR data allow the precise modeling of topography and are used in multiple contexts. To facilitate further analysis, the point cloud classification process allows the assignment of a class, object or feature, to each point. This research uses ConvPoint, a deep learning method, to perform airborne point cloud classification at scale, in rural and urban contexts. Specifically, our experiments are located near Montreal (QC) and Saint-Jean (NB) and our approach is designed to classify five classes; we used “Building”, “Ground”, “Water”, “Low Vegetation” and “Mid-High Vegetation”. Experimenting with different configurations, we achieved excellent Intersection-over-Union results for the “Mid-High Vegetation” (93%) and “Building” (86%) classes on both datasets and provide insights to improve processing times as well as accuracy

    High-Resolution Semantically Consistent Image-to-Image Translation

    No full text
    Deep learning has become one of remote sensing scientists' most efficient computer vision tools in recent years. However, the lack of training labels for the remote sensing datasets means that scientists need to solve the domain adaptation (DA) problem to narrow the discrepancy between satellite image datasets. As a result, image segmentation models that are then trained, could better generalize and use an existing set of labels instead of requiring new ones. This work proposes an unsupervised DA model that preserves semantic consistency and per-pixel quality for the images during the style-transferring phase. This article's major contribution is proposing the improved architecture of the SemI2I model, which significantly boosts the proposed model's performance and makes it competitive with the state-of-the-art CyCADA model. A second contribution is testing the CyCADA model on the remote sensing multiband datasets, such as WorldView-2 and SPOT-6. The proposed model preserves semantic consistency and per-pixel quality for the images during the style-transferring phase. Thus, the semantic segmentation model, trained on the adapted images, shows substantial performance gain compared to the SemI2I model and reaches similar results as the state-of-the-art CyCADA model. The future development of the proposed method could include ecological domain transfer, a priori evaluation of dataset quality in terms of data distribution, or exploration of the inner architecture of the DA model
    corecore