958 research outputs found

    Outil d'aide à l'interprétation automatique d'images de télédétection TM de Landsat pour la cartographie forestiÚre

    Get PDF
    L'utilisation de la tĂ©lĂ©dĂ©tection et du traitement d'images dans les pays en voie de dĂ©veloppement a pris une place de plus en plus importante au cours de la dĂ©cennie. Les techniques cartographiques modernes prĂ©sentent un Ă©norme potentiel dans la lutte pour la gestion et la conservation des forĂȘts. Les exigences de formation acadĂ©mique en tĂ©lĂ©dĂ©tection et en traitement d'images sont diffĂ©rentes des autres disciplines plus pointues. Elles sont habituellement offertes par les universitĂ©s au niveau des Ă©tudes supĂ©rieures, ou encore par formation continue incluant des stages de durĂ©e variable. Dans tous les cas, cette formation ne garantit pas suffisamment l'autonomie des utilisateurs de ces systĂšmes. Surtout dans les pays en voie de dĂ©veloppement oĂč les professionnels pratiquants ou en formation connaissent des problĂšmes comme l'isolement acadĂ©mique et professionnel ainsi qu'un accĂšs limitĂ© au matĂ©riel informatique et aux rĂ©fĂ©rences bibliographiques et techniques. Pour faciliter l'utilisation de l'information spatiale par une clientĂšle diversifiĂ©e, il convient donc d'Ă©laborer un outil d'aide Ă  l'interprĂ©tation automatique des images de tĂ©lĂ©dĂ©tection. Ce projet de recherche est une procĂ©dure interactive d'outil d'aide Ă  l'interprĂ©tation automatique des images de tĂ©lĂ©dĂ©tection (OAIIT). Son objectif est d'assister les usagers qui ne sont pas des spĂ©cialistes en tĂ©lĂ©dĂ©tection, dans les diverses Ă©tapes du traitement d'images. Ce projet se situe dans le cadre d'une application en foresterie utilisant des images TM de Landsat pour la production de cartes forestiĂšres. La procĂ©dure rĂ©gissant l'interface usager fonctionne sous Windows 3.1. Elle est constituĂ©e d'Ă©crans et de fenĂȘtres permettant un encadrement simple et stable. L'utilisateur accĂšde successivement Ă  diffĂ©rentes fenĂȘtres lui permettant de suivre les Ă©tapes du traitement d'images. L'OAIIT est supportĂ© par une base de donnĂ©es comprenant des textes et rĂ©fĂ©rences bibliographiques permettant Ă  l'usager de comprendre les Ă©tapes Ă  suivre et de se rĂ©fĂ©rer Ă  des ouvrages dĂ©jĂ  existants

    Monitoring of image processing programs for morphological description of galaxies

    Get PDF
    This paper is concerned with the technics ofartificial intelligence applied to the field of image processing . More precisely the problem studied here is semantical integration of image processing programs . In semantical integration ofprograms, the fonctionality of the programs, and the way to optimize their use are expressed ; this allows the use of the programs in an automatic, robust, and flexible way . First, the shell of expert systems used for the application, OCAPI, is described . Then the application on morphological description of galaxies is detailed : the design of the global system, the knowledge base of the expert system PROGAL, and an illustrated session of the expert system .Cet article présente un apport des techniques de l'intelligence artificielle au domaine du traitement d'images. Le problÚme étudié est l'intégration sémantique de procédures de traitement d'images. Dans l'intégration sémantique, la fonction des programmes ainsi que la maniÚre d'optimiser leur utilisation sont explicitées; ceci permet une utilisation automatique, robuste et adaptable des algorithmes de traitement. Tout d'abord, nous décrivons le modÚle utilisé, qui est celui du noyau de systÚmes experts OCAPI. Le systÚme expert PROGAL est ensuite présenté: tout d'abord, son application qui concerne l'automatisation du traitement d'images contenant une galaxie en vue de sa description morphologique, puis sa base de connaissance illustrée à l'aide d'exemples, et enfin une exécution commentée sur un cas particulie

    Multiagent system for data fusion in image processing

    Get PDF
    The data fusion of results in image processing poses many problems of modelling and representation of knowledge, among whic h one can mention : o the difficulty to define, exhaustively, the conditions of utilization of processings in function of the context , the difficulty to evaluate the results of processings , . the difficulty to elaborate strategies making cooperate several processings or merging results . The system ADAGAR (Atelier of Development of AGents on Distributed Architecture) proposes solutions to these problems . ADAGAR results from elaborated concepts in the project BBI (BlackBoard Image) . The aim of the project BBI was to conceive on a multi–processors architecture, a perceptive system of interpretation of images issued from different sources . The idea was not to elaborate new operators of image processing , but to develop a reception structure of existent processing . One of the particularities of the system lies in the expression of a priori valuation knowledge (scores of aptitude) . The formalizatio n of these knowledge is inspired of the theory of Dempster–Shafer. The formalism allows to represent the ignorance on condition s of activation of a processing in a particular context . The prototype BBI contains currently a thirty of agents . It functions on couples of aerial or satellitaire images in the visible and th e infrared spectra or in the visible and the radar spectra . BBI elaborates dynamically one or several strategies of research, from th e specificities of the processed images and objects to detect . The cooperations between processings at the low level, the information fusion and the focus of attention at the symbolic level are the main reasons of the good functioning of the prototype .La fusion des rĂ©sultats en analyse d'images pose de nombreux problĂšmes de modĂ©lisation et de reprĂ©sentation des connaissances parmi lesquels, on peut mentionner: . la difficultĂ© de dĂ©finir exhaustivement les conditions d'utilisation des traitements en fonction du contexte, . la difficultĂ© d'Ă©valuer les rĂ©sultats des traitements, . la difficultĂ© d'Ă©laborer des stratĂ©gies faisant coopĂ©rer plusieurs traitements ou fusionnant des rĂ©sultats. Le systĂšme ADAGAR (Atelier de DĂ©veloppement d'AGents sur Architecture RĂ©partie) propose des solutions Ă  ces problĂšmes. ADAGAR rĂ©sulte de concepts Ă©laborĂ©s dans le projet BBI (BlackBoard Image). L'objectif du projet BBI Ă©tait de concevoir sur une architecture multi-processeurs, un systĂšme perceptif d'interprĂ©tation d'images issues de sources diffĂ©rentes. L'idĂ©e n'Ă©tait pas d'Ă©laborer de nouveaux opĂ©rateurs de traitements d'images, mais de dĂ©velopper une structure d'accueil des traitements existants. Une des particularitĂ©s du systĂšme rĂ©side dans l'expression de connaissances d'estimation a priori (scores d'aptitude). La formalisation de ces connaissances est inspirĂ©e de la thĂ©orie de Dempster-Shafer. Le formalisme employĂ© permet de reprĂ©senter l'ignorance sur les conditions d'activation d'un traitement dans un contexte particulier. Le prototype BBI contient actuellement une trentaine d'agents. Il fonctionne sur des couples d'images aĂ©riennes ou satellitaires dans les spectres visible/infrarouge et visible/radar. BBI Ă©labore dynamiquement une ou plusieurs stratĂ©gies de recherche, Ă  partir des spĂ©cificitĂ©s des images traitĂ©es et des objets Ă  dĂ©tecter. Les coopĂ©rations entre les traitements au bas niveau, les fusions d'informations et les focalisations d'attention au niveau symbolique sont les principales raisons du bon fonctionnement du prototype. Intelligence artificielle distribuĂ©e, SystĂšme multi-agents, SystĂšme rĂ©parti, InterprĂ©tation d'images

    Cartographie de la pollution de l'air : une nouvelle approche basée sur la télédétection et les bases de données géographiques. Application à la ville de Strasbourg.

    No full text
    International audienceLa qualité de l'air dans les villes est devenue une préoccupation majeure en France, en Europe et dans le monde. Les villes concentrent la majorité des populations et des sources de pollution. Elles sont un objet d'étude privilégié pour l'évaluation des pollutions, de leur influence sur la santé et des solutions proposées pour la réduction des polluants. En France, toutes les villes de plus de 100 000 habitants doivent etre équipées d'un réseau de surveillance de la qualité de l'air. Les coûts d'installation, d'entretien et de gestion de ces réseaux sont importants et limitent le nombre de stations de mesures installées. A partir de ces quelques points de mesures, des cartes de concentration en polluants sont générées de manire routinire par des méthodes d'interpolation et d'extrapolation, comme les plaques minces ou les méthodes basées sur le krigeage. Les résultats dépendent grandement du nombre de mesures. Basée sur une approche multi-sources, cet article présente une méthodologie pour la cartographie des concentrations de polluants. Cette méthodologie s'appuie sur la définition de pseudostations et de stations virtuelles de mesures à l'aide d'images satellitaires et d'une base de données géographiques. Les pseudostations sont des lieux de la ville présentant des caractéristiques spatiales, structurales, morphologiques et des signatures spectrales similaires aux emplacements des stations de mesures réelles. Les signatures spectrales similaires à celles des stations réelles sont recherchées dans une série d'images Landsat. Puis des indices morphologiques calculés à partir de la base de données géographiques BD TOPO sont utilisés pour restreindre le nombre de pseudostations. Ces pseudostations sont alors utilisées pour déterminer les stations virtuelles qui permettent d'affecter une concentration de polluants en ce point de la ville. La densification du nombre de points de mesures (réels et virtuels) permet de calculer une nouvelle cartographie des concentrations de polluants. Une illustration partielle de cette méthodologie est proposée pour la ville de Strasbourg. Une campagne de mesures utilisant des moyens de mesures mobiles en juin 2002 fournira les moyens de valider l'approche

    Cartographie de la pollution de l'air : une nouvelle approche basée sur la télédétection et les bases de données géographiques. Application à la ville de Strasbourg

    Get PDF
    National audienceLa qualitĂ© de l'air dans les villes est devenue une prĂ©occupation majeure en France, en Europe et dans le monde. Les villes concentrent la majoritĂ© des populations et des sources de pollution. Elles sont un objet d'Ă©tude privilĂ©giĂ© pour l'Ă©valuation des polluants. En France toutes les villes de plus de 100 000 habitants doivent ĂȘtre Ă©quipĂ©es d'un rĂ©seau de surveillance de la qualitĂ© de l'air. Les coĂ»ts d'installation, d'entretien et de gestion de ces rĂ©seaux sont importants et limitent le nombre de stations de mesures installĂ©es. A partir de ces quelques points de mesures, des cartes de concentration en polluants sont gĂ©nĂ©rĂ©es de maniĂšre routiniĂšre par des mĂ©thodes d'interpolation et d'extrapolation, comme les plaques minces ou les mĂ©thodes basĂ©es sur le krigeage. Les rĂ©sultats dĂ©pendent grandement du nombre de mesures. BasĂ©e sur une approche multi-sources, cet article prĂ©sente une mĂ©thodologie pour la cartographie des concentrations de polluants. Cette mĂ©thodologie s'appuie sur la dĂ©finition de pseudostations et de stations virtuelles de mesures Ă  l'aide d'images satellitaires et d'une base de donnĂ©es gĂ©ographiques. Les pseudostations sont des lieux de la ville prĂ©sentant des caractĂ©ristiques spatiale, structurales, morphologiques et des signatures spectrales similaires aux emplacements des stations de mesures rĂ©elles. Les signatures spectrales similaires Ă  celles des stations rĂ©elles sont recherchĂ©es dans une sĂ©rie d'images Landsat. Puis des indices morphologiques calculĂ©s Ă  partir de la base de donnĂ©es gĂ©ographiques BD TOPO(R) sont utilisĂ©s pour restreindre le nombre de pseudostations. Ces pseudostations sont alors utilisĂ©es pour dĂ©terminer les stations virtuelles qui permettent d'affecter une concentration de polluants en ce point de la ville. La densification du nombre de points de mesures (rĂ©els et virtuels) permet de calculer une nouvelle cartographie des concentrations de polluants. Une illustration partielle de cette mĂ©thodologie est proposĂ©e pour la ville de Strasbourg. Une campagne de mesures utilisant des moyens de mesures mobiles en juin 2002 fournira les moyens de valider l'approche

    Un panorama de la télédétection de l'étalement urbain

    Get PDF
    The objective of this review paper is to provide an overview of remote sensing based research tackling urban sprawl issue. 113 articles were indexed and analyzed after research on bibliographical databases. These 113 articles are presented in the form of summary table giving highlights of the listed publications. Articles are divided into 6 categories (F, A, B, C, D, E) according to whether they are articles of methodology, characterization, prospective modeling-simulation, retrospective modeling-simulation, analysis of impacts or monitoring of urban sprawl. The summary table is conceived as a tool which can help researchers interested by the measurement and the analysis of urban sprawl.Cette note rend compte d'une recherche bibliographique dont l'objectif est de fournir un panorama des recherches utilisant la télédétection pour aborder la problématique de l'étalement urbain. 113 articles ont été répertoriés et analysés à la suite de recherches dans des bases de données bibliographiques. Ces 113 articles sont présentés sous forme de tableau récapitulatif donnant un aperçu général des publications recensées. Les articles sont répartis en 6 catégories (F, A, B, C, D, E) suivant qu'il s'agit d'articles de méthodologie, de caractérisation, de modélisation-simulation prospective, de modélisation-simulation rétrospective, d'analyse d'impacts ou de monitorage de l'étalement urbain. Le panorama est conçu comme un outil d'aide aux chercheurs qui s'intéressent à la mesure et à l'analyse de l'étalement urbain

    Développement d'une nouvelle approche basée objets pour l'extraction automatique de l'information géographique en milieu urbain à partir des images satellitaires à trÚs haute résolution spatiale

    Get PDF
    RĂ©sumĂ©: L'importance de l'information gĂ©ographique est indĂ©niable pour des prises de dĂ©cision efficaces dans le milieu urbain. Toutefois, sa disponibilitĂ© n'est pas toujours Ă©vidente. Les images satellitaires Ă  trĂšs rĂ©solution spatiale (THRS) constituent une source intĂ©ressante pour l'acquisition de ces informations. Cependant, l'extraction de l'information gĂ©ographique Ă  partir de ces images reste encore problĂ©matique. Elle fait face, d'une part, aux spĂ©cificitĂ©s du milieu urbain et celles des images Ă  THRS et d'autre part, au manque de mĂ©thodes d'analyse d'images adĂ©quates. Le but de la prĂ©sente Ă©tude est de dĂ©velopper une nouvelle approche basĂ©e objets pour l'extraction automatique de l'information gĂ©ographique en milieu urbain Ă  partir des images Ă  THRS. L'approche proposĂ©e repose sur une analyse d'image basĂ©e objets. Deux Ă©tapes principales sont identifiĂ©es : le passage des pixels aux primitives objets et le passage des primitives aux objets finaux. La premiĂšre Ă©tape est assurĂ©e par une nouvelle approche de segmentation multispectrale non paramĂ©trĂ©e. Elle se base sur la coopĂ©ration entre les segmentations par rĂ©gions et par contours. Elle utilise un critĂšre d'homogĂ©nĂ©itĂ© spectrale dont le seuil est dĂ©terminĂ© d'une maniĂšre adaptive et automatique. Le deuxiĂšme passage part des primitives objets crĂ©Ă©es par segmentation. Elle utilise une base de rĂšgles floues qui traduisent la connaissance humaine utilisĂ©e pour l'interprĂ©tation des images. Elles se basent sur les propriĂ©tĂ©s des objets des classes Ă©tudiĂ©es. Des connaissances de divers types sont prises en considĂ©ration (spectrales, texturales, gĂ©omĂ©triques, contextuelles). Les classes concernĂ©es sont : arbre, pelouse, sol nu et eau pour les classes naturelles et bĂątiment, route, lot de stationnement pour les classes anthropiques. Des concepts de la thĂ©orie de la logique floue et celle des possibilitĂ©s sont intĂ©grĂ©s dans le processus d'extraction. Ils ont permis de gĂ©rer la complexitĂ© du sujet Ă©tudiĂ©, de raisonner avec des connaissances imprĂ©cises et d'informer sur la prĂ©cision et la certitude des objets extraits. L'approche basĂ©e objets proposĂ©e a Ă©tĂ© appliquĂ©e sur des extraits d'images Ikonos et Quickbird. Un taux global de 80 % a Ă©tĂ© observĂ©. Les taux de bonne extraction trouvĂ©s pour les classes bĂątiment, route et lots de stationnement sont de l'ordre de 81 %, 75 % et 60 % respectivement. Les rĂ©sultats atteints sont intĂ©ressants du moment que la mĂȘme base des rĂšgles a Ă©tĂ© utilisĂ©e. L'aspect original rĂ©side dans le fait que son fonctionnement est totalement automatique et qu'elle ne nĂ©cessite ni donnĂ©es auxiliaires ni zones d'entraĂźnement. Tout le long des diffĂ©rentes Ă©tapes de l'approche, les paramĂštres et les seuils nĂ©cessaires sont dĂ©terminĂ©s de maniĂšre automatique. L'approche peut ĂȘtre transposable sur d'autres sites d'Ă©tude. L'approche proposĂ©e dans le cadre de ce travail constitue une solution intĂ©ressante pour l'extraction automatique de l'information gĂ©ographique Ă  partir des images Ă  THRS.||Abstract: The importance of the geographical information is incontestable for efficient decision making in urban environment. But, it is not always available.The very high spatial resolution (VHSR) satellite images constitute an interesting source of this information. However, the extraction of the geographical information from these images is until now problematic.The goal of the present study is to develop a new object-based approach for automatic extraction of geographical information in urban environment from very high spatial resolution images.The proposed approach is object-based image analysis. There are two principal steps: passage of pixels to object primitives and passage of primitives to final objects.The first stage uses a new multispectrale cooperative segmentation approach. Cooperation between region and edge information is exploited. Segments are created with respect to their spectral homogeneity.The threshold is adaptive and its determination is automatic.The second passage leaves from object primitives created by segmentation. Fuzzy rule base is generated from the human knowledge used for image interpretation. Several kinds of object proprieties are integrated (spectral, textural, geometric, and contextual).The concerned classes are trees, grass, bare soil and water as natural classes and building, road, parking lot as man made classes. Fuzzy logic and possibilities theories are integrated in the process of extraction. They permitted to manage the complexity of the studied objects, to reason with imprecise knowledge and to inform on precision and certainty of the extracted objects.The approach has been applied with success on various subsets of Ikonos and Quickbird images.The global extraction accuracy was about 80%.The object-based approach was able to extract buildings, roads and parking lots in urban areas with of 81%, 75% and 60% extraction accuracies respectively.The results are interesting with regard to that the same rule base was used.The original aspect resides in the fact that the approach is completely automatic and no auxiliary data or training areas are required. Along the different stages of the approach, the parameters and the thresholds are determined automatically. This allows the transposability of the approach on others VHRS images.The present approach constitutes an interesting solution for automatic extraction of the geographical information from VHSR satellite images

    Modélisation des informations et extraction des connaissances pour la gestion des crises

    Get PDF
    L’essor des technologies Ă©mergentes de collecte de donnĂ©es offre des opportunitĂ©s nouvelles pour diverses disciplines scientifiques. L’informatique est appelĂ© Ă  jouer sa partition par le dĂ©veloppement de techniques d’analyse intelligente des donnĂ©es pour apporter un certain Ă©clairage dans la rĂ©solution de problĂšmes complexes. Le contenu de ce mĂ©moire de recherche doctorale s’inscrit dans la problĂ©matique gĂ©nĂ©rale de l’extraction des connaissances Ă  partir de donnĂ©es par les techniques informatiques. Ce travail de thĂšse s’intĂ©resse dans un premier temps Ă  la problĂ©matique de la modĂ©lisation des informations pour la gestion de crise nĂ©cessitant des prises en charge mĂ©dicale, Ă  l’aide d’une collaboration des applications informatiques de la tĂ©lĂ©mĂ©decine. Nous avons proposĂ© une mĂ©thodologie de gestion d’une crise Ă  distance en trois Ă©tapes. Elle est principalement axĂ©e sur la collaboration des actes de tĂ©lĂ©mĂ©decine (TĂ©lĂ©consultation, TĂ©lĂ©expertise, TĂ©lĂ©surveillance, TĂ©lĂ©assistance, et la RĂ©gulation mĂ©dicale), de la phase de transport des victimes Ă  la phase de traitements mĂ©dicaux dans et/ou entre les structures de santĂ©. Cette mĂ©thodologie permet non seulement de mettre Ă  la disposition des gestionnaires de crise un systĂšme d'aide Ă  la dĂ©cision informatisĂ©, mais aussi de minimiser les coĂ»ts financiers et rĂ©duire le temps de rĂ©ponse des secours Ă  travers une gestion organisĂ©e de la crise. Dans un deuxiĂšme temps, nous avons Ă©tudiĂ© en dĂ©tail l’extraction de la connaissance Ă  l’aide des techniques de data mining sur les images satellitaires afin de dĂ©couvrir des zones Ă  risques d’épidĂ©mie, dont l’étude de cas a portĂ© sur l’épidĂ©mie de cholĂ©ra dans la rĂ©gion de Mopti, au Mali. Ainsi, une mĂ©thodologie de six phases a Ă©tĂ© prĂ©sentĂ©e en mettant en relation les donnĂ©es collectĂ©es sur le terrain et les donnĂ©es satellitaires pour prĂ©venir et surveiller plus efficacement les crises d’épidĂ©mie. Les rĂ©sultats nous indiquent qu’à 66% le taux de contamination est liĂ© au fleuve Niger, en plus de certains facteurs sociĂ©taux comme le jet des ordures en pĂ©riode hivernale. Par consĂ©quent, nous avons pu Ă©tablir le lien entre l’épidĂ©mie et son environnement d’évolution, ce qui permettra aux dĂ©cideurs de mieux gĂ©rer une Ă©ventuelle crise d’épidĂ©mie. Et enfin, en dernier lieu, pendant une situation de crise d’épidĂ©mie, nous nous sommes focalisĂ©s sur l’analyse mĂ©dicale, plus prĂ©cisĂ©ment par l’usage des microscopes portables afin de confirmer ou non la prĂ©sence des agents pathogĂšnes dans les prĂ©lĂšvements des cas suspects. Pour ce faire, nous avons prĂ©sentĂ© une mĂ©thodologie de six phases, basĂ©e sur les techniques du deep learning notamment l’une des techniques des rĂ©seaux de neurones convolutifs, l’apprentissage par transfert qui tirent parti des systĂšmes complexes avec des invariants permettant la modĂ©lisation et l'analyse efficace de grandes quantitĂ©s de donnĂ©es. Le principe consiste Ă  entraĂźner les rĂ©seaux de neurones convolutifs Ă  la classification automatique d’images des agents pathogĂšnes. Par exemple dans notre cas d’étude, cette approche a Ă©tĂ© utilisĂ©e pour distinguer une image microscopique contenant le virus de l’épidĂ©mie de cholĂ©ra appelĂ© Vibrio cholerae d’une image microscopique contenant le virus de l’épidĂ©mie du paludisme appelĂ© Plasmodium. Ceci nous a permis d’obtenir un taux de rĂ©ussite de classification de 99%. Par la suite, l’idĂ©e est de dĂ©ployer cette solution de reconnaissance d’images d’agents pathogĂšnes dans les microscopes portables intelligents pour les analyses de routine et applications de diagnostic mĂ©dical dans la gestion de situations de crise. Ce qui permettra de combler le manque de spĂ©cialistes en manipulation microscopique et un gain de temps considĂ©rable dans l’analyse des prĂ©lĂšvements avec des mesures prĂ©cises favorisant l’accomplissement du travail dans de meilleures conditions

    Approche exploratoire sur la classification appliquée aux images

    Get PDF

    Détection automatique des changements du bùti en milieu urbain sur des images à trÚs haute résolution spatiale (Ikonos et QuickBird) en utilisant des données cartographiques numériques

    Get PDF
    The updating of cartographic databases in urban environments is a difficult and expensive task. It can be facilitated by an automatic change detection method. Several methods have been developed for medium and low spatial resolution images. These methods are not adapted for the very high spatial resolution images (VHSR) and are not applicable in urban environment. This study proposes a new method for change detection of buildings in urban environments from VHSR images and using existing digital cartographic data. The proposed methodology is composed of several stages. The existing knowledge on the buildings and the other urban objects are first modelled and saved in a knowledge base. All change detection rules are defined at this stage. Then, the image is segmented. The parameters of segmentation are computed thanks to the integration between the image and the geographical database (GDB). Thereafter, the segmented image is analyzed using the knowledge base to localize the segments where the change of building is likely to occur. The change detection rules are then applied on these segments to identify the segments that represent the changes of buildings. These changes represent the updates of buildings to add to the geographical database. Finally, the map representing changes is assessed before being integrated in the geographical database. The data used in this research concern the city of Sherbrooke (Quebec, Canada) and the city of Rabat (Morocco). For Sherbrooke, we used an Ikonos image acquired in October 2004, an Ikonos image acquired in July 2006 and a GDB at the scale of 1:20,000. For Rabat, a QuickBird image acquired in August 2004 has been used with a GDB at the scale of 1:10,000. The results of tests on several zones are encouraging. Indeed, the rate of good detection is of 90%. Concerning the geometric precision of detection, the mean error is 3 m for Ikonos and 2 m for QuickBird. The proposed method presents some limitations on the detection of the exact contours of the buildings. It could be improved by including a shape post-analysis of detected buildings. The proposed method can be integrated in a cartographic update process or as a method for the quality assessment of a topographic database
    • 

    corecore