51 research outputs found
Fusion d'informations multisources application Ă la classification en milieu forestier
L'aménagement et le suivi des ressources forestières nécessitent des données précises et bien réparties dans le temps sur les conditions de la végétation dans les peuplements forestiers, ainsi que dans les zones de coupes forestières ou venant de subir des feux de forêts. Les méthodes actuelles d'extraction de l'information sur le couvert végétal sont basées sur l'interprétation de photographies aériennes, jumelée à une campagne de vérification sur le terrain. Ces méthodes sont relativement coûteuses et leur mise en oeuvre est très lourde. Pour pallier à ces problèmes, l'utilisation d'images issues des outils de télédétection constitue une excellente alternative. La mise à jour des cartes forestières par télédétection (télédétection des changements) suit la procédure d'identification des différences d'états d'un objet ou d'un phénomène en l'observant à des moments différents. Plusieurs méthodes et techniques de télédétection du changement ont été développées au cours des années. Nous nous attarderons aux méthodes postclassificatoires. Or, pour plusieurs problèmes de classification d'images, l'information recueillie par un seul capteur est incomplète et son traitement peut résulter en une mauvaise classification due à un manque d'informations. Afin de surmonter ce problème, la mise en coopération et/ou en compétition de plusieurs capteurs est une bonne solution. Les images acquises à l'aide de différents capteurs pour un même site sont en général partiellement redondantes, mais aussi partiellement complémentaires. Pour bénéficier de ces caractéristiques, la fusion entre les informations issues de différents capteurs apparaît fondamentale. L'imagerie optique sera abordée en axant tout particulièrement le travail sur l'information en provenance des indices de végétation. Puis, au niveau de l'imagerie radar, nous aborderons les thèmes du filtrage et de l'analyse au moyen des paramètres de texture. Nous comparerons ensuite les performances de plusieurs algorithmes d'optimisation de segmentation et d'estimation de paramètres. Nous verrons enfin comment la fusion entre les informations multisources à l'aide de la théorie de l'évidence mène au raffinement de la classification
Mesure et vérification du rendement et simulations calibrées d'un bâtiment résidentiel net zéro énergie Étude de cas: Abondance Montréal
RÉSUMÉ: Cette étude offre une description complète du projet Abondance Montréal, premier bâtiment multilogments visant une consommation nette nulle au Canada. On retrouve principalement l'inventaire détaillé des équipements et systèmes mécaniques tels que construits sur le site, ainsi que la logique de contrôle associée à chacun de ces systèmes. Par la suite, une description de l'installation de monitoring mise en place est faite tout en portant un regard critique sur les aspects clefs liés à la qualité des données mesurées.
Dans un second temps, les résultats des premiers mois de mesures sont analysés afin d'évaluer la performance énergétique des différents systèmes en opération dans le projet Abondance Montréal. Les bilans mensuels pour les systèmes d'eau chaude domestique, les systèmes de chauffage, ventilation et climatisation, ainsi que les systèmes électriques, sont présentés. Par la suite, l'analyse est poussée plus en détails pour le système de production d'eau chaude domestique où la dynamique de chacun des sous-systèmes (récupérateurs de chaleur des eaux grises, désurchauffeurs, capteurs solaires thermiques, chauffe-eau électrique et système de recirculation) est étudiée suivant une résolution temporelle d'une minute. À la lumière de ces résultats, il est possible de tirer des leçons utiles pour la conception future de projets visant une consommation énergétique nette nulle.
Finalement, la simulation utilisée lors de la phase de conception pour le dimensionnement du système de production d'eau chaude domestique, est calibrée suivant différents niveaux de raffinement. Cette analyse permet de quantifier l'amélioration de la qualité des résultats de simulation en fonction de l'investissement nécessaire en ce qui concerne les ressources (temps et équipements). Ceci permet, du même coup, de donner des indications supplémentaires quant au niveau de raffinement minimal nécessaire pour la calibration en fonction des objectifs visés par l'utilisation de simulations énergétiques.---------- ABSTRACT: This study provides a complete description of the Abondance Montreal project, the first multi-unit residential building in Canada to aim at net zero energy consumption. . Mechanical systems installed in the building are presented in detail, as well as the control logic of each subsystem. The monitoring system is then discussed with a critical look at the key aspects related to data quality assurance.
In a second part, data recorded over the first months of operation are analyzed to assess the energy performance of different systems in operation in the Abondance Montreal building. The monthly reports for domestic hot water systems, for heating, ventilation and air conditioning systems and for electrical systems, are presented. A more detailed analysis is performed for the domestic hot water production system, where the dynamics of each subsystem is studied for a one minute time step (gray water heat recovery, desuperheaters, solar thermal collectors, electric water heater and recirculation loop). Lessons are drawn for designing future net-zero energy consumption buildings.
Finally, the simulation used in the design phase for sizing the domestic hot water system is calibrated with different levels of refinement. This analysis quantifies the quality improvement of the simulation results based on the investment required in terms of resources (time and equipment). This provides further guidance on the minimum level of refinement necessary in the calibration process, according to the objectives of building energy performance simulations
Navigation à l'aide d'un gravimètre atomique
International audienceCold atom interferometer is a promising technology to obtain a highly sensitive and accurate absolute gravimeter. With the help of an anomalies gravity map, local measurements of gravity allow a terrain-based navigation. This paper follows the one we published in Fusion 2017. Based on an atomic gravimeter we present a method to map the gravity anomaly. We propose a modification of the Laplace-based particle filter so as to make it more robust. Some simulation results demonstrate a better robustness of the proposed filter.L'interférométrie à atomes froids est une technologie prometteuse pour obtenir un gravimètre absolu de grande sensibilité et précision. A partir d'une carte d'anomalies gravimétriques, la mesure locale de la gravité permet une navigation par corrélation de terrain. Ce papier fait suite à celui publié au congrès Fusion 2017. Nous présentons une méthode d'élaboration de cartes d’anomalies gravimétriques à partir du gravimètre atomique. Nous proposons une modification du filtre Particulaire de Laplace qui offre une meilleure robustesse. Des résultats de simulation montrent une meilleure robustesse de ce filtre
Dedicated Hardware Context-Switch Services for Real-Time Multiprocessor Systems
Computers are widely present in our daily life and are used in critical applic-ations like cars, planes, pacemakers. Those real-time systems are nowadaysbased on processors which have an increasing complexity and have specifichardware services designed to reduce task preemption and migration over-heads. However using those services can add unpredictable overheads whenthe system has to switch from one task to another in some cases.This document screens existing solutions used in commonly availableprocessors to ease preemption and migration to highlight their strengths andweaknesses. A new hardware service is proposed to speed up task switchingat the L1 cache level, to reduce context switch overheads and to improvesystem predictability.The solution presented is based on stacking several identical cachememories at the L1 level. Each layer is able to save and restore its completestate independently to/from the main memory. One layer can be used forthe active task running on the processor while another layers can be restoredor saved concurrently. The active task can remain in execution until thepreempting task is ready in another layer after restoration from the mainmemory. The context switch between tasks can then be performed in avery short time by switching to the other layer which is now ready to runthe preempting task. Furthermore, the task will be resumed with the exactL1 cache memory state as saved earlier after the previous preemption. Theprevious task state can be sent back to the main memory for future use.Using this mechanism can lead to minimise the time required for migrationsand preemptions and consequently lower overheads and limit cache missesdue to preemptions and usually considered in the cache migration andpreemption delays. Isolation between tasks is also provided as they areexecuted from a dedicated layer.Both uniprocessor and multiprocessor designs are presented along withimplications on the real-time theory induced by the use of this hardware ser-vice. An implementation of the system is characterized and results show im-provements to the maximum and average execution time of a set of varioustasks: When the same size is used for the baseline cache and HwCS layers,94% of the tasks have a better execution time (up to 67%) and 80% have a bet-ter Worst Case Execution Time (WCET). 80% of the tasks are more predictableand the remaining 20% still have a better execution time. When we split thebaseline cache size among layers of the HwCS, measurements show that 75%of the tasks have a better execution time (up to 67%) leading to 50% of thetasks having a better WCET. Only 6% of the tasks suffer from worse executiontime and worse predictability while 75% of the tasks remain more predictablewhen using the HwCS compared to the baseline cache.Les ordinateurs ont envahi notre quotidien et sont de plus en plus souventutilisés pour remplir des missions critiques. Ces systèmes temps réel sontbasés sur des processeurs dont la complexité augmente sans cesse. Des ser-vices matériels spécifiques permettent de réduire les coûts de préemption etmigration. Malheureusement, ces services ajoutent des temps morts lorsquele système doit passer d’une tâche à une autre.Ce document expose les solutions actuelles utilisées dans les processeurscourants pour mettre en lumière leurs qualités et défauts. Un nouveau ser-vice matériel (HwCS) est proposé afin d’accélérer le changement de tâches aupremier niveau de mémoire (L1) et de réduire ainsi les temps morts dus auxchangements de contextes tout en améliorant la prédictibilité du système.Bien que cette thèse se concentre sur le cache L1, le concept développépeut également s’appliquer aux autres niveaux de mémoire ainsi qu’à tout bloc dépendant du contexte. La solution présentée se base sur unempilement de caches identiques au premier niveau. Chaque couche del’empilement est capable de sauvegarder ou recharger son état vers/depuisla mémoire principale du système en toute autonomie. Une couche peutêtre utilisée par la tâche active pendant qu’une autre peut sauvegarder ourestaurer l’état d’une autre tâche. La tâche active peut ainsi poursuivre sonexécution en attendant que la tâche suivante soit rechargée. Le changementde contexte entre la tâche active et la tâche suivante peut alors avoir lieu enun temps très court. De plus, la tâche reprendra son exécution sur un cacheL1 dont l’état sera identique à celui au moment où elle a été interrompueprécédemment. L’état du cache de la tâche désormais inactive peut êtresauvegardé dans la mémoire principale en vue d’une utilisation ultérieure.Ce mécanisme permet de réduire au strict minimum le temps de calculperdu à cause des préemptions et migrations, les temps de sauvegarde et derechargement de la L1 n’ayant plus d’influence sur l’exécution des tâches. Deplus, chaque niveau étant dédié à une tâche, les interférences entre tâchessont réduites.Les propriétés ainsi que les implications sur les aspects temps réelsthéoriques sont présentées pour des systèmes mono et multiprocesseurs.Une implémentation d’un système uniprocesseur incluant ce servicematériel et sa caractérisation par rapport à l’exécution d’un set de tâchessont également présentées ainsi que les bénéfices apportés par le HwCS:Lorsque les couches du HwCS ont la même taille que le cache de base, 94%des tâches ont un meilleur temps d’exécution (jusqu’à 67%) et 80% ont unmeilleur pire temps d’exécution (WCET). 80% des tâches deviennent plusprédictibles et les 20% restants bénéficient néanmoins d’un meilleur WCET.Toutefois, si la taille du cache est partagée entre les couches du HwCS, lesmesures montrent que 75% des tâches ont un meilleur temps d’exécution,impliquant un meilleur WCET pour la moitié des tâches du système. Seule-ment 6% des tâches voient leur WCET augmenter et leur prédictibilitédiminuer tandis que 75% des tâches améliorent leur prédictibilité grâce auHwCS.Doctorat en Sciences de l'ingénieur et technologieinfo:eu-repo/semantics/nonPublishe
Creating a debugging environment to validate real-time scheduling algorithms
info:eu-repo/semantics/publishe
Can we get a predictable cache system for real-time computer systems?
info:eu-repo/semantics/publishe
A Context Aware Cache Controller to Bridge the Gap Between Theory and Practice in Real-Time Systems
info:eu-repo/semantics/publishe
Development of a compact test board for silicon sensors IV/CV characterization
To build silicon trackers of modern and future high-luminosity collider experiments, thousands of silicon strip modules have to be produced and tested. The modules in new trackers must reliably work usually during 5-10 years or more under harsh irradiation conditions, as it will be impossible to replace a failing module once installed inside the detector. It means that reliable and rigorous testing of strip modules and its components is mandatory. To sustain the production throughput we should be able to test several modules in parallel. For this reason a fast, reliable, scalable and cost effective production QC test bench has to be designed and implemented. For the CV and IV measurements of sensors and modules we are developing a low-cost (less than 500 ) integrated electronic board which will be scaled up to ten channels to measure DUTs in parallel. In the current work the design of the IV/CV board and the calibration procedure to increase the accuracy of the current and capacitance measurements, for which a special calibration dipole board based on tight tolerance capacitors and resistors has been designed, as well as future development plans are described.SCOPUS: cp.jinfo:eu-repo/semantics/publishe
- …