428 research outputs found

    Combinaison de prévisions hydrologiques globales et locales à l’aide de méthodes simples

    Get PDF
    L’augmentation exponentielle de la capacité de calcul, jumelée à la forte croissance de la disponibilité de données satellites des dernières décennies et à la collaboration des données scientifiques ont mené au récent développement d’un bon nombre de systèmes de prévisions hydrologiques large-échelle. Les prévisions produites par ces systèmes chevauchent souvent des régions déjà couvertes par des systèmes de prévisions hydrologiques locaux plus spécialisés. Cette recherche porte la possibilité d’obtenir de l’information des prévisions de ces systèmes large-échelle afin d’améliorer les prévisions locales. Plus précisément, les prévisions large-échelle du National Surface and River Prediction System (NSRPS) sont combinées aux prévisions hydrologiques locales du Système de Prévision Hydrologique (SPH) opéré par le Ministère de l’Environnement et de la Lutte aux changements climatiques (MELCCFP) à l’aide de méthodes simples dans le but d’optimiser les prévisions locales. La combinaison est effectuée à l’aide de plusieurs méthodes. Premièrement, une moyenne simple est utilisée en guise de référence de performance. Ensuite plusieurs variantes de moyennes pondérées sont utilisées, soit une première variante où les poids sont calculés analytiquement selon les résidus des modèles et trois autres variantes où les poids sont optimisés en utilisant comme fonction coût le Kling–Gupta Efficiency (KGE), le Reduced Continuous Ranked Probability Score (RCRPS) et le Ignorance Score (IGN). Le Bayesian Model Averaging est aussi utilisé afin de combiner les prévisions probabilistes des deux systèmes. Il s’agit d’une méthode plus élaborée qui utilisent comme poids les probabilités à posteriori d’un modèle à avoir généré les observations. Les résultats montrent clairement qu’une amélioration des prévisions hydrologiques locales est possible en utilisant des méthodes de combinaisons simples, et ce même si la performance du système de prévision local est drastiquement meilleure. L’évaluation de la performance des prévisions est effectuée selon de multiples critères afin de s’assurer que les résultats présentent un portrait juste et général de l’impact de la combinaison. Pour ce faire, les critères de Nash-Sutcliffe Efficiency (NSE), KGE, RCRPS et IGN sont utilisés. Les résultats sont moyennés sur 40 emplacements jaugés et analysées pour des horizons de prévision allant de 3 à 120 h. Pour toutes les méthodes autres que la moyenne simple, des gains en performance sont observés pour tous les critères pour des horizons de 60 h et plus et aucun critère ne révèle une perte de performance, peu importe l’horizon analysé. Enfin, l’effet de la combinaison des prévisions sur les bassins non-jaugés est analysé selon une simulation leave-one-out sur 29 bassins de validation. Des comportements très similaires aux bassins jaugés sont observés, suggérant que ces méthodes de combinaisons pourraient améliorer les prévisions hydrologiques des bassins des territoires plus éloignés et isolés, où aucune station de mesure n’est présente

    Détection de faute automatique dans les systèmes solaires thermiques basée sur la vérification de règles et la simulation

    Get PDF
    RÉSUMÉ Les chauffe-eau solaires sont souvent considérés lorsqu’il est question de solutions permettant la production d’eau chaude domestique tout en réduisant les coûts en énergie et les émissions de gaz à effet de serre. Bien que leur coût diminue, les systèmes solaires thermiques nécessitent un investissement initial plus grand que les systèmes conventionnels, et ce surcoût est compensé par une facture énergétique réduite. Afin d’assurer leur rentabilité, il est donc impératif que ces systèmes délivrent des performances satisfaisantes pendant l’entièreté de leur durée de vie utile. Malheureusement, il n’est pas rare que les chauffe-eau solaires rencontrent des problèmes qui font en sorte que les économies d’énergies ne sont pas au rendez-vous et même dans certains cas, que leur durée de vie soit réduite. Ces problèmes sont causés par plusieurs facteurs tels qu’une mauvaise sélection de composants lors de la conception, une installation inadéquate et un manque d’entretien. De plus, il n’est pas rare qu’un problème reste caché du propriétaire pendant une longue période de temps, car un appoint permet généralement de fournir la totalité de la demande en eau chaude domestique. Ainsi, un système peut ne pas fonctionner pendant des mois et même des années sans symptôme apparent du côté consommateur. Dans cette optique, il est important de trouver des méthodes permettant de prévenir les propriétaires aussitôt qu’un problème survient. Ce mémoire présente une méthode de détection de faute automatique développée pour les chauffe-eau solaires basée sur deux niveaux. Le premier niveau consiste à faire le suivi des conditions d’opération d’un système (e.g. températures, débits, pression, etc.) et de s’assurer que celles-ci respectent des règles préétablies. Dans le second niveau, les performances quotidiennes du circuit solaire ainsi que de l’appoint sont évaluées par l’entremise de simulations énergétiques sur le logiciel TRNSYS. Les performances estimées sont ensuite comparées avec celles mesurées afin de déterminer si l’écart est significatif. Une validation de la méthode a été effectuée en utilisant près de trois ans de données de fonctionnement d’un chauffe-eau solaire composé de 11 panneaux à tube sous vide d’une superficie totale de 35.5m2 situé à l’Accueil Bonneau à Montréal, Canada. La validation a également servi à déterminer s’il était possible de réduire la quantité de travail nécessaire à la construction d’un modèle tout en permettant une détection de fautes adéquate.----------ABSTRACT Solar hot water systems are often considered to lower the energy costs and greenhouse gas emissions related to the production of domestic hot water. Although the capital costs associated with solar domestic hot water systems are decreasing each year, they are still significantly higher than conventional solutions, and these extra costs are compensated by reduced energy bills. In order to be economically viable, these systems must then deliver a satisfactory performance over their useful lifetime. Unfortunately, it is not uncommon for solar hot water systems to encounter issues which result in a reduction of energy savings and/or their useful life span. These issues often result from poor design, careless installation, and a lack of maintenance. Furthermore, it is frequent that the system’s owners stay unaware of a failure for an extended period of time, since these systems are generally equipped with auxiliary heating designed to meet the entire heat load. Thus, a system could be underperforming or out of service for months or even years without any noticeable symptoms from the hot water consumer point of view. In this respect, it is important to find solutions to automatically warn a system’s owner or manager in case of a system failure. This thesis present an original automatic fault detection method based on two levels and developed specifically for solar hot water systems. The first level monitors a system’s operating conditions (e.g. temperatures, flowrates, pressures, etc.) through a rule-base algorithm. In the second level, the solar circuit and auxiliary heater daily performances are evaluated using TRNSYS simulations and compared with the measured performance in order to determine if there is a significant discrepancy. The method was assessed using three years of operation data from a solar hot water system composed of 11 evacuated tubes of a total area of 35.5 m2 located at l’Accueil Bonneau in Montreal, Canada. The validation was also used to determine how the amount of work required to obtain a model could be reduced while allowing an accurate fault detection. First, the method was assessed using a calibrated model. Then, the obtained results were compared with the ones obtained with an as-built model and a model using web-based weather data instead of on-site measurements. The rule-based algorithm has successfully detected two major system faults related to a failure and replacement of the auxiliary heater and was well suited to detect instrumentation errors such as an unconnected sensor

    Identification de personnes par fusion de différentes modalités biométriques

    Get PDF
    This thesis contributes to the resolution of the problems which are related to the analysis of the biometric data outcome from the iris, the fingerprint and the fusion of these two modalities, for person identification. Thus, after the evaluation of those proposed biometric systems, we have shown that the multimodal biometric system based on iris and fingerprint outperforms both monomodal biometric systems based whatsoever on the iris or on the fingerprint.Cette thèse contribue essentiellement à la résolution des problèmes liés à l'analyse des données biométriques issues de l'iris, de l'empreinte digitale et de la fusion de ces deux modalités pour l'identification de personne. Ainsi, après l'évaluation des trois systèmes biométriques proposés, nous avons prouvé que le système biométrique multimodal basé sur l'iris et l'empreinte digitale est plus performant que les deux systèmes biométriques monomodaux basés que se soit sur l'iris ou sur l'empreinte digitale

    Contribution à la commande sûre des Systèmes à Événements Discrets

    Get PDF
    Les activités de recherche rentrent dans le spectre de la section 61 du CNU et ont pour domaine l’Automatique des Systèmes à Événements Discrets (SED). Elles sont conduites en vue d’accroître la sûreté de fonctionnement des systèmes automatisés comme ceux qu’il est possible de trouver dans le cadre de la production manufacturière, de la production d'énergie ou du transport. Une grande partie de ces recherches a concerné la conception sûre des systèmes de contrôle-commande à base d’Automates Programmables Industriels (API) et plus particulièrement les thématiques suivantes :- la vérification formelle de programmes de contrôle-commande,- la synthèse algébrique de programmes de contrôle-commande à partir de spécifications informelles,- le test de conformité d’un contrôleur logique vis-à-vis de sa spécification.D'autres recherches ont porté sur la formalisation des outils pour l’analyse de sûreté, utilisés dans le cadre de l’analyse prévisionnelle des risques d’un équipement ou d’une installation industrielle. Cette formalisation des outils utilisés en sûreté a été faite en examinant avec un point de vue SED une problématique qui ne l’était pas à son origine. Il a été étudié :- la modélisation algébrique des arbres de défaillances dynamiques,- l’analyse prévisionnelle des risques d’un point de vue qualitatif pour les systèmes réparables à partir de Boolean logic Driven Markov Processes (BDMPs),- l’analyse prévisionnelle des risques d’un point de vue quantitatif pour les systèmes réparables à l’aide de chaînes de Markov.D'une manière générale, ces activités de recherche ont pour objectif de proposer des apports formels ou méthodologiques à des outils de modélisation généralement issus de l’industrie tout en répondant à des besoins industriels déjà présents ou sur le point de le devenir

    Évaluation de la stabilité des structures hydrauliques fissurées à l'aide des méthodes d'éléments finis quasi statiques explicites et de l'équilibre limite 3D

    Get PDF
    RÉSUMÉ Plusieurs structures hydrauliques souffrent d’importantes fissures discrètes tridimensionnelles (3D), qui créent des ensembles de blocs empilées les uns sur les autres. Il est important de considérer les particularités 3D de ces surfaces fissurées dans l’évaluation non-linéaires de la sécurité au glissement de ces structures. Une méthodologie pour estimer un facteur de sécurité au glissement (SSF) et une direction de glissement D, pour n’importe quelle structure admettant une fissure discrète, est présentée dans ce mémoire. Cette méthodologie utilise une méthode quasi-statique explicite par éléments finis (QSE-FEM) ayant une approche par réduction de capacité résistive (réduction des coefficients de friction et de cohésion).----------ABSTRACT Several hydraulic concrete structures suffer from severe tridimensional (3D) discrete cracking, producing an assembly of concrete blocks resting ones on top of the others. It is important to consider the 3D particularities of the cracked surfaces in the nonlinear sliding safety evaluation of these structures. A methodology to assess a sliding safety factor (SSF) and a sliding direction D for any structure with a 3D discrete crack using a quasi-static explicit nonlinear finite elements method (QSE-FEM) is presented herein in the context of the strength reduction approach

    Heuristique d'évaporation de pénalités dans une méthode de décomposition pour trouver la plus grande clique d'un graphe

    Full text link
    Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal

    Caractérisation de projets de développement logiciel dans une perspective de flux de connaissances

    Get PDF
    RÉSUMÉ Face aux ratés auxquelles fait face l'industrie du développement logiciel et l'incapacité des différentes approches de processus logiciels à régler ces problèmes, il s‘avère intéressant de se baser, d‘une part, sur les acquis du domaine des processus logiciels et, d‘autre part, de s‘inspirer des innovations de domaines connexes. En particulier, la gestion des connaissances appliquée au génie logiciel est un sujet présentement en émergence. Une meilleure compréhension des mécanismes de création et de conversion de connaissances au sein d'un projet de développement logiciel est une avenue de recherche prometteuse. L'objectif principal de cette thèse de doctorat est donc de caractériser les projets de développement logiciel dans une perspective de flux de connaissances. Cette thèse par articles propose d'atteindre l'objectif de recherche par la présentation de trois articles en plus d'un chapitre détaillant des résultats complémentaires. Le premier article présente et justifie la méthodologie utilisée dans le cadre des travaux de recherche de cette thèse. Plus précisément, l'article détaille la méthodologie ATS (activity time slip), une approche à partir de laquelle des développeurs logiciels doivent enregistrer leurs activités dans une perspective de connaissances. Les données recueillies sont ensuite codifiées selon le modèle de flux de connaissances, qui est inspiré du modèle de création de connaissances de Nonaka & Takeuchi (1995) et qui définit six facteurs cognitifs dans le cadre d'un projet de développement logiciel: l'acquisition, la cristallisation, la validation, la réalisation, la vérification et l'organisation du travail. Une étude de cas multiples est présentée, afin de démontrer l'originalité et la pertinence de la méthodologie proposée. Le second article présente l'utilisation du modèle de flux de connaissances, dans le cadre d'une étude de cas, afin d'analyser les conséquences de la qualité de la documentation lors de la réutilisation de composants FLOSS (free/libre open source software). L'analyse de l'étude de cas permet de déterminer les conséquences négatives d'une documentation inadéquate sur le flux de connaissances au sein d'un projet de développement logiciel. Le troisième article vise à comprendre les mécanismes menant aux divergences observées entre la conception et l'implémentation d'un projet de développement logiciel. L'utilisation de la méthodologie ATS et du modèle de flux de connaissances facilite l'analyse de l'étude de cas. Ainsi, les discordances entre les artefacts de conception et l'implémentation s'expliquent par le fait que la conception n'est qu'une image de possibilités. Les résultats de recherche complémentaires permettent de caractériser trois projets intégrateurs de développement logiciel, à la manière d'une étude de cas multiples de type exploratoire reposant sur la méthodologie ATS et la modélisation par flux de connaissances. Ainsi, l'analyse des jetons d'activité (ATS) permet de porter un jugement sur la rigueur des développeurs et donc sur la fiabilité des jetons, selon les trois profils identifiés. De plus, les facteurs cognitifs sont caractérisés selon leur caractère individuel et participatif. Par ailleurs, le séquencement cognitif permet l'identification de quatre profils de développeurs: le cristallisateur, le codeur, le polyvalent et l'agent libre. Finalement, une forte corrélation a été observée entre un effort d'acquisition élevé et une productivité du code source faible, ce qui constitue une contribution majeure, de par son originalité et ses conséquences théoriques et pratiques.----------ABSTRACT Given the failures faced by the software development industry and the inability of different software process approaches to solve these problems, it is interesting to rely, on the one hand, on achievements in the software process field and, on the other hand, learn from innovations in related fields. In particular, knowledge management applied to software engineering is a subject currently emerging. A better understanding of knowledge creation and conversion's mechanisms in software development projects is promising. The main objective of this thesis is to characterize software development projects from a knowledge flow perspective. This doctoral thesis intends to achieve the research goal by presenting three papers and additional complementary results. The first paper presents and justifies the methodology used in this thesis. The paper details the ATS (activity time slip) methodology, where software developers must log their activities from a knowledge perspective. Data are then codified based on the knowledge flow model, which is related to Nonaka and Takeuchi‘s (1995) knowledge creation model and which defines six cognitive factors: acquisition, crystallization, validation, implementation, verification and work organization. A multiple case study is presented to demonstrate the originality and relevance of the proposed methodology. The second paper presents a case study using the knowledge flow model to analyze the consequences of documentation quality in FLOSS components reuse. The case study's analysis allows the identification of negative consequences on a software development project's knowledge flow resulting from inadequate documentation. The third paper focuses on understanding the mechanisms leading to discrepancies between design and implementation in a software development project. The use of the ATS methodology and the knowledge flow model facilitates the case study's analysis. The discrepancies between design artifacts and implementation can be explained by the fact that design is an image of possibilities. Complementary research results allow the characterization of three software development capstone projects by means of an exploratory multiple case study based on the ATS methodology and the knowledge flow model. The analysis of the activity time slips (ATS) allows to judge the developers' rigor and therefore the reliability of their activity time slips, according to three identified patterns. Also, cognitive factors are characterized from a individual and participative viewpoint. Furthermore, cognitive sequencing allows the identification of four developers profiles: the crystallizer, the coder, the "versatile", and the free agent. Moreover, a strong correlation was observed between high acquisition effort and low source code productivity, which is a major contribution, because of its theoretical and practical implications

    Amélioration de la robustesse des systèmes de reconnaissance automatique du locuteur dans l'espace des i-vecteurs

    Get PDF
    Les systèmes nec plus ultra de reconnaissance du locuteur adoptent la représentation de la parole dans l’espace des i-vecteurs. Un i-vecteur n’est qu’un simple vecteur de faible dimension (typiquement dans les centaines) représentant une vaste gamme d’information véhiculée par le signal vocal. Bien que les performances de ces systèmes en matière des taux de reconnaissance aient atteint un niveau très avancé, une meilleure exploitation de ces systèmes dans les milieux réels de tous les jours nécessite encore plus d'efforts de la part des chercheurs en la matière. Dans le cadre de cette thèse, notre objectif principal est d'améliorer la robustesse des systèmes de reconnaissance du locuteur opérant dans l’espace des ivecteurs. Dans la première partie de ce travail, nous nous intéressons à la tâche de la vérification du locuteur. Nous nous focalisons plus particulièrement sur la conception d’un système de vérification à la fois indépendant du type du canal de transmission/enregistrement et du genre du locuteur. Dans le contexte des i-vecteurs, les classificateurs génératifs, tels que l’analyse discriminante linéaire probabiliste (PLDA), ont dominé le domaine de la reconnaissance du locuteur. Néanmoins, de simples classificateurs à base de la similarité angulaire du cosinus (SAC) restent concurrentiels. Ainsi, nous avons proposé dans cette partie deux solutions rendant respectivement les systèmes à base des deux classificateurs de l’état de l’art (le PLDA et la SAC) indépendants du type du canal et du genre du locuteur. En effet, nos systèmes conçus de la sorte sont considérés comme les deux premiers systèmes de vérification du locuteur atteignant les résultats de l’état de l’art (environ 2 % d’EER pour la parole téléphonique et 3 % pour la parole microphonique) sans pour autant profiter ni de l’information concernant le type du canal ni de celle concernant le genre du locuteur. Le regroupement en locuteurs est une autre tâche de la reconnaissance du locuteur qui représente notre centre d’intérêt dans la seconde partie de cette thèse. À nouveau, nos recherches seront menées uniquement dans le contexte de la représentation de la parole par des i-vecteurs. À vrai dire, il existe deux types d’applications à base du regroupement en locuteurs, soit, le regroupement en locuteurs des grands corpora des fichiers vocaux (speaker clustering) et la structuration en tours de parole d’un flux audio (speaker diarization). Une nouvelle version de l’algorithme non paramétrique de décalage de la moyenne (Mean Shift, MS) a été proposée afin de faire face au problème du regroupement en locuteurs. Nous avons démontré que les performances de notre nouvelle version de l’algorithme de MS à base de la distance angulaire du cosinus dépassent ceux de la version de base, une fois testés face à la tâche du regroupement en locuteurs. Le même algorithme nous a permis d’obtenir les résultats de l’état de l’art (DER égal à 12,4 %) de la structuration en tours de parole du corpus des données téléphoniques CallHome

    Vérification formelle de diagrammes UML : une approche basée sur la logique de réécriture

    Get PDF

    Étendre la spécification de programmes C concurrents et les vérifier par une transformation de source à source

    Get PDF
    L’utilisation croissante de systèmes informatiques critiques et l’augmentation de leur complexité rendent leur bon fonctionnement essentiel. Le model-checking logiciel permet de prouver formellement l’absence d’erreurs dans un programme. Il reste cependant limité par deux facteurs : l’explosion combinatoire et la capacité à spécifier le comportement correct d’un programme. Ces deux problèmes sont amplifiés dans le cas de programmes concurrents, à cause des différents entrelacements possibles entre les fils d’exécutions. Les assertions et les formules logiques LTL sont les deux formalismes de spécification les plus utilisés dans le cadre du model-checking logiciel. Cependant, ils sont limités dans un contexte concurrent : les assertions ne permettent pas d’exprimer des relations temporelles entre différents fils d’exécutions alors que les formules LTL utilisées par les outils actuels ne permettent pas d’exprimer des propriétés sur les variables locales et les positions dans le code du programme. Ces notions sont pourtant importantes dans le cas de programmes concurrents. Dans ce mémoire, nous établissons un formalisme de spécification visant à corriger ces limitations. Ce formalisme englobe LTL et les assertions, en permettant d’exprimer des relations temporelles sur des propositions faisant intervenir les variables locales et globales d’un programme ainsi que les positions dans le code source. Nous présentons aussi un outil permettant de vérifier une spécification exprimée dans ce formalisme dans le cas d’un programme concurrent codé en C. Notre formalisme se base sur la logique LTL. Il permet de surmonter deux des principales limitations rencontrées par les variantes de LTL utilisées par les outils de model-checking logiciel : manipuler des positions dans le code et des variables locales dans les propositions atomiques. La principale difficulté est de définir correctement dans l’ensemble du programme une proposition atomique lorsqu’elle dépend d’une variable locale. En effet, cette variable locale n’a de sens que dans une partie limitée du programme. Nous résolvons ce problème en utilisant le concept de zones de validité. Une zone de validité est un intervalle de positions dans le code source du programme dans laquelle la valeur d’une proposition atomique est définie à l’aide de sa fonction d’évaluation. Une valeur par défaut est utilisée hors de la zone de validité. Ceci permet de limiter l’utilisation de la fonction d’évaluation aux contextes où tous ses paramètres locaux sont définis.----------ABSTRACT : Critical programs and IT systems are more and more broadly used. Simultaneously, their complexity increase. More than ever, it is crucial to ensure their correctness. Software model-checking is a verification technique that allows to formally prove the absence of errors in a program. However, it faces two main issues: combinatorial explosion and the ability to specify the correct behavior of a program. These issues are amplified for concurrent programs because of the interleaving between threads. Assertions and LTL formulas are the most used specification formalism for software model-checking. However they are restricted in a concurrent context. On the one hand, it is not possible to express temporal relations between threads or events of the program using only assertions. On the other hand, LTL formulas that are supported by the main software model-checkers does not allow to use local variables and program locations, whereas program locations are often a convenient way to check the synchronization between threads. In this report, we establish a specification formalism aiming to overcome these issues. This formalism is a superset of both LTL and assertions. It allows to express propositions that use global and local variables and propositions, and to build temporal relations on these propositions. Then, we introduce a tool allowing to check for the correctness of concurrent C programs specified with the formalism we introduce. Our formalism is based on the LTL logic. It tackles the problems of code location manipulation in specification and the use of local variable in atomic propositions. The main difficulty is to properly define an atomic proposition in the whole program when it depends on a local variable, as the local variable is defined only in part of the program. We solve this issue using the concept of validity area. A validity area is an interval of code locations in which the value of an atomic proposition is computed using its evaluation function. A default value is used out of the validity area. Hence, it is possible to limit the use of the evaluation function to the lexical contexts where all local parameters are defined
    • …
    corecore