273 research outputs found

    Méthodes de désagrégation appliquées aux Modèles du Climat Global Atmosphère-Océan (MCGAO)

    Get PDF
    La littérature scientifique de la dernière décennie contient un grand nombre de travaux qui détaillent le développement des méthodes de « désagrégation » (downscaling) de l’échelle globale à l’échelle hydrologique pour tenter d’estimer les impacts du changement global sur la disponibilité et la distribution des ressources en eau. Cet article présente une revue et une synthèse des méthodologies de « désagrégation climatique » présentées dans la littérature afin de simuler les réponses régionales au changement global du climat. L’accent est mis sur les avancées récentes et sur les problèmes reliés à l’application pratique des modèles dans les études d’impact. L’article présente également une discussion des avantages et limites des différentes approches, ainsi que quelques suggestions pour l’étude future des impacts du changement global sur les ressources en eau.During the last decade, a large volume of literature has been published on the development of “downscaling” methods from the global to the hydrological scale in order to estimate the impact of global climate change on the availability and distribution of water resources. The present paper proposes a comprehensive review and a synthesis of climatic downscaling methodologies presented in the literature in order to simulate the regional response to global climate change. The paper focuses mainly on recent advances in the field, and on the practical problems that may arise from the application of the various models in impact studies. The paper presents also a discussion of the advantages and limitations of the various methods. The paper concluded with some suggestions for future work dealing with the impacts of global change on water resources

    Une approche pragmatique pour mesurer la qualité des applications à base de composants logiciels

    Get PDF
    Over the past decade, many companies proceeded with the introduction of component-oriented software technology in their development environments. The component paradigm that promotes the assembly of autonomous and reusable software bricks is indeed an interesting proposal to reduce development costs and maintenance while improving application quality. In this paradigm, as in all others, architects and developers need to evaluate as soon as possible the quality of what they produce, especially along the process of designing and coding. The code metrics are indispensable tools to do this. They provide, to a certain extent, the prediction of the quality of « external » component or architecture being encoded. Several proposals for metrics have been made in the literature especially for the component world. Unfortunately, none of the proposed metrics have been a serious study regarding their completeness, cohesion and especially for their ability to predict the external quality of developed artifacts. Even worse, the lack of support for these metrics with the code analysis tools in the market makes it impossible to be used in the industry. In this state, the prediction in a quantitative way and « a priori » the quality of their developments is impossible. The risk is therefore high for obtaining higher costs as a consequence of the late discovery of defects. In the context of this thesis, I propose a pragmatic solution to the problem. Based on the premise that much of the industrial frameworks are based on object-oriented technology, I have studied the possibility of using some « conventional » code metrics unpopular to component world, to evaluate component-based applications. Indeed, these metrics have the advantage of being well defined, known, equipped and especially to have been the subject of numerous empirical validations analyzing the predictive power for imperatives or objects codes. Among the existing metrics, I identified a subset of them which, by interpreting and applying to specific levels of granularity, can potentially provide guidance on the compliance of developers and architects of large principles of software engineering, particularly on the coupling and cohesion. These two principles are in fact the very source of the component paradigm. This subset has the ability to represent all aspects of a component-oriented application : internal view of a component, its interface and compositional view through architecture. This suite of metrics, identified by hand, was then applied to 10 open-source OSGi applications, in order to ensure, by studying of their distribution, that it effectively conveyed relevant information to the component world. I then built predictive models of external quality properties based on these internal metrics : reusability, failure, etc. The development of such models and the analysis of their power are only able to empirically validate the interest of the proposed metrics. It is also possible to compare the « power » of these models with other models from the literature specific to imperative and/or object world. I decided to build models that predict the existence and frequency of defects and bugs. To do this, I relied on external data from the history of changes and fixes a panel of 6 large mature OSGi projects (with a maintenance period of several years). Several statistical tools were used to build models, including principal component analysis and multivariate logistic regression. This study showed that it is possible to predict with these models 80% to 92% of frequently buggy components with reminders ranging from 89% to 98%, according to the evaluated projects. Models for predicting the existence of a defect are less reliable than the first type of model. This thesis confirms thus the interesting « practice » of using common and well equipped metrics to measure at the earliest application quality in the component world.Ces dernières années, de nombreuses entreprises ont introduit la technologie orientée composant dans leurs développements logiciels. Le paradigme composant, qui prône l’assemblage de briques logiciels autonomes et réutilisables, est en effet une proposition intéressante pour diminuer les coûts de développement et de maintenance tout en augmentant la qualité des applications. Dans ce paradigme, comme dans tous les autres, les architectes et les développeurs doivent pouvoir évaluer au plus tôt la qualité de ce qu’ils produisent, en particulier tout au long du processus de conception et de codage. Les métriques sur le code sont des outils indispensables pour ce faire. Elles permettent, dans une certaine mesure, de prédire la qualité « externe » d’un composant ou d’une architecture en cours de codage. Diverses propositions de métriques ont été faites dans la littérature spécifiquement pour le monde composant. Malheureusement, aucune des métriques proposées n’a fait l’objet d’une étude sérieuse quant à leur complétude, leur cohésion et surtout quant à leur aptitude à prédire la qualité externe des artefacts développés. Pire encore, l’absence de prise en charge de ces métriques par les outils d’analyse de code du marché rend impossible leur usage industriel. En l’état, la prédiction de manière quantitative et « a priori » de la qualité de leurs développements est impossible. Le risque est donc important d’une augmentation des coûts consécutive à la découverte tardive de défauts. Dans le cadre de cette thèse, je propose une réponse pragmatique à ce problème. Partant du constat qu’une grande partie des frameworks industriels reposent sur la technologie orientée objet, j’ai étudié la possibilité d’utiliser certaines des métriques de codes "classiques", non propres au monde composant, pour évaluer les applications à base de composants. Parmi les métriques existantes, j’ai identifié un sous-ensemble d’entre elles qui, en s’interprétant et en s’appliquant à certains niveaux de granularité, peuvent potentiellement donner des indications sur le respect par les développeurs et les architectes des grands principes de l’ingénierie logicielle, en particulier sur le couplage et la cohésion. Ces deux principes sont en effet à l’origine même du paradigme composant. Ce sous-ensemble devait être également susceptible de représenter toutes les facettes d’une application orientée composant : vue interne d’un composant, son interface et vue compositionnelle au travers l’architecture. Cette suite de métrique, identifiée à la main, a été ensuite appliquée sur 10 applications OSGi open- source afin de s’assurer, par une étude de leur distribution, qu’elle véhiculait effectivement pour le monde composant une information pertinente. J’ai ensuite construit des modèles prédictifs de propriétés qualité externes partant de ces métriques internes : réutilisation, défaillance, etc. J’ai décidé de construire des modèles qui permettent de prédire l’existence et la fréquence des défauts et les bugs. Pour ce faire, je me suis basée sur des données externes provenant de l’historique des modifications et des bugs d’un panel de 6 gros projets OSGi matures (avec une période de maintenance de plusieurs années). Plusieurs outils statistiques ont été mis en œuvre pour la construction des modèles, notamment l’analyse en composantes principales et la régression logistique multivariée. Cette étude a montré qu’il est possible de prévoir avec ces modèles 80% à 92% de composants fréquemment buggés avec des rappels allant de 89% à 98%, selon le projet évalué. Les modèles destinés à prévoir l’existence d’un défaut sont moins fiables que le premier type de modèle. Ce travail de thèse confirme ainsi l’intérêt « pratique » d’user de métriques communes et bien outillées pour mesurer au plus tôt la qualité des applications dans le monde composant

    Agrégation et extraction des connaissances dans les réseaux inter-véhicules

    Get PDF
    Les travaux réalisés dans cette thèse traitent de la gestion des données dans les réseaux inter-véhiculaires (VANETs). Ces derniers sont constitués d un ensemble d objets mobiles qui communiquent entre eux à l aide de réseaux sans fil de type IEEE 802.11, Bluetooth, ou Ultra Wide Band (UWB). Avec de tels mécanismes de communication, un véhicule peut recevoir des informations de ses voisins proches ou d autres plus distants, grâce aux techniques de multi-sauts qui exploitent dans ce cas des objets intermédiaires comme relais. De nombreuses informations peuvent être échangées dans le contexte des VANETs , notamment pour alerter les conducteurs lorsqu un événement survient (accident, freinage d urgence, véhicule quittant une place de stationnement et souhaitant en informer les autres, etc.). Au fur et à mesure de leurs déplacements, les véhicules sont ensuite contaminés par les informations transmises par d autres. Dans ce travail, nous voulons exploiter les données de manière sensiblement différente par rapport aux travaux existants. Ces derniers visent en effet à utiliser les données échangées pour produire des alertes aux conducteurs. Une fois ces données utilisées, elles deviennent obsolètes et sont détruites. Dans ce travail, nous cherchons à générer dynamiquement à partir des données collectées par les véhicules au cours de leur trajet, un résumé (ou agrégat) qui fourni des informations aux conducteurs, y compris lorsqu aucun véhicule communicant ne se trouve pas à proximité. Pour ce faire, nous proposons tout d abord une structure d agrégation spatio-temporelle permettant à un véhicule de résumer l ensemble des événements observés. Ensuite, nous définissons un protocole d échange des résumés entre véhicules sans l intermédiaire d une infrastructure, permettant à un véhicule d améliorer sa base de connaissances locale par échange avec ses voisins. Enfin, nous définissons nos stratégies d exploitation de résumé afin d aider le conducteur dans la prise de décision. Nous avons validé l ensemble de nos propositions en utilisant le simulateur VESPA en l étendant pour prendre en compte la notion de résumés. Les résultats de simulation montrent que notre approche permet effectivement d aider les conducteurs à prendre de bonnes décisions, sans avoir besoin de recourir à une infrastructure centralisatriceThe works in this thesis focus on data management in inter-vehicular networks (VANETs). These networks consist of a set of moving objects that communicate with wireless networks IEEE 802.11, Bluetooth, or Ultra Wide Band (UWB). With such communication mechanisms, a vehicle may receive information from its close neighbors or other more remote, thanks to multi-jump techniques that operate in this case intermediate objects as relays. A lot of information can be exchanged in the context of VANETs , especially to alert drivers when an event occurs (accident, emergency braking, vehicle leaving a parking place and want to inform others, etc.). In their move vehicles are then contaminated by the information provided by others. In this work, we use the data substantially different from the existing work. These are, in fact, use the data exchanged to produce alerts drivers. Once these data are used, they become obsolete and are destroyed. In this work, we seek to generate dynamically from data collected by vehicles in their path, a summary (or aggregate) which provides information to drivers, including when no communicating vehicle is nearby. To do this, we first propose a spatio-temporal aggregation structure enabling a vehicle to summarize all the observed events. Next, we define a protocol for exchanging summaries between vehicles without the mediation of an infrastructure, allowing a vehicle to improve its local knowledge base by exchange with its neighbors. Finally, we define our operating strategies of the summary to assist the driver in making decision. We validated all of our proposals using the VESPA simulator by extending it to take into account the concept of summaries. Simulation results show that our approach can effectively help drivers make good decisions without the need to use a centralized infrastructureEVRY-INT (912282302) / SudocSudocFranceF

    Révision : Définitions et paramètres

    Get PDF
    Notre étude a eu pour objectif de réfléchir sur un sujet longtemps négligé par les traductologues malgré son importance primordiale dans tout processus de traduction, à savoir la révision. Dans cet article, il sera d’abord question de la concrétisation du concept. Il s’agira ensuite d’une réflexion sur les diverses définitions du mot qu’ont proposées plusieurs auteurs ainsi que sur les limites montrées par ces derniers quant à apporter une définition claire qui permettrait d’éviter l’écueil d’une confusion terminologique. Finalement, l’objectivité en matière de révision sera abordée, par le biais d’un examen des paramètres proposés par trois auteurs et en vue d’en produire une synthèse pour, en fait, parvenir à un total de quatre paramètres.Revision has a direct, “one-to-one” relationship with the quality of translation. Nonetheless, the topic has not been sufficiently discussed thus far in the discipline of translation studies. Recognizing the need for further in-depth research on the topic, this study reviews the various discussions related to revision on the basis of the following three categories: First, it explores how the literature has attempted to interpret the concept of revision. Second, it reviews the definitions of revision as suggested by various scholars, at the same time pointing out their limitations and proposing a more clear-cut definition. Lastly, it examines the diverse parameters of revision raised by previous academic endeavors, and based on a comprehensive evaluation and analysis of earlier parameters, suggests four new parameters of revision번역의 품질과 직결되어 있는 개념인 감수(revision)는 오늘날까지 번역학자들에 의해 충분히 연구되지 않은 주제이다. 따라서 본 연구에서는 감수와 관련한 다양한 논의들을 세 가지 차원에서 검토하고자 한다. 우선 감수 개념이 어떤 과정을 통하여 구체화되어 왔는지를 살펴보았다. 두 번째로는 다양한 학자들이 제시한 감수의 정의 및 그 한계를 짚어보고 이를 통해 명확한 감수 정의를 제시하였다. 마지막으로 기존 연구에서 제시된 감수의 기준들을 살펴보고, 이를 종합하여 4개의 감수 기준을 도출하였다

    Optical coherence tomography: From physical principles to clinical applications

    Get PDF
    SummaryOptical coherence tomography is a new endocoronary imaging modality employing near infrared light, with very high axial resolution. We will review the physical principles, including the old time domain and newer Fourier domain generations, clinical applications, controversies and perspectives of optical coherence tomography

    Le transfert des apprentissages et la réforme de l’éducation au Québec : quelques mises au point

    Get PDF
    L’objectif du présent article est d’examiner le discours de certains pédagogues de langue française concernant la notion de transfert et de faire la démonstration que la conception véhiculée par ces auteurs est, à plusieurs égards, contraire aux données issues des recherches en psychologie. Il en ressort que ces auteurs restreignent souvent la définition du transfert à ses formes les plus improbables et négligent, dans leurs propositions de réforme des pratiques d’enseignement, deux autres paramètres liés à l’existence du transfert : l’acquisition et la rétention des apprentissages. En véhiculant des conceptions erronées et en négligeant l’existence du phénomène de transfert vertical, ces auteurs proposent des pratiques pédagogiques qui favorisent les meilleurs élèves au détriment de ceux éprouvant des difficultés.The aim of this article is to examine the discourse of certain French language pedagogues regarding the concept of transfer and to demonstrate that, on several dimensions, this representation of the concept is contrary to data from research in psychology. It was found that these authors often limit the definition of transfer to the most improbable forms, and, in their propositions for reform of teaching practices, neglect two other parameters related to the presence of transfer: learning acquisition and retention. In promoting these conceptions and in neglecting the presence of vertical transfer phenomenon, these authors propose pedagogical practices that facilitate learning for the best students to the detriment of those who have difficulties.El objetivo del presente artículo es examinar el discurso de algunos pedagogos de habla francesa en relación con la noción de transferencia y de demostrar que la concepción vinculada por estos autores es, en varios aspectos, opuesta a los datos provenientes de trabajos de investigación en psicología. Resalta que estos autores limitan con mucha frecuencia la definición de transferencia a sus formas las más improbables e ignoran, en sus propuestas de reforma de las práctica docentes, otros dos parámetros ligados a la existencia de la transferencia : la adquisición y la retención de los aprendizajes. Vinculando concepciones erróneas y ignorando la existencia del fenómeno de transferencia vertical, estos autores proponen prácticas pedagógicas que favorecen los mejores alumnos al detrimento de los que tienen dificultades

    Des fractales pour l’urbanisme? Quelques pistes de réflexion à partir de l’exemple de Strasbourg-Kehl

    Get PDF
    À partir de l’analyse de la morphologie de l’agglomération transfrontalière Strasbourg-Kehl, cet article traite de l’apport des analyses fractales dans le domaine de l’urbanisme. Outre quelques résultats d’ensemble désormais classiques, comme le calcul de la dimension fractale ou l’édition de la courbe du comportement scalant, il aborde le sujet des dimensions particulières de certains tissus spécifiques comme le centre-ville, les ensembles pavillonnaires, les grands ensembles et les zones techniques périphériques. Il propose également deux nouveaux indicateurs élaborés à partir des mesures de fractalité et susceptibles d’intéresser l’urbanisme et les recherches urbaines.This paper is based on a fractal analysis of the urban morphology of a border city: Strasbourg-Kehl. The main topic developed concerns the usefulness of fractal analysis to town planners and to town planning. Some classic results are presented, such as the computation of the general fractal dimension of Strasbourg and the designing of the city’s scaling behaviour curve. Some specific results are also discussed with regards to the characteristic fractal dimensions of certain specific urban morphologies, for instance downtown morphology, individual housing settlements and larger building areas (residential, commercial and industrial quarters). Finally, two new indicators are developed to improve the applications of fractal measures in urban town planning

    Sélection de question et choix de classificateur pour questionnaires adaptatifs

    Get PDF
    Résumé Les environnements d'apprentissage prennent une place de plus en plus grande dans les techniques modernes d'éducation. L'évaluation des connaissances d'un individu est au coeur de ces environnements. Pour déterminer ecacement ce niveau de connaissances, le recours aux systèmes de test assistés par ordinateurs est de plus en plus fréquent. Notamment, on cherche généralement à minimiser la longueur des questionnaires et donc le nombre de questions posées. Ces systèmes nécessitent la création d'un modèle de connaissance qui peut être créé par des experts du domaine ou par une approche statistique tirant parti de données existantes. Parmi ces approches statistiques, les réseaux bayésiens restent très largement utilisés. Cependant, certains auteurs démontrent qu'il existe des techniques qui semblent plus pertinentes et on observe par ailleurs que des techniques basiques de la fouille de données ne sont pas utilisées dans ce cadre.----------Abstract Adaptive learning environments are based on the modeling and the evaluation of a student. There are many approaches to handle this problematic. For instance, probabilistic and learning techniques are convenient because they allow to automatize the process and to describe the student skill with uncertainty. In previous articles, authors claimed that a solution with a Bayesian framework called POKS (for Partial Order Knowledge Structure) can outperform Bayes network for this type of work. But the comparison between this techniques and classical datamining techniques doesn't exist

    The Role of Coherence in Text Approaching and Comprehension: Applications in Translation Didactics

    Get PDF
    The communicative text-linguistic approach to the study of texts and their theoretical and methodological problems plays an important role in Translation Studies and in Translation Didactics. The need to use and utilise the textual factors in the translation process and teaching is apparent in various linguistic and translational theories given that Translation, an act of speech and communication, is not performed at the level of language, but at the level of the text and discourse, utilising both linguistic and extralinguistic devices. This paper examines one of the seven textual factors, according to the basic theory of de Beaugrande and Dressler, i.e., the factor of coherence. Given that coherence expresses the logical consistency of utterances in terms of content – and therefore the construction of meaning – concepts such as knowledge, patterns and types of knowledge, frames and scripts, memory, are crucial for describing and examining this factor when approaching and understanding a text. Moreover, the interconnection of text linguistics, translation and cognition is evident, considering de Beaugrande’s argument (1999) that “text linguistics has always had a resolutely cognitive orientation because the text must be described as both product and process.” Furthermore, we shall examine how teachers of translation courses may take into account these concepts and elements when choosing texts for translation purposes, and utilise the theory of high-coherence and low-coherence texts (D. McNamara) in order to assist translator trainees in enhancing their extralinguistic knowledge and in using their prior knowledge during the comprehension/decoding phase of the translation act.L’approche de la linguistique communicative du texte des études de textes et de leurs problèmes théoriques et méthologiques jouent un rôle important dans la traductologie et dans la didactique de la traduction. Le besoin d’utiliser des facteurs textuels dans le processus de la translation et de l’enseignement est visible dans les diverses théories linguistiques et translationnelles, étant entendu que la translation, acte de parole et de communication, ne se déroule pas au niveau de la langue, mais à celui du texte et du discours en utilisant à la fois le linguistique et l’extralinguistique. Cet article étudie l’un des sept facteurs textuels selon la théorie de base de Beaugrande et Dressler, c’est-à-dire le facteur de cohérence. Étant donné que la cohérence exprime la constante logique des énoncés en terme de contenu – et par conséquent la construction du sens – les concepts de connaissance, de modes et de types de savoir, des cadres et scénarios, mémoire, sont importants pour décrire et examiner ce facteur dans l’approche de la compréhension du texte. De plus, l’interconnexion de la linguistique du texte de la translation et de la cognition est évidente en prenant en compte l’argument de Beaugrande (1999) que « la linguistique du texte a toujours eu une orientation résolument cognitive parce que le texte doit être décrit à la fois comme produit et processus ». Par ailleurs, nous examinons comment les enseignants de la translation intègrent ces concepts et ces éléments dans leurs choix de textes à traduire, et comment ils utilisent la théorie de la haute et la faible cohérences textuelles (D. McNamara) pour servir aux apprentis translateurs à mettre en valeur leurs connaissances extralinguistiques et à utiliser leurs connaissances préalables lors de la phase de compréhension, décodage de l’acte de translation

    Etude morphologique et métrologique des sinus de Valsalva par traitement d'images tomographiques

    Get PDF
    L'objectif de cette thèse est l'élaboration et l'application de traitements d'images pour permettre une étude objective et fiable des sinus de Valsalva, importantes cavités de la base de l'aorte. Les méthodes proposées s'appliquent aux séquences ciné-IRM et aux examens de scanner sans qu'il n'y ait à modifier le paramétrage entre deux examens. Pour cela, nous avons d'abord étudié la morphologie de cette zone anatomique puis détaillé les différentes propriétés communes à toutes les images de sinus. Ceux-ci font en l'occurrence partie des principaux organes clairs et peu mobiles. Nous avons donc développé un algorithme qui détecte ces éléments et caractérise chacun d'entre eux par une trajectoire unique. Divers outils de morphologie mathématique ont été utilisés à cette occasion, tout comme pour l'extraction du contour des sinus dans chaque image. L'étape de segmentation repose elle sur la reconstruction géodésique, qui s'avère plus efficace et surtout plus robuste que l'usage de contours actifs usuels. L'intérieur des sinus forme un domaine simplement connexe et étoilé. Grâce à ce postulat, nous avons conçu une nouvelle reconstruction, nommée transformée en aurore, qui limite la propagation des intensités aux supports radiaux et présente les résultats dans un repère polaire pour une meilleure lecture des contours.Les points caractéristiques des sinus ont également été détectés, par étude de rayons et détermination de points dominants. Ces points fournissent les éléments nécessaires à une mesure automatique des sinus, mesure cohérente avec les mesures actuellement réalisées manuellement et les variations intra et inter-observateurs de celles-ci. D'autres outils sont enfin esquissés pour modéliser le contour par coniques, classer les images d'examens cinétiques en fonction du moment du cycle et suivre le mouvement des valves dans ces mêmes examens.L'ensemble de ces travaux ont amené à la réalisation d'un logiciel d'aide au diagnostic qui intègre nos méthodes et dont l'interface est également présentée dans le présent mémoire.This Phd thesis deals with the design and the use of image processing tools in order to allow a reliable and objective study of the sinuses of Valsalva which are important cavities of the aortic root. The proposed methods can be applied on cine-MR sequences and CT examinations without any change in the settings between two examinations.Firstly, we studied the morphology of this anatomical area and its constant properties in all images of the dataset. Sinuses are one of the main bright organs with limited movements. Hence a new algorithm has been designed. It detects and characterizes each bright organ by a single trajectory. Various tools of mathematical morphology are used for this step, as for the extraction of the contour of the sinuses in each image.The segmentation step is based on the geodesic reconstruction, which is more effective and more robust than the usual active contours. The shape depicting the sinuses is simply connected and a star domain. With this assumption, a new reconstruction is proposed, called the Aurora transform. This transform limits the spread of intensities only on the radial lines and shows its results in a polar space for a better reading of edges.The relevant points of the sinuses are also detected by a study of radii and the determination of dominant points along edges. An automatic measurement of the sinuses is deduced from these points. The values are very close to the manual measures currently done according to the intra-and inter-observer variations.Some other tools are finally outlined. They includes the modeling of edges by conics, the image classification depending on the time of the cycle in sequences and the tracking of the aortic valves in these examinations.This work led to the devlopement of a diagnostic aid software based on our methods. Its interface is also presented herein.DIJON-BU Doc.électronique (212319901) / SudocSudocFranceF
    corecore