40 research outputs found

    ModĂ©lisation statistique de l’état de charge des batteries Ă©lectriques

    Get PDF
    Electric batteries are omnipresent in our daily lives: computers, smartphones, etc. Batteries are important for anticipating the scarcity of fossil fuels and tackling their environmental impact. Therefore, estimating the State of Charge (SoC) of a battery is nowadays a challenging issue, as existing physical and statistical models are not yet robust. Indeed a battery is a complex electrochemical system. Its dynamic depends not only on its internal characteristics but also on uncontrolled usage conditions: temperature, usage profile, etc. However the SoC estimation helps to prevent overcharge and deep discharge, and to estimate the battery autonomy. In this study, the battery dynamics are described by a set of physical linear equations, switching randomly according to a Markov chain. This model is referred to as switching Markov state space model. To ensure the unicity of the model parameters, we prove its identifiability by applying straightforward and natural constraints on its “physical” parameters. Embedded applications, like electric vehicles, impose online estimated with hardware and time constraints. Therefore we estimate the SoC using a sequential importance sampling technique. Furthermore the model includes two latent variables: the SoC and the Markov chain state. Thus, to estimate the parameters, we develop and test three algorithms adapted to latent structure models: particle Gibbs sampler, Monte Carlo EM penalized with identifiability constraints, and Monte Carlo EM penalized with a prior distribution. The hidden Markov states aim to model the different “regimes” of the battery dynamics. We identify their number using different model selection criteria. Finally, when applied to various data from three battery types (cell, module and pack of an electric vehicle) our model allows us to analyze the battery dynamics and to obtain a robust and accurate SoC estimation under uncontrolled usage conditions.Les batteries Ă©lectriques sont omniprĂ©sentes dans notre vie quotidienne : ordinateur, tĂ©lĂ©phone, etc. Elles jouent un rĂŽle important dans le dĂ©fi de la transition Ă©nergĂ©tique : anticiper la rarĂ©faction des Ă©nergies fossiles et rĂ©duire la pollution, en dĂ©veloppant le stockage des Ă©nergies renouvelables et les transports Ă©lectriques. Cependant, l'estimation de l'Ă©tat de charge (State of Charge – SoC) d'une batterie est difficile et les modĂšles de prĂ©diction actuels sont peu robustes. En effet, une batterie est un systĂšme Ă©lectrochimique complexe, dont la dynamique est influencĂ©e non seulement par ses caractĂ©ristiques internes, mais aussi par les conditions d'usages souvent non contrĂŽlables : tempĂ©rature, profil d’utilisation, etc. Or, une estimation prĂ©cise du SoC permet de garantir une utilisation sĂ»re de la batterie en Ă©vitant une surcharge ou surdĂ©charge ; mais aussi d’estimer son autonomie. Dans cette Ă©tude, nous utilisons un modĂšle Ă  espaces d'Ă©tats gouvernĂ© par une chaĂźne de Markov cachĂ©e. Ce modĂšle est fondĂ© sur des Ă©quations physiques et la chaĂźne de Markov cachĂ©e permet d’apprĂ©hender les diffĂ©rents «rĂ©gimes de fonctionnement» de la batterie. Pour garantir l’unicitĂ© des paramĂštres du modĂšle, nous dĂ©montrons son identifiabilitĂ© Ă  partir de contraintes simples et naturelles sur ses paramĂštres «physiques ». L’estimation du SoC dans un vĂ©hicule Ă©lectrique doit ĂȘtre faĂźte en ligne et avec une puissance de calcul limitĂ©e. Nous estimons donc le SoC en utilisant une technique d’échantillonnage prĂ©fĂ©rentiel sĂ©quentiel. D’autre part l’estimation des paramĂštres est faĂźte Ă  partir d’une base d’apprentissage pour laquelle les Ă©tats de la chaĂźne de Markov et le SoC ne sont pas observĂ©s. Nous dĂ©veloppons et testons trois algorithmes adaptĂ©s Ă  notre modĂšle Ă  structure latente : un Ă©chantillonneur particulaire de Gibbs, un algorithme de Monte-Carlo EM pĂ©nalisĂ© par des contraintes d’identifiabilitĂ© et un algorithme de Monte-Carlo EM pĂ©nalisĂ© par une loi a priori. Par ailleurs les Ă©tats cachĂ©s de la chaĂźne de Markov visent Ă  modĂ©liser les diffĂ©rents rĂ©gimes du fonctionnement de la batterie. Nous identifions leur nombre par divers critĂšres de sĂ©lection de modĂšles. Enfin, Ă  partir de donnĂ©es issues de trois types de batteries (cellule, module et pack d’un vĂ©hicule Ă©lectrique), notre modĂšle a permis d’apprĂ©hender les diffĂ©rentes sollicitations de la batterie et donne des estimations robustes et prĂ©cises du SoC

    Book of Abstracts XVIII Congreso de BiometrĂ­a CEBMADRID

    Get PDF
    Abstracts of the XVIII Congreso de BiometrĂ­a CEBMADRID held from 25 to 27 May in MadridInteractive modelling and prediction of patient evolution via multistate models / Leire Garmendia BergĂ©s, Jordi CortĂ©s MartĂ­nez and Guadalupe GĂłmez Melis : This research was funded by the Ministerio de Ciencia e InnovaciĂłn (Spain) [PID2019104830RBI00]; and the Generalitat de Catalunya (Spain) [2017SGR622 and 2020PANDE00148].Operating characteristics of a model-based approach to incorporate non-concurrent controls in platform trials / Pavla Krotka, Martin Posch, Marta Bofill Roig : EU-PEARL (EU Patient-cEntric clinicAl tRial pLatforms) project has received funding from the Innovative Medicines Initiative (IMI) 2 Joint Undertaking (JU) under grant agreement No 853966. This Joint Undertaking receives support from the European Union’s Horizon 2020 research and innovation programme and EFPIA and Children’s Tumor Foundation, Global Alliance for TB Drug Development non-profit organisation, Spring works Therapeutics Inc.Modeling COPD hospitalizations using variable domain functional regression / Pavel HernĂĄndez Amaro, MarĂ­a DurbĂĄn Reguera, MarĂ­a del Carmen Aguilera Morillo, Cristobal Esteban Gonzalez, Inma Arostegui : This work is supported by the grant ID2019-104901RB-I00 from the Spanish Ministry of Science, Innovation and Universities MCIN/AEI/10.13039/501100011033.Spatio-temporal quantile autoregression for detecting changes in daily temperature in northeastern Spain / Jorge Castillo-Mateo, Alan E. Gelfand, JesĂșs AsĂ­n, Ana C. CebriĂĄn / Spatio-temporal quantile autoregression for detecting changes in daily temperature in northeastern Spain : This work was partially supported by the Ministerio de Ciencia e InnovaciĂłn under Grant PID2020-116873GB-I00; Gobierno de AragĂłn under Research Group E46_20R: Modelos EstocĂĄsticos; and JC-M was supported by Gobierno de AragĂłn under Doctoral Scholarship ORDEN CUS/581/2020.Estimation of the area under the ROC curve with complex survey data / Amaia Iparragirre, Irantzu Barrio, Inmaculada Arostegui : This work was financially supported in part by IT1294-19, PID2020-115882RB-I00, KK-2020/00049. The work of AI was supported by PIF18/213.INLAMSM: Adjusting multivariate lattice models with R and INLA / Francisco PalmĂ­ Perales, Virgilio GĂłmez Rubio and Miguel Ángel MartĂ­nez Beneito : This work has been supported by grants PPIC-2014-001-P and SBPLY/17/180501/000491, funded by ConsejerĂ­a de EducaciĂłn, Cultura y Deportes (Junta de Comunidades de Castilla-La Mancha, Spain) and FEDER, grant MTM2016-77501-P, funded by Ministerio de EconomĂ­a y Competitividad (Spain), grant PID2019-106341GB-I00 from Ministerio de Ciencia e InnovaciĂłn (Spain) and a grant to support research groups by the University of Castilla-La Mancha (Spain). F. PalmĂ­-Perales has been supported by a Ph.D. scholarship awarded by the University of Castilla-La Mancha (Spain)

    Computer vision methods for unconstrained gesture recognition in the context of sign language annotation

    Get PDF
    Cette thĂšse porte sur l'Ă©tude des mĂ©thodes de vision par ordinateur pour la reconnaissance de gestes naturels dans le contexte de l'annotation de la Langue des Signes. La langue des signes (LS) est une langue gestuelle dĂ©veloppĂ©e par les sourds pour communiquer. Un Ă©noncĂ© en LS consiste en une sĂ©quence de signes rĂ©alisĂ©s par les mains, accompagnĂ©s d'expressions du visage et de mouvements du haut du corps, permettant de transmettre des informations en parallĂšles dans le discours. MĂȘme si les signes sont dĂ©finis dans des dictionnaires, on trouve une trĂšs grande variabilitĂ© liĂ©e au contexte lors de leur rĂ©alisation. De plus, les signes sont souvent sĂ©parĂ©s par des mouvements de co-articulation. Cette extrĂȘme variabilitĂ© et l'effet de co-articulation reprĂ©sentent un problĂšme important dans les recherches en traitement automatique de la LS. Il est donc nĂ©cessaire d'avoir de nombreuses vidĂ©os annotĂ©es en LS, si l'on veut Ă©tudier cette langue et utiliser des mĂ©thodes d'apprentissage automatique. Les annotations de vidĂ©o en LS sont rĂ©alisĂ©es manuellement par des linguistes ou experts en LS, ce qui est source d'erreur, non reproductible et extrĂȘmement chronophage. De plus, la qualitĂ© des annotations dĂ©pend des connaissances en LS de l'annotateur. L'association de l'expertise de l'annotateur aux traitements automatiques facilite cette tĂąche et reprĂ©sente un gain de temps et de robustesse. Le but de nos recherches est d'Ă©tudier des mĂ©thodes de traitement d'images afin d'assister l'annotation des corpus vidĂ©o: suivi des composantes corporelles, segmentation des mains, segmentation temporelle, reconnaissance de gloses. Au cours de cette thĂšse nous avons Ă©tudiĂ© un ensemble de mĂ©thodes permettant de rĂ©aliser l'annotation en glose. Dans un premier temps, nous cherchons Ă  dĂ©tecter les limites de dĂ©but et fin de signe. Cette mĂ©thode d'annotation nĂ©cessite plusieurs traitements de bas niveau afin de segmenter les signes et d'extraire les caractĂ©ristiques de mouvement et de forme de la main. D'abord nous proposons une mĂ©thode de suivi des composantes corporelles robuste aux occultations basĂ©e sur le filtrage particulaire. Ensuite, un algorithme de segmentation des mains est dĂ©veloppĂ© afin d'extraire la rĂ©gion des mains mĂȘme quand elles se trouvent devant le visage. Puis, les caractĂ©ristiques de mouvement sont utilisĂ©es pour rĂ©aliser une premiĂšre segmentation temporelle des signes qui est par la suite amĂ©liorĂ©e grĂące Ă  l'utilisation de caractĂ©ristiques de forme. En effet celles-ci permettent de supprimer les limites de segmentation dĂ©tectĂ©es en milieu des signes. Une fois les signes segmentĂ©s, on procĂšde Ă  l'extraction de caractĂ©ristiques visuelles pour leur reconnaissance en termes de gloses Ă  l'aide de modĂšles phonologiques. Nous avons Ă©valuĂ© nos algorithmes Ă  l'aide de corpus internationaux, afin de montrer leur avantages et limitations. L'Ă©valuation montre la robustesse de nos mĂ©thodes par rapport Ă  la dynamique et le grand nombre d'occultations entre les diffĂ©rents membres. L'annotation rĂ©sultante est indĂ©pendante de l'annotateur et reprĂ©sente un gain de robustese important.This PhD thesis concerns the study of computer vision methods for the automatic recognition of unconstrained gestures in the context of sign language annotation. Sign Language (SL) is a visual-gestural language developed by deaf communities. Continuous SL consists on a sequence of signs performed one after another involving manual and non-manual features conveying simultaneous information. Even though standard signs are defined in dictionaries, we find a huge variability caused by the context-dependency of signs. In addition signs are often linked by movement epenthesis which consists on the meaningless gesture between signs. The huge variability and the co-articulation effect represent a challenging problem during automatic SL processing. It is necessary to have numerous annotated video corpus in order to train statistical machine translators and study this language. Generally the annotation of SL video corpus is manually performed by linguists or computer scientists experienced in SL. However manual annotation is error-prone, unreproducible and time consuming. In addition de quality of the results depends on the SL annotators knowledge. Associating annotator knowledge to image processing techniques facilitates the annotation task increasing robustness and speeding up the required time. The goal of this research concerns on the study and development of image processing technique in order to assist the annotation of SL video corpus: body tracking, hand segmentation, temporal segmentation, gloss recognition. Along this PhD thesis we address the problem of gloss annotation of SL video corpus. First of all we intend to detect the limits corresponding to the beginning and end of a sign. This annotation method requires several low level approaches for performing temporal segmentation and for extracting motion and hand shape features. First we propose a particle filter based approach for robustly tracking hand and face robust to occlusions. Then a segmentation method for extracting hand when it is in front of the face has been developed. Motion is used for segmenting signs and later hand shape is used to improve the results. Indeed hand shape allows to delete limits detected in the middle of a sign. Once signs have been segmented we proceed to the gloss recognition using lexical description of signs. We have evaluated our algorithms using international corpus, in order to show their advantages and limitations. The evaluation has shown the robustness of the proposed methods with respect to high dynamics and numerous occlusions between body parts. Resulting annotation is independent on the annotator and represents a gain on annotation consistency

    ÉpidĂ©miologie des transitions de profils d'autonomie des personnes ĂągĂ©es probabilitĂ©s, facteurs associĂ©s et utilisation des services

    Get PDF
    La planification des services sociosanitaires oblige une bonne connaissance des besoins des personnes et de leur Ă©volution. Chez les personnes ĂągĂ©es, les besoins sont fortement conditionnĂ©s par l'Ă©tat d'autonomie. Des profils d'autonomie ont permis de bien dĂ©finir des groupes de personnes ayant des besoins de services similaires. Toutefois, si les besoins sont bien connus de maniĂšre transversale, l'Ă©volution dans le temps de groupes de personnes ainsi catĂ©gorisĂ©es l'est beaucoup moins. L'objectif de cette thĂšse par articles Ă©tait d'estimer les transitions entre les profils d'autonomie, la durĂ©e moyenne de sĂ©jour, les facteurs associĂ©s Ă  ces transitions et l'utilisation des services de santĂ©. Les donnĂ©es proviennent de l'Ă©tude PRISMA oĂč 1501 personnes ĂągĂ©es de 75 ans et plus Ă  risque de perte d'autonomie et vivant Ă  domicile ont Ă©tĂ© suivies pendant quatre annĂ©es. Les Ă©valuations annuelles ont Ă©tĂ© faites avec le SystĂšme de mesure de l'autonomie fonctionnelle (SMAF), Ă  partir duquel les Profils Iso-SMAF sont gĂ©nĂ©rĂ©s. Ceux-ci consistent en 14 profils qu'on peut regrouper en profils lĂ©gers avec atteinte aux tĂąches domestiques (1-2-3), profils avec atteinte prĂ©dominante Ă  la mobilitĂ© (4-6-9) ou aux fonctions mentales (5-7-8-10) et enfin les profils lourds (11 Ă  14). Des variables cliniques ont aussi Ă©tĂ© mesurĂ©es ainsi que l'utilisation des services de santĂ©. Des analyses multi-Ă©tats de Markov en temps continu ont permis les estimations. Les rĂ©sultats dĂ©taillĂ©s sur les transitions entre les profils et la durĂ©e moyenne de sĂ©jour dans un mĂȘme profil font l'objet du premier article. On y remarque que plus le profil Iso-SMAF est lourd, moins les personnes y restent stables. Elles font principalement des transitions vers des profils plus lourds, l'institutionnalisation ou le dĂ©cĂšs. On note Ă©galement la prĂ©sence de rĂ©cupĂ©ration vers des profils plus lĂ©gers, et ce, Ă  partir de tous les profils. La durĂ©e moyenne de sĂ©jour dans un profil a Ă©tĂ© estimĂ©e pour la population Ă©tudiĂ©e et pourrait s'avĂ©rer utile pour planifier l'intervalle adĂ©quat de rĂ©Ă©valuation de l'Ă©tat d'autonomie. L'Ă©tude des facteurs associĂ©s aux transitions fait l'objet du deuxiĂšme article. On y observe notamment que les hommes et les femmes font des transitions diffĂ©rentes Ă  partir des profils lĂ©gers et que l'utilisation de plusieurs services de santĂ© est associĂ©e aux transitions vers les profils mobilitĂ©. Toutefois, il n'a pas Ă©tĂ© possible d'effectuer des analyses multivariĂ©es. Il s'agit d'une exploration des facteurs associĂ©s aux transitions. L'utilisation des services de santĂ© chez les personnes classĂ©es dans le mĂȘme profil au dĂ©but et Ă  la fin d'un an constitue la troisiĂšme grande partie des rĂ©sultats. L'utilisation des services publics, privĂ©s et communautaires durant un an y sont dĂ©crits pour les profils 1 Ă  9. Ce volet descriptif vise Ă  alimenter des hypothĂšses futures de recherche. Ces travaux de recherche demeurent exploratoires, en ce sens qu'ils constituent la premiĂšre Ă©tude de transitions de profils d'autonomie, pour des profils utilisables en clinique. Ils fournissent nĂ©anmoins les premiĂšres balises sur lesquelles s'appuyer pour la planification des services de soutien Ă  domicile aux personnes ĂągĂ©es en perte d'autonomie

    Analyse génomique en médecine de précision : Optimisations et outils de visualisation

    Get PDF
    In oncology, a new paradigm tries to impose itself ; analyzing patient’s tumors, and identifying molecular alterations matching with targeted therapies to guide a personalized therapeutic orientation. Here, We discuss the molecular alterations possibly relevant for a therapeutic orientation, as well as the methods used for their identification : among the alterations of interest, copy number variations are widely used, and we more specifically focus on comparative genomic hybridization (aCGH). We show, using well characterized cell lines, that identification of CNV is not trivial. In particular, the choice for centralizing profiles can be critical, and different strategies for adjusting profiles on a theoretical 2n baseline can lead to erroneous interpretations. Next, we show, using tumor samples, that a major consequence is to include, or miss, targetable alterations within the decision procedure. This work lead us to develop a comprehensive workflow, dedicated to aCGH analysis. This workflow supports the major aCGH platforms, ensure a full traceability of the entire process and provides interactive visualization tools to assist the interpretation. This workflow, called rCGH, has been implemented as a R package, and is available on Bioconductor. The interactive visualization tools are available on line, and are ready to be installed on any institutional server.Un nouveau paradigme tente de s’imposer en oncologie ; identifier les anomalies molĂ©culaires dans la tumeur d’un patient, et proposer une thĂ©rapie ciblĂ©e, en relation avec ces altĂ©rations molĂ©culaires. Nous discutons ici des altĂ©rations molĂ©culaires considĂ©rĂ©es pour une orientation thĂ©rapeutique, ainsi que de leurs mĂ©thodes d’identification : parmi les altĂ©rations recherchĂ©es, les anomalies de nombre de copies tiennent une place importante, et nous nous concentrons plus prĂ©cisĂ©ment sur leur identification par hybridation gĂ©nomique comparative (aCGH). Nous montrons, d’abord Ă  partir de lignĂ©es cellulaires caractĂ©risĂ©es, que l’analyse du nombre de copies par aCGH n’est pas triviale et qu’en particulier le choix de la centralisation peut ĂȘtre dĂ©terminant ; diffĂ©rentes stratĂ©gies de centralisation peuvent conduire Ă  des profils gĂ©nomiques diffĂ©rents, certains aboutissant Ă  des interprĂ©tations erronĂ©es. Nous montrons ensuite, Ă  partir de cohortes de patients, qu’une consĂ©quence majeure est de retenir ou non certaines altĂ©rations actionnables dans la prise de dĂ©cision thĂ©rapeutique. Ce travail nous a conduit Ă  dĂ©velopper un workflow complet dĂ©diĂ© Ă  l’analyse aCGH, capable de prendre en charge les sources de donnĂ©es les plus courantes. Ce workflow intĂšgre les solutions discutĂ©es, assure une entiĂšre traçabilitĂ© des analyses, et apporte une aide Ă  l’interprĂ©tation des profils grĂące Ă  des solutions interactives de visualisation. Ce workflow, dĂ©nommĂ© rCH, a Ă©tĂ© implĂ©mentĂ© sous forme d’un package R, et dĂ©posĂ© sur le site Bioconductor. Les solutions de visualisation interactives sont disponibles en ligne. Le code de l’application est disponible pour une installation sur un serveur institutionnel

    Linear Consensus Algorithms: Structural Properties and Connections with Markov Chains

    Get PDF
    RĂ©sumĂ© Nous considĂ©rons un rĂ©seau d’agents multiples en interaction, et tel que chaque agent est supposĂ© possĂ©der un Ă©tat concernant une certaine quantitĂ© d’intĂ©rĂȘt. Selon le contexte, les Ă©tats d’agents peuvent correspondre Ă  des opinions, des valeurs, des estimĂ©s, des croyances, des positions, des vitesses, etc. Ces Ă©tats sont mis Ă  jour selon un algorithme ou protocole qui consiste en une rĂšgle d’interaction dictant la maniĂšre par laquelle les Ă©tats d’un agent donnĂ© influencent ou sont influencĂ©s par ceux de ses voisins. Les voisins sont dĂ©finis Ă  partir d’un graphe sous-jacent de communication, ce dernier Ă©voluant dans le temps de maniĂšre soit endogĂšne ou exogĂšne. Un consensus du systĂšme est dĂ©fini comme la convergence de tous les Ă©tats vers une valeur commune, lorsque le temps croĂźt indĂ©finiment. La notion de consensus apparaĂźt dans de multiples domaines de recherche. En biologie, le consensus est liĂ© aux comportements Ă©mergents d’un ensemble d’oiseaux en vol, des bancs de poissons, etc. En robotique et en automatique, les problĂšmes de consensus se prĂ©sentent lorsque l’on cherche Ă  rĂ©aliser la coordination et la coopĂ©ration d’agents mobiles (ex. robots et capteurs). Cette question est particuliĂšrement importante dans la mise en rĂ©seau de capteurs avec nombreuses applications, soit en contrĂŽle de l’environnement, ou dans un contexte militaire. En Ă©conomie, la recherche de consensus par rapport Ă  un mĂ©canisme commun d’ajustement des prix constitue un autre exemple. En sociologie, l’émergence d’une langue commune dans une sociĂ©tĂ© primitive est un comportement collectif au sein d’un systĂšme complexe. Un autre comportement limite d’intĂ©rĂȘt dans un systĂšme est celui oĂč les Ă©tats, plutĂŽt que de converger vers une seule valeur, se fractionnent en groupes distincts, avec des limites communes dans le groupe mais distinctes d’un groupe Ă  l’autre. Un tel comportement est appelĂ© dans notre thĂšse, consensus multiple. Dans cette thĂšse, nous adressons deux objectifs de recherche en relation avec le comportement asymptotique des Ă©tats d’agents dans un systĂšme multi-agent, possĂ©dant une dynamique mise Ă  jour via un algorithme distribuĂ© de calcul de moyenne, de caractĂšre gĂ©nĂ©ral, en temps continu ou discret. Le premier objectif visĂ© est celui de l’identification de conditions aussi faibles que possible, pour lesquelles le consensus unique ou multiple est garanti inconditionnellement, c’est-Ă -dire pour toute valeur du temps initial ou encore des valeurs initiales attribuĂ©es aux Ă©tats. Contrairement au premier objectif centrĂ© sur la recherche de convergence inconditionnelle, notre second objectif de recherche est celui de l’identification d’ensembles particuliers de conditions initiales, non triviales toutefois, pour lesquelles un consensus global est possible.----------ABSTRACT We consider a network of multiple interacting agents, whereby each agent is assumed to hold a state regarding a certain quantity of interest. Depending on the context, states may be referred to as opinions, values, estimates, beliefs, positions, velocities, etc. Agent states are updated based on an algorithm or protocol which is an interaction rule specifying the manner in which individual agent states influence and are influenced by neighboring states. Neighbors are defined via an underlying exogenously or endogenously evolving communication graph. Consensus in the system is defined as convergence of all states to a common value, as time grows large. The notion of consensus arises in many research areas. In biology, consensus is linked with the emergent behavior of bird flocks, fish schools, etc. In robotics and control, consensus problems arise when seeking coordination and cooperation of mobile agents (e.g., robots and sensors). This is, particularly, an important issue in sensor networking with wide applications in environmental control, military applications, etc. In economics, seeking an agreement on a common belief in a price system is another example of consensus. In sociology, the emergence of a common language in primitive societies is a collective behavior within a complex system. Another important limiting behavior of the system is one whereby agents, instead of all converging to the same value, separate into multiple clusters with a uniform limiting value within each cluster. Such behavior, in this thesis, is called multiple consensus. In this thesis, we address two research objectives relating to the asymptotic behavior of agent states in a multi-agent system, with dynamics updated via a general distributed averaging algorithm in either continuous time or discrete time. The first issue is that of identifying conditions, as weak as possible, under which consensus or multiple consensus is guaranteed to occur unconditionally, i.e., irrespective of the time or values that states are initialized at. In contrast to the first research objective centered on unconditional consensus, our second research objective is that of identifying sets of particular, yet non-trivial, initial agent conditions such that global consensus occurs. In particular, we are interested in characterizing so-called eminence grise coalitions (EGC): An EGC is a possibly small group of individuals in the network who are, “naturally”, capable of leading the whole group to eventually agree on any desired value, by only choosing their own initial values properly. What is meant by “naturally” is that the group in question does not need to manipulate the nature of the network, and in particular, leaves all the interactions between any two individuals including members of the group themselves untouched. They could be thought of as hidden leaders, not specifically identifiable by title or position, but who hold the potential of perfectly influencing the asymptotic behavior of individuals in the network. In investigating EGCs in a network of opinions, the size of its smallest EGC is the main focus of our analysis

    Prédiction de gÚnes parallélisée de haute performance dans MATLAB

    Get PDF
    Ce travail s’inscrit dans un cadre de recherche global du gĂ©nome humain. Il s'intĂ©resse particuliĂšrement Ă  l'identification de milliers de gĂšnes qui demeurent toujours inconnus Ă  ce jour. Afin de pouvoir effectuer cette tĂąche sur une plateforme informatique, les sĂ©quences d’acide dĂ©soxyribonuclĂ©ique (ADN) seront traitĂ©es comme Ă©tant des signaux pour permettre l’usage des techniques en traitement numĂ©rique de signaux (TNS). Cette approche permettra de rĂ©duire les coĂ»ts et surtout, le temps que prennent les chercheurs Ă  trouver un gĂšne impliquĂ© dans une maladie. Le projet est divisĂ© en deux volets. Le premier volet de cette recherche consiste Ă  rĂ©duire de façon importante les temps de calcul de certains algorithmes en bio-informatique. Cette recherche propose une mĂ©thode de mise en oeuvre des algorithmes de prĂ©diction de gĂšnes en parallĂšle avec le logiciel MATLAB. Les approches proposĂ©es sont basĂ©es soit sur l’algorithme de Goertzel ou de FFT en utilisant diverses procĂ©dures de parallĂ©lisme sur une unitĂ© centrale de traitement (CPU) et Ă  une unitĂ© de processeur graphique (GPU). Les rĂ©sultats montrent que l’utilisation d’une approche simple, c’est-Ă -dire sans modification de l’implĂ©mentation dans MATLAB, peut nĂ©cessiter plus de 4 h et demie pour le traitement de 15 millions de paires de bases (pb) alors qu’une implĂ©mentation optimisĂ©e peut effectuer la mĂȘme tĂąche en moins d’une minute. Nous avons obtenu les meilleurs rĂ©sultats avec l’implĂ©mentation sur GPU qui a pu complĂ©ter l'analyse en 57 s, ce qui est plus de 270 fois plus rapide qu’une approche conventionnelle. Ce premier volet de recherche propose deux stratĂ©gies pour accĂ©lĂ©rer le traitement des donnĂ©es du gĂ©nome humain et s’appuie sur les diffĂ©rents mĂ©canismes de parallĂ©lisation. Lorsque l'implantation se fait avec un CPU, les rĂ©sultats indiquent qu'il serait prĂ©fĂ©rable d'utiliser une fonction de bas niveau (MEX) afin d'augmenter la vitesse d’exĂ©cution. De plus, l'usage des boucles parallĂšles (PARFOR) doit ĂȘtre effectuĂ© dans un ordre prĂ©cis pour bĂ©nĂ©ficier au maximum du parallĂ©lisme dans l’implantation de Goertzel. Lorsque l'implantation est exĂ©cutĂ©e sur le GPU, les donnĂ©es doivent ĂȘtre segmentĂ©es en plus petits blocs afin d'optimiser les temps de traitement. En effet, les blocs qui sont trop gros risquaient de dĂ©passer la taille de la mĂ©moire tandis que des blocs trop petits ne permettaient pas Ă  l'usager de bĂ©nĂ©ficier pleinement du parallĂ©lisme. Dans le second volet, nous avons poursuivi avec l’implantation d’un second algorithme qui permet de cibler les rĂ©gions susceptibles Ă  la prĂ©sence de gĂšnes. Cet algorithme se base sur les hexamĂšres qui sont de courtes sĂ©quences d’ADN composĂ©es de 6 nuclĂ©otides. De toutes les variations d’hexamĂšres possibles (4096), seulement 40 de celles-ci se retrouvent plus souvent dans les rĂ©gions codantes que non codantes. Les autres hexamĂšres se retrouvent autant dans les introns que dans les exons. Il est donc possible de survoler les sĂ©quences d’ADN et, selon la prĂ©sence ou l’absence de certains hexamĂšres, de prĂ©dire quelles rĂ©gions sont codantes. Lors de la superposition des deux approches, soit l’analyse en frĂ©quence et l’analyse des hexamĂšres, il est possible de mieux cibler les zones oĂč l’on peut retrouver de nouveaux gĂšnes. Les analyses effectuĂ©es avec les diffĂ©rents algorithmes prĂ©sentent des valeurs qui tĂ©moignent de la probabilitĂ© de retrouver un gĂšne dans une rĂ©gion donnĂ©e. Pour complĂ©ter le processus de prĂ©diction, il est important de dĂ©terminer un critĂšre Ă  partir duquel le programme dĂ©cide qu’il s’agit rĂ©ellement d’un gĂšne. Ce critĂšre est basĂ© sur trois paramĂštres, soient le seuil positif, le seuil nĂ©gatif et taille de la fenĂȘtre. Afin de dĂ©terminer les valeurs optimales, les trois paramĂštres ont Ă©tĂ© balayĂ©s et la meilleure combinaison a Ă©tĂ© identifiĂ©e. L’approche proposĂ©e dans ce mĂ©moire permet d’analyser de grandes sĂ©quences d’ADN en peu de temps afin d’identifier des zones susceptibles de coder un gĂšne. Ce processus est important puisqu’on estime qu’il reste encore quelques milliers de gĂšnes inconnus qui peuvent ĂȘtre responsables de plusieurs maladies gĂ©nĂ©tiques. Nous espĂ©rons que ce travail contribuera Ă  la dĂ©couverte de nouveaux gĂšnes pour ainsi mieux diagnostiquer certaines maladies gĂ©nĂ©tiques

    Étude de l'oligomĂ©risation et de la fonction de canaux ioniques par spectroscopie de fluorescence et fluoromĂ©trie en voltage imposĂ©

    Full text link
    La fonction des canaux ioniques est finement rĂ©gulĂ©e par des changements structuraux de sites clĂ©s contrĂŽlant l’ouverture du pore. Ces modulations structurales dĂ©coulent de l’interaction du canal avec l’environnement local, puisque certains domaines peuvent ĂȘtre suffisamment sensibles Ă  des propriĂ©tĂ©s physico-chimiques spĂ©cifiques. Les mouvements engendrĂ©s dans la structure sont notamment perceptibles fonctionnellement lorsque le canal ouvre un passage Ă  certains ions, gĂ©nĂ©rant ainsi un courant ionique mesurable selon le potentiel Ă©lectrochimique. Une description dĂ©taillĂ©e de ces relations structure-fonction est cependant difficile Ă  obtenir Ă  partir de mesures sur des ensembles de canaux identiques, puisque les fluctuations et les distributions de diffĂ©rentes propriĂ©tĂ©s individuelles demeurent cachĂ©es dans une moyenne. Pour distinguer ces propriĂ©tĂ©s, des mesures Ă  l’échelle de la molĂ©cule unique sont nĂ©cessaires. Le but principal de la prĂ©sente thĂšse est d’étudier la structure et les mĂ©canismes molĂ©culaires de canaux ioniques par mesures de spectroscopie de fluorescence Ă  l’échelle de la molĂ©cule unique. Les Ă©tudes sont particuliĂšrement dirigĂ©es vers le dĂ©veloppement de nouvelles mĂ©thodes ou leur amĂ©lioration. Une classe de toxine formeuse de pores a servi de premier modĂšle d’étude. La fluorescence Ă  l’échelle de la molĂ©cule unique a aussi Ă©tĂ© utilisĂ©e pour l’étude d’un rĂ©cepteur glutamate, d’un rĂ©cepteur Ă  la glycine et d’un canal potassique procaryote. Le premier volet porte sur l’étude de la stƓchiomĂ©trie par mesures de photoblanchiment en temps rĂ©solu. Cette mĂ©thode permet de dĂ©terminer directement le nombre de monomĂšres fluorescents dans un complexe isolĂ© par le dĂ©compte des sauts discrets de fluorescence suivant les Ă©vĂ©nements de photoblanchiment. Nous prĂ©sentons ici la premiĂšre description, Ă  notre connaissance, de l’assemblage dynamique d’une protĂ©ine membranaire dans un environnement lipidique. La toxine monomĂ©rique purifiĂ©e Cry1Aa s’assemble Ă  d’autres monomĂšres selon la concentration et sature en conformation tĂ©tramĂ©rique. Un programme automatique est ensuite dĂ©veloppĂ© pour dĂ©terminer la stƓchiomĂ©trie de protĂ©ines membranaires fusionnĂ©es Ă  GFP et exprimĂ©es Ă  la surface de cellules mammifĂšres. Bien que ce systĂšme d’expression soit appropriĂ© pour l’étude de protĂ©ines d’origine mammifĂšre, le bruit de fluorescence y est particuliĂšrement important et augmente significativement le risque d’erreur dans le dĂ©compte manuel des monomĂšres fluorescents. La mĂ©thode prĂ©sentĂ©e permet une analyse rapide et automatique basĂ©e sur des critĂšres fixes. L’algorithme chargĂ© d’effectuer le dĂ©compte des monomĂšres fluorescents a Ă©tĂ© optimisĂ© Ă  partir de simulations et ajuste ses paramĂštres de dĂ©tection automatiquement selon la trace de fluorescence. La composition de deux canaux ioniques a Ă©tĂ© vĂ©rifiĂ©e avec succĂšs par ce programme. Finalement, la fluorescence Ă  l’échelle de la molĂ©cule unique est mesurĂ©e conjointement au courant ionique de canaux potassiques KcsA avec un systĂšme de fluoromĂ©trie en voltage imposĂ©. Ces enregistrements combinĂ©s permettent de dĂ©crire la fonction de canaux ioniques simultanĂ©ment Ă  leur position et densitĂ© alors qu’ils diffusent dans une membrane lipidique dont la composition est choisie. Nous avons observĂ© le regroupement de canaux KcsA pour diffĂ©rentes compositions lipidiques. Ce regroupement ne paraĂźt pas ĂȘtre causĂ© par des interactions protĂ©ine-protĂ©ine, mais plutĂŽt par des microdomaines induits par la forme des canaux reconstituĂ©s dans la membrane. Il semble que des canaux regroupĂ©s puissent ensuite devenir couplĂ©s, se traduisant en ouvertures et fermetures simultanĂ©es oĂč les niveaux de conductance sont un multiple de la conductance « normale » d’un canal isolĂ©. De plus, contrairement Ă  ce qui est actuellement suggĂ©rĂ©, KcsA ne requiert pas de phospholipide chargĂ© nĂ©gativement pour sa fonction. Plusieurs mesures indiquent plutĂŽt que des lipides de forme conique dans la phase cristalline liquide sont suffisants pour permettre l’ouverture de canaux KcsA isolĂ©s. Des canaux regroupĂ©s peuvent quant Ă  eux surmonter la barriĂšre d’énergie pour s’ouvrir de maniĂšre coopĂ©rative dans des lipides non chargĂ©s de forme cylindrique.The function of ion channels is finely regulated by structural changes of key domains controlling the pore opening. These structural modulations arise from interactions with the local environment, since several domains can be sensitive to specific physico-chemical properties. Movements generated in the structure become notably perceptible when channels open a passage for some ions, thus generating a measurable ionic current according to the electrochemical potential. A detailed description of these structure-function relationships is however difficult to obtain from measurements involving a set of identical channels, since the fluctuations and distributions of different individual properties remain hidden in an average. To differentiate these properties, single-molecule recordings are required. The main purpose of this thesis is to study the structural aspects and molecular mechanisms of ion channels using fluorescence spectroscopy at the single-molecule level. Studies are oriented towards the development or improvement of new methods. A class of pore-forming toxin served as a first study model. Single-molecule fluorescence was also used to study an ionotropic glutamate receptor, a glycine receptor and a prokaryotic potassium channel. The first part focuses on the study of stoichiometry using fluorescent subunit counting. This method allows a direct measure of the number of fluorescent monomers within a single complex by counting the number of step-wise fluorescence intensity decrease following photobleaching events. Here we present the first description, to our knowledge, of the dynamic assembly of a membrane protein in a lipid environment. The purified monomeric Cry1Aa toxin clusters with other monomers depending on the concentration and saturates in a tetrameric conformation. An automated method has been developed to determine the stoichiometry of GFP-tagged membrane proteins expressed on mammalian cell surface. Although this expression system is suitable for the study of proteins of mammalian origin, background fluorescence is particularly important and significantly increases the risk of error in the manual counting process. The presented method allows a fast and automated analysis based on fixed criteria. The algorithm responsible for counting fluorescent monomers was optimized from simulations and adjusts its detection parameters automatically according to the fluorescence trace recording. The composition of two ion channels was successfully verified using this program. Finally, single-molecule fluorescence is measured together with ionic current of KcsA channels using a voltage-clamp fluorometry setup. These combined recordings allowed us to describe the function of ion channels simultaneously to their position and density as they diffuse in a lipid membrane of defined composition. We observed clustering of KcsA channels for various lipid compositions. Clustering does not appear to be caused by protein-protein interaction, but rather by microdomains induced by the shape of reconstructed channels in the lipid bilayer. It seems that clustered KcsA channels could then become coupled, resulting in cooperative gating events with conductance levels multiple to the “normal” unitary channel conductance. Moreover, as opposed to what is currently suggested, KcsA does not require a negatively charged phospholipid for its function. Several of our recordings rather suggest that conically shaped lipids in the lamellar liquid crystalline phase are sufficient to allow single channel opening. Clustered channels can on the other hand overcome the energy barrier to open cooperatively in uncharged cylindrical lipids

    Variation inter-individuelle de la distance de fuite et ses conséquences sur la distribution des girafes du Niger (Giraffa camelopardalis peralta)

    Get PDF
    À une pĂ©riode oĂč les contacts entre humains et animaux sauvages augmentent rĂ©guliĂšrement, il est nĂ©cessaire de comprendre les consĂ©quences de ces interactions sur l'Ă©cologie des populations animales, que ce soit Ă  court ou Ă  long terme. Les perturbations sont de nature diverse et leurs impacts le sont tout autant. La variation dans la rĂ©ponse des individus peut avoir des rĂ©percussions sur leur distribution, leur utilisation de l'habitat, leur reproduction et ultimement leur survie. Cette variation peut ĂȘtre causĂ©e par des facteurs environnementaux, mais Ă©galement par des traits intrinsĂšques aux individus (ex.: qui dĂ©montrent des diffĂ©rences constantes Ă  travers le temps entre les individus (indices de tempĂ©rament)). Quelques Ă©tudes rĂ©centes laissent supposer que certains traits de comportement en relation avec la tolĂ©rance des animaux humains pourraient expliquer une distribution spatiale non alĂ©atoire des individus dans un habitat prĂ©sentant une variation des perturbations anthropiques. Dans le but de vĂ©rifier cette hypothĂšse, nous avons utilisĂ© la distance de fuite (FID), qui est utilisĂ©e en biologie de la conservation pour Ă©valuer l'impact de la prĂ©sence humaine sur les populations d'animaux sauvages. Nous avons Ă©valuĂ© si les individus montraient des diffĂ©rences constantes de FID Ă  travers le temps, Ă  l'aide de mesures rĂ©pĂ©tĂ©es en 2006 (160 observations sur 88 individus) et 2008 (84 observations sur 65 individus), dans la derniĂšre population de girafes de l'Afrique de l'Ouest (Giraffa camelopardalis peralta) localisĂ©e au Niger. La distance de fuite variait selon le sexe, l'Ăąge et la distance d'alerte des individus. De plus, les individus montraient des diffĂ©rences de FID permanentes, la rĂ©pĂ©tabilitĂ© Ă©tant supĂ©rieure Ă  l'intĂ©rieur de la mĂȘme annĂ©e (r = 0.45 en 2006, r = 0.43 en 2008) que lorsque les donnĂ©es Ă©taient rassemblĂ©es sur les deux annĂ©es (r = 0.22). Nous avons ensuite utilisĂ© la distance de fuite moyenne pour chaque individu (FIDm) comme indice de tempĂ©rament (de peur) pour expliquer la distribution des girafes en relation avec la prĂ©sence humaine. Nous avons utilisĂ© les coordonnĂ©es GPS (en incluant les donnĂ©es de recensement des annĂ©es 2007, 2008 et 2009) pour mesurer les distances entre la localisation des groupes de girafes et 1) la route la plus proche (incluant la route goudronnĂ©e principale et les routes secondaires faites de latĂ©rites), 2) la route goudronnĂ©e principale, 3) le village le plus proche. Ces distances sont utilisĂ©es ici comme des indices du niveau de perturbation par les humains. La distance de fuite moyenne individuelle (FIDm) de l'annĂ©e 2006, Ă©tait positivement associĂ©e Ă  ces trois distances chez les femelles. D'autres facteurs comme la prĂ©sence de jeunes dans le groupe et la taille du groupe semblent Ă©galement affecter leur distribution. Nos rĂ©sultats supportent l'hypothĂšse selon laquelle les individus ayant une plus ou moins forte tolĂ©rance aux humains diffĂšrent dans leur probabilitĂ© d'ĂȘtre observĂ©s prĂšs de zones Ă  forte affluence humaine. Ces rĂ©sultats pourraient avoir des implications importantes tant pour l'Ă©cologie que la conservation des populations animales, spĂ©cialement dans un contexte oĂč les perturbations anthropiques mondiales sont en croissance.\ud ______________________________________________________________________________ \ud MOTS-CLÉS DE L’AUTEUR : Giraffa camelopardalis peralta, distance de fuite, constance, variation inter-individuelle, distribution, perturbation, prĂ©sence humaine

    Inférence bayésienne de l'erreur de modÚle pour la calibration des codes CFD

    Get PDF
    The calibration of a computer code consists in the comparison of its predictions to the experimental data, so that the best input parameter values can be inferred. We work in a Bayesian framework, where the parameters are treated as random variables to accurately represent the uncertainty around their values, and the subsequent model predictions. The focus is on situation where, regardless of parameter values, there remains an irreducible discrepancy between model predictions and the data, which reveals the presence of model error. Every model is an imperfect representation of reality, and its model error is caused by the approximating assumptions it is based on.In the first part of the manuscript we present the theoretical and numerical contributions developed in this thesis, and the principal one is the development of a new technique for estimating model error, named Full Maximum a Posteriori (FMP), based on a new parameterization of the model discrepancy distribution, and the introduction of optimal hyperparameters. This technique is replaced in the context of traditional estimation technique, notably the one of Kennedy-O'Hagan (KOH) which is the standard in the domain. Under an assumption of normality of the posterior density, we show that the FMP method outperforms the KOH method, since it does not underestimate the parameter uncertainty and it reveals all possible explanations of the data when the posterior is multimodal. The relevance of this normality assumption is examined in situations where the number of experimental observations tends to infinity, in three asymptotic frameworks. A second chapter is dedicated to numerical techniques that are used in calibration, notably the sampling of densities using Markov Chain Monte-Carlo techniques, and the construction of a surrogate model following a dimensionality reduction of the code output using a Principal Component Analysis. We introduce a variant of the resampling algorithm applied to the FMP sample to improve its quality. In order to accelerate the FMP technique, we also propose an algorithm of construction of surrogate models for the optimal hyperparameters, with training points drawn from samples of successive Markov Chains, weighted according to the predictive uncertainties.In a second part we present two applications of the FMP calibration, where it is compared to the KOH method and the reference solution when it is attainable. First we consider the study of a liquid boiling at a wall, with a model that predicts the partitioning of the wall heat flux. The calibration is performed using data from multiple experimental configurations, which constitutes a significant number of hyperparameters to be treated simulataneously. In a second chapter we treat both experimental uncertainty and model error in the code Neptune_CFD, specifically considering the model of interfacial area transport based on bubble interaction. The calibration is performed using the data obtained from the DEBORA experimental facility. On both applications we show that the FMP method is more robust than the KOH method since it avoids overconfident estimation of model parameters and falsely narrow confidence intervals on the predictions. Furthermore, the FMP method is performed at lower cost than the reference solution, so it is attainable in situations where the number of unknowns is high. The robust and cheap character of this technique makes it relevant for nuclear applications, but also in many more domains where we require the reproduction of experimental data with numerical simulations.La calibration d'un code de calcul consiste en la comparaison de ses prĂ©dictions aux donnĂ©es expĂ©rimentales dont on dispose, pour dĂ©terminer les meilleures valeurs des paramĂštres d'entrĂ©e. Nous travaillons dans un cadre bayĂ©sien oĂč ces paramĂštres sont reprĂ©sentĂ©s par des variables alĂ©atoires, permettant une reprĂ©sentation fidĂšle de l'incertitude sur leurs valeurs ainsi que sur les prĂ©dictions. Nous nous intĂ©ressons Ă  des situations oĂč, aprĂšs avoir Ă©tudiĂ© les possibles variations des paramĂštres d'entrĂ©e du code, il subsiste une distance irrĂ©ductible entre prĂ©dictions et observations, ce qui indique la prĂ©sence d'une erreur de modĂšle. Cette erreur provient de l'utilisation d'hypothĂšses simplificatrices lors de l'Ă©laboration d'un modĂšle.Dans une premiĂšre partie nous prĂ©sentons les contributions thĂ©oriques et numĂ©riques de cette thĂšse, dont la principale est une nouvelle approche d'estimation de l'erreur de modĂšle nommĂ©e Full Maximum a Posteriori (FMP), portĂ©e par l'introduction d'une nouvelle paramĂ©trisation de la distribution du biais de modĂšle, et sur le calcul d'hyperparamĂštres optimaux. Cette mĂ©thode est placĂ©e dans le contexte des techniques traditionnelles d'estimation et notamment de la mĂ©thode classique de Kennedy et O'Hagan (KOH). Sous une hypothĂšse de normalitĂ© de la densitĂ© Ă  posteriori, nous dĂ©montrons la supĂ©rioritĂ© de l'approche FMP vis-Ă -vis de la mĂ©thode KOH car elle ne sous-estime pas l'incertitude paramĂ©trique et rĂ©vĂšle la totalitĂ© des explications possibles des donnĂ©es lorsque la postĂ©rieure est multimodale. La pertinence de cette hypothĂšse de construction est ensuite Ă©tudiĂ©e dans des situations oĂč le nombre d'observations expĂ©rimentales tend vers l'infini, selon trois modes d'acquisition diffĂ©rents. Nous prĂ©sentons les techniques numĂ©riques qui sont au coeur de la calibration, Ă  savoir l'Ă©chantillonnage de densitĂ©s selon la mĂ©thode de Monte-Carlo par chaĂźnes de Markov, et la construction de modĂšles de substitution du code de calcul couplĂ©e Ă  une rĂ©duction de dimensionalitĂ© au moyen d'une Analyse par Composantes Principales. Une mĂ©thode d'amĂ©lioration de la prĂ©cision des Ă©chantillons FMP basĂ©e sur l'algorithme de rĂ©Ă©chantillonnage est Ă©galement proposĂ©e. Dans le but d'accĂ©lĂ©rer la mĂ©thode FMP, nous proposons un algorithme permettant la construction de modĂšles de substitution pour les hyperparamĂštres optimaux, oĂč les points d'entraĂźnement sont tirĂ©s au hasard dans des Ă©chantillons de chaĂźnes de Markov successives, avec pondĂ©ration selon l'incertitude de prĂ©diction.La seconde partie de la thĂšse est consacrĂ©e aux applications de la mĂ©thode FMP et la comparaison avec la mĂ©thode KOH et la solution de rĂ©fĂ©rence au problĂšme de calibration. Dans un premier temps nous procĂ©dons Ă  la calibration d'un modĂšle de rĂ©partition de flux thermique Ă  la paroi dans un Ă©coulement en convection forcĂ©e, en utilisant des observations provenant de multiples configurations expĂ©rimentales, ce qui constitue un nombre significatif d'hyperparamĂštres Ă  traiter de maniĂšre simultanĂ©e. La seconde application porte sur le code de calcul Neptune_CFD, oĂč nous traitons simultanĂ©ment l'incertitude expĂ©rimentale et l'erreur de modĂšle qui porte sur l'Ă©quation de transport de l'aire interfaciale, Ă  partir de donnĂ©es obtenues sur l'expĂ©rience DEBORA. Sur ces deux applications, nous dĂ©montrons que la mĂ©thode FMP est plus robuste que la mĂ©thode KOH car elle Ă©vite une confiance excessive envers les paramĂštres et produit des intervalles de confiance plus fiables sur les prĂ©dictions. De plus, son coĂ»t rĂ©duit permet de rĂ©aliser une calibration dans des situations oĂč la solution de rĂ©fĂ©rence serait trop chĂšre Ă  calculer. La technique FMP de calibration, illustrĂ©e ici par des applications empruntĂ©es au domaine nuclĂ©aire, est Ă©galement applicable Ă  de nombreuses situations oĂč le but est de reproduire des donnĂ©es expĂ©rimentales par le biais de simulations numĂ©riques
    corecore