5 research outputs found

    Contribution à l'approche booléenne de la sureté de fonctionnement : l'atelier logiciel Aralia WorkShop

    Get PDF
    Cette thĂšse synthĂ©tise les travaux conduits et les rĂ©sultats obtenus dans le cadre de deux projets de recherche soutenus par des partenaires industriels et dĂ©crits ci-aprĂšs: * Le projet HĂ©vĂ©a visait Ă  traduire les sĂ©quences des arbres d'Ă©vĂ©nements (AdE) en formules boolĂ©ennes. La premiĂšre phase du projet a abouti Ă  une formalisation du problĂšme et Ă  la rĂ©alisation d'un logiciel permettant cette traduction. La deuxiĂšme phase a permis de trouver des solutions permettant de diminuer les problĂšmes d'explosion combinatoire du traitement par diagrammes binaires de dĂ©cision (BDD : Binary Decision Diagram) des formules boolĂ©ennes ainsi gĂ©nĂ©rĂ©es. La troisiĂšme phase a validĂ© les approximations gĂ©nĂ©ralement utilisĂ©es lors des Etudes Probabilistes de SĂ»retĂ© (EPS) des centrales nuclĂ©aires au terme d'une Ă©tude systĂ©matique portant sur deux EPS industrielles. * Le projet AloĂšs avait pour but d'Ă©tudier des problĂšmes d'allocation d'exigences s'appuyant sur des modĂšles boolĂ©ens d'analyse des risques. AprĂšs une recherche bibliographique et des discussions avec les partenaires du projet, il a abouti Ă  la crĂ©ation d'un langage gĂ©nĂ©rique de description de problĂšmes d'allocation. Ce langage, ainsi que le logiciel AloĂšs supportant le langage, sont suffisamment gĂ©nĂ©riques pour ĂȘtre couplĂ© Ă  des moteurs des calculs externes comme Aralia (voir ci-dessous) ou RĂ©sĂ©da (outil traduisant un rĂ©seau de fiabilitĂ© en formule boolĂ©enne). Le logiciel offre alors trois algorithmes d'optimisation (descente rapide, Branch & Bound, Simplex) afin de rĂ©soudre les problĂšmes d'allocation. Des expĂ©rimentations sur un ensemble de rĂ©seaux de fiabilitĂ© ont permis de valider le pouvoir d'expression du langage, mais ont conclu sur la nĂ©cessitĂ© d'amĂ©liorer les algorithmes d'optimisation intĂ©grĂ©s. L'ensemble de ces travaux a dĂ©bouchĂ© sur la crĂ©ation de l'atelier logiciel Aralia WorkShop de saisie et de traitement des modĂšles boolĂ©ens d'analyse des risques (Arbre de dĂ©faillance : AdD, Arbre d'Ă©vĂ©nements : AdE, Bloc diagramme de fiabilitĂ© : BDF), s'appuyant pour la partie traitement sur le coeur de calcul Aralia. Ce dernier se base sur un codage des formules boolĂ©ennes en BDD.This thesis presents the results obtained by the author during his participation to two research programs supported by industrial partners: * The HĂ©vĂ©a projet The main objective of this project was to assess event-tree sequences by means of Boolean techniques. During the first stage of this program, the author formalized the problem. He designed the HĂ©vĂ©a software which is dedicated to event-tree assessment. In the second stage, the author introduced several original means to reduce the exponential blow-up of the BDD-based processing of Boolean formulae. During the third stage, he validated by means of a systematic study of two industrial PSA (Probabilistic Safety Analysis) the approximations commonly used in the nuclear framework. * The Aloes project The aim of this project was the study of so-called requirement allocation problems. This project began by an important bibliographic work and ended by the creation of a language suitable for allocation problems. This language, and related software AloĂšs are generic enough to be connected to external assessment softwares such as Aralia (which encodes boolean formulae by using BDD) and RĂ©sĂ©da (which transform a reliability network into boolean formulae). Three optimisation algorithms (steepest descent, branch and bound, simplex) are implemented in the AloĂšs Software to solve allocation problems. Several experiments on reliability networks validated language. These experiments showed that some of previous embedded optimisation algorithms must be improved. The final result of all these studies is the software set Aralia WorkShop which is devoted to the assessment of Boolean risk analysis models (Faut-tree, Event-tree, Reliability block-diagrams and networks) thanks to the embedded computing software Aralia

    Modélisation intégratrice du traitement BigData

    Get PDF
    Nowadays, multiple actors of Internet technology are producing very large amounts of data. Sensors, social media or e-commerce, all generate real-time extending information based on the 3 Vs of Gartner: Volume, Velocity and Variety. In order to efficiently exploit this data, it is important to keep track of the dynamic aspect of their chronological evolution by means of two main approaches: the polymorphism, a dynamic model able to support type changes every second with a successful processing and second, the support of data volatility by means of an intelligent model taking in consideration key-data, salient and valuable at a specific moment without processing all volumes of history and up to date data.The primary goal of this study is to establish, based on these approaches, an integrative vision of data life cycle set on 3 steps, (1) data synthesis by selecting key-values of micro-data acquired by different data source operators, (2) data fusion by sorting and duplicating the selected key-values based on a de-normalization aspect in order to get a faster processing of data and (3) the data transformation into a specific format of map of maps of maps, via Hadoop in the standard MapReduce process, in order to define the related graph in applicative layer.In addition, this study is supported by a software prototype using the already described modeling tools, as a toolbox compared to an automatic programming software and allowing to create a customized processing chain of BigDataDans le monde d’aujourd’hui de multiples acteurs de la technologie numĂ©rique produisent des quantitĂ©s infinies de donnĂ©es. Capteurs, rĂ©seaux sociaux ou e-commerce, ils gĂ©nĂšrent tous de l’information qui s’incrĂ©mente en temps-rĂ©el selon les 3 V de Gartner : en Volume, en Vitesse et en VariabilitĂ©. Afin d’exploiter efficacement et durablement ces donnĂ©es, il est important de respecter la dynamicitĂ© de leur Ă©volution chronologique au moyen de deux approches : le polymorphisme d’une part, au moyen d’un modĂšle dynamique capable de supporter le changement de type Ă  chaque instant sans failles de traitement ; d’autre part le support de la volatilitĂ© par un modĂšle intelligent prenant en compte des donnĂ©es clĂ© seulement interprĂ©tables Ă  un instant « t », au lieu de traiter toute la volumĂ©trie des donnĂ©es actuelle et historique.L’objectif premier de cette Ă©tude est de pouvoir Ă©tablir au moyen de ces approches une vision intĂ©gratrice du cycle de vie des donnĂ©es qui s’établit selon 3 Ă©tapes, (1) la synthĂšse des donnĂ©es via la sĂ©lection des valeurs-clĂ©s des micro-donnĂ©es acquises par les diffĂ©rents opĂ©rateurs au niveau de la source, (2) la fusion en faisant le tri des valeurs-clĂ©s sĂ©lectionnĂ©es et les dupliquant suivant un aspect de dĂ©-normalisation afin d’obtenir un traitement plus rapide des donnĂ©es et (3) la transformation en un format particulier de carte de cartes de cartes, via Hadoop dans le processus classique de MapReduce afin d’obtenir un graphe dĂ©fini dans la couche applicative.Cette rĂ©flexion est en outre soutenue par un prototype logiciel mettant en oeuvre les opĂ©rateurs de modĂ©lisation sus-dĂ©crits et aboutissant Ă  une boĂźte Ă  outils de modĂ©lisation comparable Ă  un AGL et, permettant une mise en place assistĂ©e d'un ou plusieurs traitements sur BigDat

    Modélisation des meilleures pratiques pour l'évaluation des entreprises

    Get PDF
    Le contexte de la prĂ©sente recherche est particulier Ă©tant donnĂ© qu'elle est conduite en fonction des besoins spĂ©cifiques d'un partenaire industriel qui est Sous Traitance Industrielle QuĂ©bec (STIQ). Le sujet de ce travail cherche donc Ă  amĂ©liorer un des services offerts par STIQ: l'Ă©valutation des fournisseurs. Cette amĂ©lioration vise Ă  palier aux principaux inconvĂ©nients de l'outil actuel de cette entreprise sans but lucratif (Supplier Evaluation and Monitoring System (SEMS)). SEMS a un impact non nĂ©gligeable sur le prix de revient du service offert par STIQ, qui doit demeurer compĂ©titive sur un marchĂ© bien rĂ©el. La dĂ©finition de l'Ă©valuation de la performance pourrait ĂȘtre la suivante: l'observation par la mesure de l'objet afin d'en apprĂ©cier l'importance et de le comparer au rĂ©sultat optimal que cet objet peut obtenir. L'Ă©valuation de la performance est un sujet complexe, basĂ© sur des critĂšres d'Ă©valuation. Dans notre cas, l'Ă©talonnage concurrentiel servira d'entrĂ©e d'informations pour Ă©tablir ces critĂšres. Afin de trouver et de modĂ©liser ces critĂšres d'Ă©valuation, un processus de recherche en sept Ă©tapes a Ă©tĂ© Ă©tablit. Ce processus passe donc par la revue de la littĂ©rature, la rĂ©daction de rapports, la formulation du questionnaire (points d'Ă©valuation) et la modĂ©lisation des liens existants entre ces points. L'innovation de cette mĂ©thode d'Ă©valuation de la performance des fournisseurs est la modĂ©lisation des critĂšres. Celle-ci permet d'identifier parmi les critĂšres ceux qui sont critiques pour le fonctionnement du modĂšle d'entreprise. Cette modĂ©lisation prend aussi une forme visuelle par l'entremise des arbres de cause. Le modĂšle d'Ă©valuation remplit ainsi les objectifs de la recherche, mais demande d'ĂȘtre validĂ© sur le terrain

    L'AIS : une donnée pour l'analyse des activités en mer

    Get PDF
    4 pages, session "Mer et littoral"International audienceCette contribution présente des éléments méthodologiques pour la description des activités humaines en mer dans une perspective d'aide à la gestion. Différentes procédures, combinant l'exploitation de bases de données spatio-temporelles issue de données AIS archivées à des analyses spatiales au sein d'un SIG, sont testées afin de caractériser le transport maritime en Mer d'Iroise (Bretagne, France) sur les plans spatiaux, temporels et quantitatifs au cours d'une année

    Méthode d'analyse de données pour le diagnostic a posteriori de défauts de production - Application au secteur de la microélectronique

    Get PDF
    Controlling the performance of a manufacturing site and the rapid identification of quality loss causes remain a daily challenge for manufacturers, who face continuing competition. In this context, this thesis aims to provide an analytical approach for the rapid identification of defect origins, by exploring data available thanks to different quality control systems, such FDC, metrology, parametric tests PT and the Electrical Wafer Sorting EWS. The proposed method, named CLARIF, combines three complementary data mining techniques namely clustering, association rules and decision trees induction. This method is based on unsupervised generation of a set of potentially problematic production modes, which are characterized by specific manufacturing conditions. Thus, we provide an analysis which descends to the level of equipment operating parameters. The originality of this method consists on (1) a pre-treatment step to identify spatial patterns from quality control data, (2) an unsupervised generation of manufacturing modes candidates to explain the quality loss case. We optimize the generation of association rules through the proposed ARCI algorithm, which is an adaptation of the famous association rules mining algorithm, APRIORI to integrate the constraints specific to our issue and filtering quality indicators, namely confidence, contribution and complexity, in order to identify the most interesting rules. Finally, we defined a Knowledge Discovery from Databases process, enabling to guide the user in applying CLARIF to explain both local and global quality loss problems.La maĂźtrise du rendement d’un site de fabrication et l’identification rapide des causes de perte de qualitĂ© restent un dĂ©fi quotidien pour les industriels, qui font face Ă  une concurrence continue. Dans ce cadre, cette thĂšse a pour ambition de proposer une dĂ©marche d’analyse permettant l’identification rapide de l’origine d’un dĂ©faut, Ă  travers l’exploitation d’un maximum des donnĂ©es disponibles grĂące aux outils de contrĂŽle qualitĂ©, tel que la FDC, la mĂ©trologie, les tests paramĂ©triques PT, et le tri Ă©lectriques EWS. Nous avons proposĂ© une nouvelle mĂ©thode hybride de fouille de donnĂ©es, nommĂ©e CLARIF, qui combine trois mĂ©thodes de fouille de donnĂ©es Ă  savoir, le clustering, les rĂšgles d’association et l’induction d’arbres de dĂ©cision. Cette mĂ©thode se base sur la gĂ©nĂ©ration non supervisĂ©e d’un ensemble de modes de production potentiellement problĂ©matiques, qui sont caractĂ©risĂ©s par des conditions particuliĂšres de production. Elle permet, donc, une analyse qui descend au niveau des paramĂštres de fonctionnement des Ă©quipements. L’originalitĂ© de la mĂ©thode consiste dans (1) une Ă©tape de prĂ©traitement pour l’identification de motifs spatiaux Ă  partir des donnĂ©es de contrĂŽle, (2) la gĂ©nĂ©ration non supervisĂ©e de modes de production candidats pour expliquer le dĂ©faut. Nous optimisons la gĂ©nĂ©ration des rĂšgles d’association Ă  travers la proposition de l’algorithme ARCI, qui est une adaptation du cĂ©lĂšbre algorithme de fouille de rĂšgles d’association, APRIORI, afin de permettre d’intĂ©grer les contraintes spĂ©cifiques Ă  la problĂ©matique de CLARIF, et des indicateurs de qualitĂ© de filtrage des rĂšgles Ă  identifier, Ă  savoir la confiance, la contribution et la complexitĂ©. Finalement, nous avons dĂ©fini un processus d’Extraction de Connaissances Ă  partir des DonnĂ©es, ECD permettant de guider l’utilisateur dans l’application de CLARIF pour expliquer une perte de qualitĂ© locale ou globale
    corecore