6 research outputs found

    Nouvelle approche de maîtrise de processus intégrant les cartes de contrôle multidimensionnelles et les graphes en coordonnées parallèles

    Get PDF
    RÉSUMÉ : Dans une entreprise nord américaine type, les coûts de non-qualité sont en moyenne de 20% de son chiffre d’affaires. Ces coûts sont certainement élevés et ils ne peuvent pas être, totalement, éliminés. Toutefois, les entreprises peuvent les réduire grâce à une meilleure maitrise des processus manufacturiers et à un meilleur contrôle qualité. Ces taches sont primordiales pour garantir l’efficacité des processus de fabrication et pour améliorer la qualité des produits. En effet, la qualité des produits est reliée aux paramètres machines. Cependant, actuellement dans l’industrie, les paramètres machines et les variables des produits sont contrôlés séparément omettant ainsi les relations qui peuvent exister entre eux. La vérification individuelle séparée peut être longue et complexe. Elle peut mener à la non-détection de certains défauts ou encore à la génération de certaines fausses alarmes. En effet, la prise en compte des relations entre les paramètres des équipements et/ou les variables des produits est indispensable. Pour tenir compte des dépendances entre les variables et paramètres, plusieurs auteurs ont proposé des cartes de contrôle multidimensionnelles, telles que les versions multidimensionnelles des cartes connues telles que MEWMA, CUSUM et Hotelling. Ces cartes ont un problème majeur. Elles supposent que les données proviennent d’une distribution normale, ce qui n’est pas toujours le cas. D’autres versions des cartes de contrôle ne supposent pas la normalité des données, mais supposent que leur distribution est connue. Or, peu d’industriels connaissent ce genre d’informations. D’autres techniques de contrôle de processus ou de détection de défauts ont été suggérées. Ces techniques sont soient des techniques basées sur des algorithmes d’apprentissage statistique ou de data mining soient des cartes de contrôle qui ne dépendent pas de la distribution des données. Ces outils ont montré des résultats assez intéressant en termes de détection de défauts et de génération de fausses alarmes. Par contre, elles fonctionnent comme une sorte de boite noire. Si un défaut est détecté, le diagnostic doit passer par des cartes de contrôle monodimensionnelles et doit idéalement se faire par un expert. Ces outils proposent rarement un support visuel de diagnostic. Ceci peut être du au fait que les graphes multidimensionnelles sont généralement méconnus ou, parfois, difficile à interpréter. Ainsi, ils sont rarement exploités dans le développement des outils de contrôle. Dans ce document, nous proposons d’intégrer un type de graphes multidimensionnelles, les coordonnées parallèles avec les concepts des outils de contrôle pour soutenir le contrôle qualité. Nous proposons un outil visuel de contrôle de processus, qui est ne dépend pas de la distribution des données et qui tient en compte les relations entre les variables considérées. Cet outil permet de faire le diagnostic d’un défaut détecté. Cet outil permet de générer deux types de cartes de contrôle multidimensionnelles selon la disponibilité des données historiques. Les deux cartes sont visualisées en coordonnées parallèles. La première version est proposée pour le cas ou un nombre assez important d’observations historiques est disponible. Elle est basée sur la visualisation des limites multidimensionnelles de la zone de fonctionnement appelée best operating zone. Cette zone est encore répartie en plusieurs zones de fonctionnement. La deuxième version est adaptée au cas ou le nombre de données historiques est limité. Elle est basée sur la caractérisation de la zone de fonctionnement à l’aide des graphes de densité. Avant de caractériser les zones de fonctionnement, pour garantir une représentation optimisée des variables en coordonnées parallèles, un arrangement des variables dans l’objectif de souligner les relations entre les variables ou d’améliorer la détection des segments de fonctionnement est réalisé. Un cadre général d’arrangement de variables est proposé. Ce cadre dépend de l’objectif d’arrangement. Pour conclure, la conception des cartes de contrôle passe par 3 étapes principales : — L’arrangement des variables ; — La caractérisation de la zone opérationnelle (zone de fonctionnement) ; — la représentation et la classification des nouvelles observations. Chaque étape du développement de l’outil est évalué à l’aide d’une ou plusieurs bases simulées ou réelles pour montrer les avantages et les limitations des algorithmes et des outils suggérés. L’algorithme d’arrangement des variables montre sa capacité à détecter les dépendances entre les attributs et aussi à séparer les données. Les cartes de contrôle basées sur la best operating zone (première version) offre un taux de détection de défauts assez élève (environ 76% pour la base de données de spam) et un taux de fausses alarmes acceptable comparé aux cartes d’Hotelling. De plus, ces cartes montrent une performance comparables voire meilleure que celles des cartes d’Hotelling selon le critère de la longueur opérationnelle moyenne (ARL). Les cartes de contrôle densité, développées avec un nombre de données limitées, montrent un taux de classification assez intéressants comparées aux réseaux de neurones et aux cartes d’Hotelling. Elles donnent un taux de classification correcte autour de 75% en se basant sur des cartes développées avec 100 observations historiques. Le même taux est trouvé avec les réseaux de neurones mais avec 300 observations historiques (d’apprentissage). Le taux de classification des cartes d’Hotelling est, significativement, plus faible que celui des cartes densité et des réseaux de neurones. Les tests montrent que les solutions proposées s’alignent avec les objectifs pour lesquelles elles ont été proposées, notamment pour l’aspect visualisation et diagnostic des cartes de contrôle.----------ABSTRACT : Quality control and process monitoring are very important task for manufacturing processes. They guaranty the efficiency of the manufacturing process and the quality of the final products. Final product quality is directly related to equipment parameters.Despite the dependency between the process parameters and the product variables, they are separately monitored in most of the current industries. Generally, each parameter or variable is monitored in individual process control chart which might make the control a longer and more complex. This might, also, be very misleading. It might lead to the non-detection of some faults or to the generation of false alarms. Actually, taking into account the dependencies between product variables and process parameters is necessary. In order to do so, many authors suggest multivariate versions of known process control charts such as MEWMA, CUSUM and Hotelling. These charts have a major problem, that is they are under a very restrictive assumption, as they consider that all the variables and parameters follow a normal distribution. Authors suppose that somehow the central limit theorem will solve the problem of data non-normality. This is true when the charts are proposed for monitoring statistics such as the mean or the standard deviation, but not accurate when it is about monitoring individual observations. Some authors suggest techniques that do not suppose the normality of the data but that suppose that it is known. Few industrials know this kind of information, i.e. statistical characteristics of data. As an improvement of the parametric charts, non-parametric process control tools were proposed. These tools are either techniques based on machines learning or data mining algorithms or distribution free control charts. They show interesting results in fault detection and false alarm generation. However, they work as a black box. It is difficult to understand or interpret the obtained results. If any fault is detected, the diagnosis needs to be proceeded by an expert usually supported by monodimensional charts. Actually, practitioners are still not familiar with multidimensional graphs. In this thesis, we introduce a visual distribution free multidimensional process control tool that takes into account the dependencies between the different variables and parameters. This tool integrates parallel coordinates with the concepts of process control tools. So, it enables fault detection and also diagnosis as it conceives two types of visual control charts, depending on the availability of the historical (training) data. Both charts are visualized in parallel coordinates. The first version is proposed for the case where the training dataset is large. It is based on the visualization of control limits, i.e. the limits of the best operating zone. This zone that contains all possible functional observations is, then, divided into small functional zones in a way that the probability of not detecting a fault is reduced. The second version of chart is proposed for the case where the number of historical data is limited. The characterization of the operating zone is based on density graphs. However, before characterizing the operating zone, a variable reordering is applied to ensure an optimized representation of the variables in the parallel coordinate graph. The objective of this step is to highlight relations among variables, highlight data structure and help cluster detection. A general variable reordering framework is presented. It depends on the objective of the reordering. To conclude, conceiving a control chart, as it is proposed in this thesis goes through 3 steps: — variable reordering; — characterizing the functional (operating) zone; — representing and classifying the new observations. Each step of the development of the tool is evaluated based on different databases to analyze the advantages and limitations of the proposed algorithms. The suggested variable reordering framework shows its capacity to adapt to the objective of reordering. Twos objective were studied, highlighting variable dependence and data separation. The results obtained for the first version of the control chart are comparable (or better) than Hotelling chart, 76% of correct classification compared to 69% for Hotelling charts (for SPAM data). This is confirmed when the average run lengths are compared (ARL). Moreover, the density charts give, also, interesting results compared to Hotelling charts and neural networks. It reaches 75% of correct classification rate with 100 historical observations, whereas, neural networks reach the same rate with 300 observations. Hotelling charts do not give interesting results when the number of historical observations is limited. Besides, their good performance, the proposed charts provide a visual support that enables the interpretation of the results and also, the diagnosis of the detected faults which is not offered by the other techniques

    Utilisation de la gestion des connaissances pour le développement d'un modèle d'optimisation de la planification des approvisionnements forestiers

    Get PDF
    La planification des opérations forestières est une tâche complexe. Elle nécessite la prise en compte de plusieurs facteurs et la collaboration des différents intervenants. Plusieurs modèles d’optimisation mathématiques ont été développés pour soutenir les entreprises forestières dans leur processus de prise de décisions. Bien que bénéfiques et utiles, ces modèles demeurent peu implantés dans la pratique. La planification est, généralement, faite d'une manière intuitive basée sur les connaissances et l'expérience des intervenants. Cela amène à supposer que ces modèles ne prennent pas pleinement en considération certains facteurs importants comme la qualité des données et des informations ainsi que leurs disponibilités. Par ailleurs, la gestion des connaissances a été proposée comme assise pour améliorer la performance du processus de planification. En effet, elle permet à l'entreprise de mieux tirer profit des données disponibles pour la planification. L'objectif de ce projet est d'aider les entreprises forestières à intégrer les modèles mathématiques dans leur processus de prise de décisions pour améliorer la qualité des décisions prises. Il s'agit, en effet, de développer un modèle mathématique qui reflète le processus de planification des approvisionnements et qui couvre les besoins d'une entreprise forestière québécoise. Un second objectif consiste à mesurer l'impact d'une meilleure connaissance (précision) des inventaires forestiers sur la qualité des décisions. Une comparaison entre deux modèles d’optimisation existants et une cartographie du processus de planification d’une entreprise forestière Québécoise a été réalisée. Sur la base de cette comparaison, un modèle d'optimisation adapté a été développé. Par la suite, le modèle a été utilisé pour simuler l'impact d'une meilleure précision des inventaires forestiers sur le profit de l’entreprise partenaire. Des taux d’imprécision de 5%, 10%, 20% et 30% ont été évalués et comparés au cas où les données précises étaient connues dès le départ plutôt qu’en cours d’opérations. Les résultats de la comparaison des modèles mathématique avec les cartographies de gestion des connaissances ont démontré plusieurs écarts. Ceci a permis d'obtenir les composantes du modèle mathématique développé qui reflète le processus industriel de planification des approvisionnements. Finalement, les résultats de l’expérimentation indiquent qu’une amélioration de la précision des inventaires de 30% résulterait en une augmentation du profit de 7%.Wood procurement planning is a complex activity that requires collaboration between various actors. There have been several mathematical models formulated to help practitioners in the decision making process. But, only a few of these models are actually applied in practice. Planning is still done manually, based on experience and the sum of several individuals’ knowledge within the procurement department. One possible reason is that most models do not account for important factors related to data quality, information availability, and knowledge sharing within forest companies. Knowledge management has been proposed as a way to improve the performance of the planning process. Indeed, it enables companies to understand the information and knowledge required for planning. The objective of this project is to help forestry companies integrate optimization models to improve the planning process and the decisions quality. In fact, we aim to develop a mathematical model that depicts the industrial planning process. Finally, we want to determine the impact of better knowledge on planning decisions quality. First, a comparison between two existing mathematical models and the industrial process of a specific forestry company represented by Knowledge management mapping was done. Then, through this comparison, we developed a new mathematical model for procurement planning. Finally, this model has been used to evaluate the profit of improving the accuracy of the forestry inventory data. In order to do so, we compared the plan developed using accurate inventory data (obtained from the beginning of the planning horizon) with the plan adjusted monthly based on the accurate data. The comparison of the models with the industrials process showed that the gap between them is important. The differences measured were used in the development of the new mathematical model. This model reflects the industrial process. It has been used to determine the profit of a better accuracy inventory data. We found an important profit increase equal to 7% through improving the accuracy inventory data of 30%

    Classification algorithms for virtual metrology

    No full text
    corecore