4 research outputs found

    Exploitation of Big Dat for the multi-objective Performance Management of Industry 4.0

    No full text
    Les développements technologiques nous amènent vers une quatrième révolution industrielle (Industrie 4.0). Cette révolution apporte plusieurs changements aux systèmes de production dont la disponibilité de grandes masses de données en temps réel. Dans ce contexte, nous nous intéressons à l'utilité des Big Data pour le pilotage de performance. Nous avons défini des critères de pertinence de données à savoir, l'alignement des données aux objectifs de l'entreprise, le coût, la qualité et la quantité de données. Pour répondre à la question quelle quantité de données est suffisante au pilotage de performance, nous nous sommes basés sur des méthodes de statistiques multivariées. Afin déterminer le nombre suffisant de variables, nous avons utilisé des méthodes de réduction de dimensionnalité essentiellement l'analyse en composantes principales et le clustering des variables. La définition du nombre d'observations est formulée comme un problème de segmentation de séries temporelles multivariées. La qualité de données est aussi une question fondamentale dans l'exploitation des données. Dans cette optique, nous nous sommes intéressés à la modélisation de l'incertitude et l'imprécision de données par la théorie de croyance. Le processus de traitement des incertitudes liées aux indicateurs de performance peut être résumé ainsi comme suit : modélisation des incertitudes pour les données élémentaires, combinaison des incertitudes de données venant de plusieurs sources, leur propagation vers les indicateurs de performance et prise de décision. Nous avons proposé une méthode de calcul de la valeur de confiance inspirée de la littérature sur la méthode des K plus proches voisins. L'approche proposée consiste à partitionner les données historiques supposées multivariées en groupes homogènes via un apprentissage non supervisé. Ces groupes reflètent les différents états du système. Une fois les groupes formés, nous leurs affectons une valeur de confiance fournie par un expert. Cette valeur caractérise le niveau de confiance qu'on a dans la réalisation des variables. Supposons qu'on a un nouveau vecteur de données et on cherche sa valeur de confiance. On commence par le classer dans l'un des groupes formés et on lui attribue la valeur de confiance associée à cette classe. Mais cette valeur n'est pas suffisante : le vecteur de données peut appartenir à un groupe mais il est à la frontière de ce groupe. Donc on calcule une autre valeur de confiance comme fonction de la distance séparant le vecteur de données de ses k plus proches voisins dans le groupe. Puis les deux valeurs de confiance sont combinées afin de trouver une valeur de confiance globale. Cette valeur est l'incertitude liée au vecteur de données. Si les données proviennent de plusieurs sources, la théorie de croyance offre un cadre pour les fusionner. Une fois l'incertitude des données est modélisée, on passe à sa propagation aux indicateurs de performance via le produit cartésien, puis à la prise de décision. Grâce à l'affectation d'un vecteur de données à un groupe, on pourrait déterminer l'état du système. Si la valeur d'incertitude est inférieure à seuil de confiance fixé, on est dans une « zone de confiance » et le décideur pourrait prendre une décision pour corriger la performance. Si la valeur d'incertitude est supérieure à ce seuil, la décision peut être prise en tenant compte de la gravité d'une mauvaise décision sur le système. Un autre aspect de non qualité de données est considéré, à savoir l'incomplétude. Une étude de l'évolution de certains indicateurs de performance en fonction des pourcentages et mécanismes de génération de données manquantes a montré que l'incomplétude a un effet plus important sur la mesure de performance lorsque l'on dispose d'un nombre limité d'observations. Si la quantité de données est suffisante, l'étude de l'évolution de l'indicateur reste presque inchangée.Technological developments are leading us to a fourth industrial revolution (Industry 4.0). This revolution brings several changes to production systems, including the availability of large masses of data in real time. In this context, we are interested in the usefulness of Big Data for performance management. We have defined data relevance criteria, namely, the alignment of data with the company's objectives, the cost, quality and quantity of data. To answer the question of how much data is enough for performance management, we used multivariate statistical methods. In order to determine the sufficient number of variables, we used dimensionality reduction methods, mainly principal component analysis and clustering of variables. The definition of the number of observations is formulated as a multivariate time series segmentation problem. Data quality is also a fundamental issue in data exploitation. In this perspective, we are interested in the modeling of uncertainty and imprecision of data by the belief theory. The process of dealing with uncertainties related to performance indicators can be summarized as follows: modeling uncertainties for elementary data, combining data uncertainties from several sources, propagating them to performance indicators and making decisions. We have proposed a confidence value calculation method inspired by the K-nearest neighbor literature. The proposed approach consists in partitioning the assumed multivariate historical data into homogeneous groups via unsupervised learning. These groups reflect the different states of the system. Once the groups are formed, we assign them a confidence value provided by an expert. This value characterizes the level of confidence we have in the realization of the variables. Let's suppose that we have a new data vector and we look for its confidence value. We start by classifying it in one of the groups formed and we assign it the confidence value associated with this class. But this value is not sufficient: the data vector can belong to a group but it is at the border of this group. So we compute another confidence value as a function of the distance separating the data vector from its k nearest neighbors in the group. Then the two confidence values are combined to find an overall confidence value. This value is the uncertainty associated with the data vector. If the data comes from multiple sources, belief theory provides a framework for merging them. Once the uncertainty of the data is modeled, we move on to its propagation to the performance indicators via the Cartesian product, and then to decision making. By assigning a data vector to a group, the state of the system could be determined. If the uncertainty value is lower than a fixed confidence threshold, we are in a "confidence zone" and the decision-maker could take a decision to correct the performance. If the uncertainty value is higher than this threshold, the decision can be made taking into account the severity of a bad decision on the system. Another aspect of data non quality is considered, namely incompleteness. A study of the evolution of some performance indicators as a function of the percentages and mechanisms of missing data generation has shown that incompleteness has a greater effect on the performance measure when a limited number of observations are available. If the amount of data is sufficient, the study of the indicator's evolution remains almost unchanged

    Le jumeau numérique dans le pilotage de performance

    No full text
    International audienceLa transition vers l'industrie 4.0 est supportée par plusieurs technologies telles que le jumeau numérique. Étant donné qu'il devrait être développé à des fins spécifiques, nous sommes intéressés par l’application du jumeau numérique pour le pilotage de performance.L'objectif de ce papier est d'identifier, à travers un état de l'art, les caractéristiques du jumeau numérique afin de motiver son utilisation pour le pilotage de la performance.Nous indiquons qu'un jumeau numérique d’un atelier de production comprend des jumeaux numériques de produits et de processus capables d'alimenter les systèmes de mesure des performances avec des données pertinentes. Ensuite, nous réalisons une correspondance entre un système de pilotage de performance et un jumeau numérique dans le but de montrer l’utilité de ce dernier. Et nous proposons un ensemble d'utilisations du jumeau numérique dans le pilotage de performance, inspiré des différents défis auxquels sont confrontés les systèmes de pilotage
    corecore