16 research outputs found

    Un cadre formel de décision pour la planification multi-niveau de systèmes de production réticulaires

    Get PDF
    La globalisation des marchés et les évolutions des technologies de communication et d'information ont fait émerger des organisations de production réticulaires (réseaux d'entreprises). Basées sur des relations étroites de partenariat, celles-ci nécessitent de gérer la chaîne logistique et d'étendre les outils de Gestion de Production traditionnelle à l'échelle du réseau d'entreprises. La planification de la production, fonction clé, demeurant mal résolue, ce mémoire propose un modèle formel de données cadrant la décision experte en planification/ordonnancement multi-site de la production. Nos développements sont basés sur le concept de conduite généralisée qui traite conjointement et récursivement l'allocation des tâches au fur et à mesure de la désagrégation des plans et des données techniques afférentes (gammes et ressources). Dans cette approche, chaque ressource est pilotée par un centre de conduite générique impliqué dans des relations de partenariat et/ou de supervision, instanciable à tout niveau de la structure de conduite. Pour tout centre de conduite, on initialise la fonction planification par la donnée d'un carnet de commande. Le processus décisionnel d'un centre se décompose alors en deux phases : - dans un premier temps, un calcul besoin/charge permettant d'évaluer quantitativement, qualitativement et sémantiquement la charge de travail du centre de conduite, - dans un second temps, une allocation charge/ressources internes et/ou externes, intégrant les contraintes d'approvisionnement logistique. Un ensemble de règles permet d'attester, d'une part, de la cohérence du scénario d'allocation proposé et, d'autre part, de la cohérence de la désagrégation et de la répartition des données entre centres de conduite impliqués dans des relations hiérarchiques et/ou de coopération.The market globalisation and the evolution of information and communication technology have led to the emergence of networked production organisations. Based on closed relationship, these organisations need to manage the supply chain and to extend production management tools to the scale of enterprises networks. As the planning function is not well-ensured, our works consists in the proposition of a formal model to support the expert decision in the context of multi-site production planning and scheduling. Our development are based on the concept of generalised production control. This concept allows simultaneous and recursive task allocation, according to the plan and incoming technical data desegregation (roots and resources). In this approach, each resource is controlled by a generic decision centre involved in partner and/or supervision relationships, instanciable at each decision level. For each decision centre, the planning function is initialised by an order book. Then the decisional process of a centre can be split up into two phases : - in the first time, a requirement/load calculus that permits to evaluate qualitatively, quantitatively and semantically the amount of works that the decision centre has to perform, - in the second time, a load external and/or internal resource allocation that takes into account the logistic constraints A set of rules that permit to check the coherency of the proposed allocation scenario and the coherency of the desegregation and repartition of data between decision centres involved in hierarchical and cooperation relation is then proposed

    De l'ordonnancement déterministe à l'ordonnancement distribué sous incertitudes

    Get PDF
    Ce travail présente l'étude de deux types de problèmes d'ordonnancement. Le premier concerne la résolution centralisée et exacte d'un problème à une machine, le second, la résolution distribuée et coopérative d'un problème job shop où chaque machine est assimilée à un acteur possédant sa propre autonomie décisionnelle. Pour ces deux problèmes, des conditions de dominance sont utilisées, dans le premier cas, dans le but de limiter la complexité algorithmique liée à la recherche de solutions admissibles ou optimales, dans le deuxième cas, pour accroître la capacité de chaque acteur à résister aux incertitudes liées aux fluctuations de son environnement. Dans un premier temps, un théorème proposé dans les années quatre-vingt est rappelé, qui, considérant le problème à une machine, permet de caractériser un ensemble de solutions dominantes. Sur la base de ce théorème, nous proposons ensuite de nouvelles conditions analytiques et numériques de dominance permettant de restreindre encore davantage l'ensemble des solutions dominantes. En exploitant ces résultats, des formulations mathématiques originales et efficaces sont présentées, sous forme de programmes linéaires en nombres entiers, pour la modélisation et la résolution du problème à une machine en s'intéressant tour à tour au critère de minimisation du plus grand retard algébrique, puis à celui de minimisation du nombre de travaux en retard. Dans un deuxième temps, nous étudions le problème d'ordonnancement job shop dans un environnement multi-acteur, chaque acteur gérant l'activité d'une machine. Tenant compte de l'autonomie de décision et des objectifs propres de chacun, l'ordonnancement est envisagé sous la forme d'une fonction distribuée où la solution globale résulte d'une coopération entre les différents acteurs, cette solution pouvant évoluer dans le temps au fur-et-à-mesure des prises de décision locales. Ainsi, chaque acteur construisant localement sa propre organisation et n'ayant qu'une connaissance partielle et incertaine de l'organisation des autres, nous proposons que les organisations locales soient construites de façon robuste. Pour cela nous montrons comment, à l'aide des résultats de dominance, maintenir au niveau de chaque acteur un ensemble dominant de solutions ayant une performance au pire bornée. Une nouvelle approche d'ordonnancement est ensuite proposée où les acteurs négocient deux à deux, de façon distribuée, de façon à converger progressivement vers des décisions assurant un compromis satisfaisant entre l'optimisation des objectifs locaux et des objectifs globaux.This work presents the study of two scheduling problems. The former concerns the exact and centralised resolution of a single machine problem, and the latter, the distributed and cooperative resolution of a job shop, each machine being viewed as an actor having its own decision autonomy. For both problems, dominance conditions are used, in the first case, in order to reduce the algorithmic complexity for seeking feasible or optimal solutions, and in the second case, to increase the ability of each actor to face uncertainties. In the first part, a theorem, stated in the early eighties, is recalled that allows to characterize a set of dominant solutions, considering a one-machine sequencing problem. On the basis of the theorem, new analytical and numerical dominance conditions are established that allow to tighten the set of dominant sequences. Then original and efficient mathematical formulations, in the form of integer linear programs, are proposed for modelling and solving single machine problems. Two kinds of criterion are considered : the minimization of the maximum lateness and the minimization of the number of tardy jobs. In the second part, the job shop scheduling problem is studied, using a multi-actor framework, assuming that each actor manages one machine. Taking into account the decisional autonomy and the own objectives of each actor, scheduling is seen as a distributed and dynamic function, where the global solution emerges from negotiations among the actors. We assume that each actor builds up its own local organisation in a robust way, having an imprecise and partial knowledge of the other actor's organisation. We particularly show how maintaining on each actor a set of dominant job sequences so that the worst performance can be bounded. Then a new scheduling approach is sketched where actors initiate point-to-point negotiation, in a distributed way, so as to progressively converge toward trade-off decisions that balance local and global objectives

    Utilisation d’ordres partiels pour la caractérisation de solutions robustes en ordonnancement

    Get PDF
    Ce travail s’intéresse à la caractérisation hors ligne d’ensembles flexibles de solutions en ordonnancement. Il s’inscrit dans le champ de l’ordonnancement robuste pour lequel on désire construire un ensemble d'ordonnancements relativement insensible, du point de vue de ses performances, aux événements imprévus survenant lors de la mise en œuvre en environnement perturbé. L’approche robuste proposée est de type proactif-réactif. Elle s’est particulièrement focalisée sur la phase proactive où il s'agit d’anticiper la mise en œuvre de l’ordonnancement, en construisant au plus tôt une organisation relativement insensible aux perturbations, tout en disposant d’indicateurs relatifs à la performance temporelle.\ud Dans un premier temps, le problème d’ordonnancement à une machine est étudié. Pour ce problème, un ordre partiel dominant basé sur une analyse de structure d’intervalles est décrit. Cet ordre partiel caractérise un ensemble dominant de solutions de cardinalité calculable, dont la performance au mieux et au pire, en terme de retard algébrique, peut être déterminée en temps de calcul polynomial. Deux approches d’ordonnancement robuste sont ensuite proposées permettant soit de caractériser toutes les séquences optimales contenues dans l’ensemble dominant initial, soit de trouver un compromis flexibilité / performance acceptable.\ud Dans un deuxième temps, les problèmes d’ordonnancement à plusieurs machines sont considérés. Un ordre partiel suffisant est d'abord proposé pour le problème flow shop de permutation à deux machines. Deux algorithmes utilisant les résultats obtenus pour le problème à une machine, sont ensuite présentés dans le cadre de problèmes de type job shop.\ud This work aims at characterizing offline sets of scheduling solutions which aim at providing some flexibility. It belongs to the field of robust scheduling where one wants to build a schedule which is insensitive, regarding its performances, to unforeseen events which occur during the schedule execution in a disrupted environment. The proposed robust approach is of proactive-reactive type. It focuses, in particular, on the proactive phase which aims at anticipating the execution of the schedule by building as soon as possible an organization which is relatively insensitive to disruptions, while possessing some indicators related to the temporal performance.\ud In the first part, the one machine scheduling problem is studied. For this problem, we describe a dominant partial order which is based on an analysis of particular interval structures. This partial order characterizes a set of solutions having a calculable cardinality. Moreover, the best and the worst performances of this solution set, in term of lateness, can be computed in a polynomial time. Then, two robust scheduling approaches are proposed, which allow either to characterize all optimal sequences contained in the initial dominant set or to find an acceptable flexibility / performance trade-off. \ud In the second part, we are interested in scheduling problems with several machines. A sufficient partial order is firstly proposed for the two-machine permutation flow shop problem. Then, two algorithms using the results for the one machine problem are presented in order to solve the job shop problem.\u

    Ordonnancement interactif basé sur des indicateurs : Applications à la gestion de commandes incertaines et à l'affectation des opérateurs

    Get PDF
    Pour répondre aux attentes de clients de plus en plus exigeants, les entreprises d'aujourd'hui doivent accroître leur compétitivité, leur productivité et leur réactivité. Pour répondre à ces exigences, la fonction ordonnancement se doit d'être plus réactive, plus performante et plus adaptée aux spécificités des compagnies. Parmi les différentes possibilités d'évolution de l'ordonnancement, la voie de l'ordonnancement interactif semble répondre à ces besoins, et parmi les approches possibles de l'interactivité, l'utilisation d'indicateurs permet au gestionnaire d'atelier de connaître toutes les données nécessaires à la mise au point d'un ordonnancement performant. Quatre types d'indicateurs ont été définis : - des indicateurs de contexte décrivant l'état général de l'atelier, - des indicateurs de diagnostic aidant à identifier les causes de problèmes courants, - des indicateurs d'action renseignant sur la pertinence et l'efficacité de l'utilisation des degrés de liberté, - des indicateurs de performance, évaluant les performances de l'ordonnancement par rapport aux objectifs de l'entreprise. Cette approche de l'ordonnancement interactif a été appliquée à deux problématiques actuelles. Des indicateurs spécifiques à ces deux problèmes ont été définis. La première application concerne la prise en compte dans l'ordonnancement de commandes incertaines, encore en cours de négociation. La deuxième application concerne la gestion des opérateurs de production à court terme, au niveau de l'ordonnancement. Un outil de construction de tableaux de bord mettant en oeuvre ces différents indicateurs a été réalisé dans le cadre d'un projet européen (le projet ASPIRE)

    Conception et développement d'un système multi-agent d'aide à la décision pour la gestion de production dynamique

    Get PDF
    Une prise de décision efficace repose souvent sur le contrôle de l'information dans le temps, cette action vise à capturer des éléments d'information les plus importants qui sont mis à jour de différentes manières. L'intégration des agents aux Systèmes Interactifs d'Aide à la Décision (SIAD) fournit un moyen rentable pour la prise de décision. Les agents planifient dans le système et poursuivent leurs buts et sous-objectifs en coopérant, coordonnant leurs tâches et en négociant entre eux afin de répondre avec souplesse et intelligence aux situations dynamiques et imprévues. En gestion de production temps-réel, le système d'aide à la décision mémorise l'état courant de l'atelier. Il connaît à tout moment l'ensemble des décisions et des événements possibles. Nous distinguons trois contextes d'aide à la décision : (i) aide à la décision pour une séquence admissible; (ii) aide à la décision pour le recouvrement de l'admissibilité et (iii) aide à la décision et à la négociation entre les centres de décision hors du contexte planifié. La présente thèse propose un SIAD à base d'agents afin de résoudre certains problèmes d'incertitude dans le système d'ordonnancement de la production dynamique. Le système développé donne aux centres de décision la possibilité pour prendre des décisions dans un contexte dynamique. Plus précisément, les Stations Intégrées de Production (SIP) seront équipées d'un comportement suffisant pour exécuter des opérations concrètes et réagir simultanément à la complexité des problèmes causés par l'ordonnancement dynamique dans des situations réelles. Ces agents expriment leurs préférences en utilisant la méthode ELECTRE III, afin de résoudre les différences. Le mécanisme de négociation est basé sur le Protocole Contract Net (CNP). Le protocole développé sur JADE fournit des échanges de messages entre les agents et leur propose des comportements prédéfinis. L'approche est testée à travers des scénarii simples.An effective decision making is often based on control information in time. This action aims to capture the current state of the most important information elements updated in different ways. For Decision Support Systems (DSS), the software agents' integration provides an automated, cost-effective means for making decisions. The agents in the system autonomously plan and pursue their actions and sub-goals to cooperate, coordinate, and negotiate with others, and to respond flexibly and intelligently to dynamic and unpredictable situations. In real-time production management, the DSS memorizes the current state-of the workshop. It knows constantly all possible decisions and the possible events involved. We distinguish 3 contexts for the decision-making aid: (1) Decision-making aid in the context of an acceptable sequence; (2) Assistance for the admissibility covering; and (3) negotiation support among different decision-making centers in a dynamic context. The present thesis proposes an agent architecture-based DSS in order to solve some uncertainty problems in dynamic production system scheduling. The proposed DSS gives the decision centers the opportunity to make decisions in a dynamical context. Specifically, Integrated Station of Production agents (ISP) will be equipped with a sufficient behavior to carry out practical operations and simultaneously react to the complex problems caused by the dynamic scheduling in real situations. These agents express their preferences by using ELECTRE III method in order to solve differences. The negotiation mechanism is based on the Contract Net Protocol (CNP). The coordination protocol developed on JADE provides message exchanges between agents and offers them predefined behaviors. The approach is tested through simple scenarios

    Analyse macroscopique des grands systèmes (émergence épistémique et agrégation spatio-temporelle)

    Get PDF
    L'analyse des systèmes de grande taille est confrontée à des difficultés d'ordre syntaxique et sémantique : comment observer un million d'entités distribuées et asynchrones ? Comment interpréter le désordre résultant de l'observation microscopique de ces entités ? Comment produire et manipuler des abstractions pertinentes pour l'analyse macroscopique des systèmes ? Face à l'échec de l'approche analytique, le concept d'émergence épistémique - relatif à la nature de la connaissance - nous permet de définir une stratégie d'analyse alternative, motivée par le constat suivant : l'activité scientifique repose sur des processus d'abstraction fournissant des éléments de description macroscopique pour aborder la complexité des systèmes. Cette thèse s'intéresse plus particulièrement à la production d'abstractions spatiales et temporelles par agrégation de données. Afin d'engendrer des représentations exploitables lors du passage à l'échelle, il apparaît nécessaire de contrôler deux aspects essentiels du processus d'abstraction. Premièrement, la complexité et le contenu informationnel des représentations macroscopiques doivent être conjointement optimisés afin de préserver les détails pertinents pour l'observateur, tout en minimisant le coût de l'analyse. Nous proposons des mesures de qualité (critères internes) permettant d'évaluer, de comparer et de sélectionner les représentations en fonction du contexte et des objectifs de l'analyse. Deuxièmement, afin de conserver leur pouvoir explicatif, les abstractions engendrées doivent être cohérentes avec les connaissances mobilisées par l'observateur lors de l'analyse. Nous proposons d'utiliser les propriétés organisationnelles, structurelles et topologiques du système (critères externes) pour contraindre le processus d'agrégation et pour engendrer des représentations viables sur les plans syntaxique et sémantique. Par conséquent, l'automatisation du processus d'agrégation nécessite de résoudre un problème d'optimisation sous contraintes. Nous proposons dans cette thèse un algorithme de résolution générique, s'adaptant aux critères formulés par l'observateur. De plus, nous montrons que la complexité de ce problème d'optimisation dépend directement de ces critères. L'approche macroscopique défendue dans cette thèse est évaluée sur deux classes de systèmes. Premièrement, le processus d'agrégation est appliqué à la visualisation d'applications parallèles de grande taille pour l'analyse de performance. Il permet de détecter les anomalies présentes à plusieurs niveaux de granularité dans les traces d'exécution et d'expliquer ces anomalies à partir des propriétés syntaxiques du système. Deuxièmement, le processus est appliqué à l'agrégation de données médiatiques pour l'analyse des relations internationales. L'agrégation géographique et temporelle de l'attention médiatique permet de définir des évènements macroscopiques pertinents sur le plan sémantique pour l'analyse du système international. Pour autant, nous pensons que l'approche et les outils présentés dans cette thèse peuvent être généralisés à de nombreux autres domaines d'application.The analysis of large-scale systems faces syntactic and semantic difficulties: How to observe millions of distributed and asynchronous entities? How to interpret the disorder that results from the microscopic observation of such entities? How to produce and handle relevant abstractions for the systems' macroscopic analysis? Faced with the failure of the analytic approach, the concept of epistemic emergence - related to the nature of knowledge - allows us to define an alternative strategy. This strategy is motivated by the observation that scientific activity relies on abstraction processes that provide macroscopic descriptions to broach the systems' complexity. This thesis is more specifically interested in the production of spatial and temporal abstractions through data aggregation. In order to generate scalable representations, the control of two essential aspects of the aggregation process is necessary. Firstly, the complexity and the information content of macroscopic representations should be jointly optimized in order to preserve the relevant details for the observer, while minimizing the cost of the analysis. We propose several measures of quality (internal criteria) to evaluate, compare and select the representations depending on the context and the objectives of the analysis. Secondly, in order to preserve their explanatory power, the generated abstractions should be consistent with the background knowledge exploited by the observer for the analysis. We propose to exploit the systems' organisational, structural and topological properties (external criteria) to constrain the aggregation process and to generate syntactically and semantically consistent representations. Consequently, the automation of the aggregation process requires solving a constrained optimization problem. We propose a generic algorithm that adapts to the criteria expressed by the observer. Furthermore, we show that the complexity of this optimization problem directly depend on these criteria. The macroscopic approach supported by this thesis is evaluated on two classes of systems. Firstly, the aggregation process is applied to the visualisation of large-scale distributed applications for performance analysis. It allows the detection of anomalies at several scales in the execution traces and the explanation of these anomalies according to the system syntactic properties. Secondly, the process is applied to the aggregation of news for the analysis of international relations. The geographical and temporal aggregation of media attention allows the definition of semantically consistent macroscopic events for the analysis of the international system. Furthermore, we believe that the approach and the tools presented in this thesis can be extended to a wider class of application domains.SAVOIE-SCD - Bib.électronique (730659901) / SudocGRENOBLE1/INP-Bib.électronique (384210012) / SudocGRENOBLE2/3-Bib.électronique (384219901) / SudocSudocFranceF

    Estimation du contexte par vision embarquée et schémas de commande pour l'automobile

    Get PDF
    Les systèmes dotés d autonomie doivent continument évaluer leur environnement, via des capteurs embarqués, afin de prendre des décisions pertinentes au regard de leur mission, mais aussi de l endosystème et de l exosystème. Dans le cas de véhicules dits intelligents , l attention quant au contexte environnant se porte principalement d une part sur des objets parfaitement normalisés, comme la signalisation routière verticale ou horizontale, et d autre part sur des objets difficilement modélisables de par leur nombre et leur variété (piétons, cyclistes, autres véhicules, animaux, ballons, obstacles quelconques sur la chaussée, etc ). La décision a contrario offre un cadre formel, adapté à ce problème de détection d objets variables, car modélisant le bruit plutôt qu énumérant les objets à détecter. La contribution principale de cette thèse est d adapter des mesures probabilistes de type NFA (Nombre de Fausses Alarmes) au problème de la détection d objets soit ayant un mouvement propre, soit saillants par rapport au plan de la route. Un point fort des algorithmes développés est qu ils s affranchissent de tout seuil de détection. Une première mesure NFA permet d identifier le sous-domaine de l'image (pixels non nécessairement connexes) dont les valeurs de niveau de gris sont les plus étonnantes, sous hypothèse de bruit gaussien (modèle naïf). Une seconde mesure NFA permet ensuite d identifier le sous-ensemble des fenêtres de significativité maximale, sous hypothèse de loi binômiale (modèle naïf). Nous montrons que ces mesures NFA peuvent également servir de critères d optimisation de paramètres, qu il s agisse du mouvement 6D de la caméra embarquée, ou d un seuil de binarisation sur les niveaux de gris. Enfin, nous montrons que les algorithmes proposés sont génériques au sens où ils s appliquent à différents types d images en entrée, radiométriques ou de disparité.A l opposé de l approche a contrario, les modèles markoviens permettent d injecter des connaissances a priori sur les objets recherchés. Nous les exploitons dans le cas de la classification de marquages routiers.A partir de l estimation du contexte (signalisation, détection d objets inconnus ), la partie commande comporte premièrement une spécification des trajectoires possibles et deuxièmement des lois en boucle fermée assurant le suivi de la trajectoire sélectionnée. Les diverses trajectoires possibles sont regroupées en un faisceau, soit un ensemble de fonctions du temps où divers paramètres permettent de régler les invariants géométriques locaux (pente, courbure). Ces paramètres seront globalement fonction du contexte extérieur au véhicule (présence de vulnérables, d'obstacles fixes, de limitations de vitesse, etc.) et permettent de déterminer l'élément du faisceau choisi. Le suivi de la trajectoire choisie s'effectue alors en utilisant des techniques de type platitude différentielle, qui s'avèrent particulièrement bien adaptées aux problèmes de suivi de trajectoire. Un système différentiellement plat est en effet entièrement paramétré par ses sorties plates et leurs dérivées. Une autre propriété caractéristique de ce type de systèmes est d'être linéarisable de manière exacte (et donc globale) par bouclage dynamique endogène et transformation de coordonnées. Le suivi stabilisant est alors trivialement obtenu sur le système linéarisé.To take relevant decisions, autonomous systems have to continuously estimate their environment via embedded sensors. In the case of 'intelligent' vehicles, the estimation of the context focuses both on objects perfectly known such as road signs (vertical or horizontal), and on objects unknown or difficult to describe due to their number and variety (pedestrians, cyclists, other vehicles, animals, any obstacles on the road, etc.). Now, the a contrario modelling provides a formal framework adapted to the problem of detection of variable objects, by modeling the noise rather than the objects to detect. Our main contribution in this PhD work was to adapt the probabilistic NFA (Number of False Alarms) measurements to the problem of detection of objects simply defined either as having an own motion, or salient to the road plane. A highlight of the proposed algorithms is that they are free from any detection parameter, in particular threshold. A first NFA criterion allows the identification of the sub-domain of the image (not necessarily connected pixels) whose gray level values are the most amazing under Gaussian noise assumption (naive model). A second NFA criterion allows then identifying the subset of maximum significant windows under binomial hypothesis (naive model). We prove that these measurements (NFA) can also be used for the estimation of intrinsec parameters, for instance either the 6D movement of the onboard camera, or a binarisation threshold. Finally, we prove that the proposed algorithms are generic and can be applied to different kinds of input images, for instance either radiometric images or disparity maps. Conversely to the a contrario approach, the Markov models allow to inject a priori knowledge about the objects sought. We use it in the case of the road marking classification. From the context estimation (road signs, detected objects), the control part includes firstly a specification of the possible trajectories and secondly the laws to achieve the selected path. The possible trajectories are grouped into a bundle, and various parameters are used to set the local geometric invariants (slope, curvature). These parameters depend on the vehicle context (presence of vulnerables, fixed obstacles, speed limits, etc ... ), and allows determining the selected the trajectory from the bundle. Differentially flat system is indeed fully parameterized by its flat outputs and their derivatives. Another feature of this kind of systems is to be accurately linearized by endogenous dynamics feed-back and coordinate transformation. Tracking stabilizer is then trivially obtained from the linearized system.PARIS11-SCD-Bib. électronique (914719901) / SudocSudocFranceF

    Formalisation de la démarche de conception d'un système de production mobile : intégration des concepts de mobilité et de reconfigurabilité

    Get PDF
    In this thesis we analyse how the concept of mobility can be taken into account in the analysis and design of production systems. Our contribution aims to formalize the analysis and design process, explaining the decisions, the necessary information and decision criteria to be taken into account. For this purpose, two levels of analysis were distinguished: a local level concerning one production site and a global level including a set of sites.The first level considers one production site. At this level we have proposed an approach that takes into account the characteristics of the production site. In our context, the choice of the geographical location of production is imposed by the final client. Therefore, the design of the production system should be adapted to this constraint. From a design perspective, four questions are addressed: (1) To what extent the concept of mobility can be integrated into a mobile production system design approach? (2) What characteristics of the production environment must be taken into account? (3) How to determine what to produce on site or that it would be appropriate to outsource? And (4) taking into account all obtained information what is the best configuration of the mobile production system to consider and according towhich criteria? The answer to these questions led to the proposal of a configuration of SPM suitable for a single production site.The second Level of analysis addresses the problem of global mobility. In order to be profitable, the production system must be used on several production locations. every change of production location led to a need of reconfiguration of the Production System. Reconfigurability Concerns the internal architecture of the system (machine selection, recruitment News local teams, etc.) as well as the organization of the SPM supply chain. Fot this global level, we propose two analytical models: (1) the first model for the analysis of internal reconfigurability. This analysis model is used to adapt the number of production lines and the number of teams according to a production scenario (Geographical locations, necessary capacity per site). The originality of our proposal consists on the assessment of costs to support reconfiguration and the appreciation the convenience level with the context of the production site by using the mobility indicator. (2) Second model to analyse Concerns reconfigurability of the upstream supply chain of PMS. It Consists in June adaptation of the model using the decision "to do ou do" by integrating A side of the importance of the production site and another side Specifics Each of the production site.The proposed approach is illustrated on an industrial case concerning the design of a mobile manufacturing plant used to produce in-site and Install components of solar plantDans cette thèse nous analysons dans quelle mesure le concept de mobilité peut être pris en compte dans la démarche d'analyse et de conception de systèmes de production. Notre apport vise à formaliser la démarche d'analyse et de conception de ce dernier, explicitant les décisions à prendre, les informations nécessaires et les critères de décision à mettre en place. Dans cet objectif, deux niveaux d'analyse ont été distingués : un niveau local concernant un site de production et un niveau global comprenant un ensemble de sites.Le premier niveau local considère un seul site de production. A ce niveau nous avons proposé une approche prenant en compte les caractéristiques du site de production. Dans notre contexte, le choix de la localisation géographique de production est imposé par le client. De ce fait, la conception du système de production doit s'adapter à cette contrainte. D'un point de vue conception, quatre questions sont abordées : (1) dans quelle mesure le concept de mobilité peut être intégré dans une démarche de conception de système de production mobile ? (2) quelles caractéristiques de l'environnement de production doivent être prises en compte ? (3) comment déterminer ce qu'il faut produire sur site ou ce qu'il serait opportun d'externaliser ? et (4) compte tenu des informations obtenues quelle est la meilleure configuration du SPM à envisager et selon quels critères de choix ? La réponse à ces questions conduit à la proposition d'une configuration du SPM adaptée pour un seul site de production.Le deuxième niveau global traite la problématique de mobilité successive multi sites. En effet, pour être rentabilisé le système de production doit être mobilisé sur plusieurs sites de production. A chaque changement de site de production, une reconfiguration du système de production s'impose en se basant sur la configuration existante (version i-1). LaThèse de Youssef BENAMAreconfigurabilité concerne d'une part l'architecture interne du système (choix des machines, recrutement de nouvelles équipes locales, etc) et d'autre part l'organisation de la chaîne d'approvisionnement du SPM (faire en interne ou externaliser, fournisseur local, etc.). A ce niveau global d'analyse, nous proposons deux modèles d'analyse : (1) un premier modèle pour l'analyse de la reconfigurabilité interne. Ce modèle d'analyse permet d'adapter le nombre de lignes de production et le nombre d'équipes en fonction d'un scénario de demande (localisations géographiques, capacité nécessaire par site). L'originalité de notre proposition consiste d'une part en l'évaluation des coûts de reconfiguration nécessaires et d'autre part l'appréciation du niveau d'adéquation de la configuration proposée avec le contexte du site de production via l'utilisation de l'indicateur de mobilité. (2) Le deuxième modèle d'analyse concerne la reconfigurabilité de la chaîne d'approvisionnement amont du SPM. Il consiste en une adaptation du modèle d'aide à la décision "faire ou faire faire" par l'intégration d'un côté de l'importance du site de production et d'un autre côté des spécificités de chaque site de production.La démarche d'analyse proposée est illustrée sur le cas industriel concernant la conception d'une usine mobile pour la fabrication et l'installation sur site de composants de centrales solaires thermodynamiques

    Contribution à l'approche booléenne de la sureté de fonctionnement : l'atelier logiciel Aralia WorkShop

    Get PDF
    Cette thèse synthétise les travaux conduits et les résultats obtenus dans le cadre de deux projets de recherche soutenus par des partenaires industriels et décrits ci-après: * Le projet Hévéa visait à traduire les séquences des arbres d'événements (AdE) en formules booléennes. La première phase du projet a abouti à une formalisation du problème et à la réalisation d'un logiciel permettant cette traduction. La deuxième phase a permis de trouver des solutions permettant de diminuer les problèmes d'explosion combinatoire du traitement par diagrammes binaires de décision (BDD : Binary Decision Diagram) des formules booléennes ainsi générées. La troisième phase a validé les approximations généralement utilisées lors des Etudes Probabilistes de Sûreté (EPS) des centrales nucléaires au terme d'une étude systématique portant sur deux EPS industrielles. * Le projet Aloès avait pour but d'étudier des problèmes d'allocation d'exigences s'appuyant sur des modèles booléens d'analyse des risques. Après une recherche bibliographique et des discussions avec les partenaires du projet, il a abouti à la création d'un langage générique de description de problèmes d'allocation. Ce langage, ainsi que le logiciel Aloès supportant le langage, sont suffisamment génériques pour être couplé à des moteurs des calculs externes comme Aralia (voir ci-dessous) ou Réséda (outil traduisant un réseau de fiabilité en formule booléenne). Le logiciel offre alors trois algorithmes d'optimisation (descente rapide, Branch & Bound, Simplex) afin de résoudre les problèmes d'allocation. Des expérimentations sur un ensemble de réseaux de fiabilité ont permis de valider le pouvoir d'expression du langage, mais ont conclu sur la nécessité d'améliorer les algorithmes d'optimisation intégrés. L'ensemble de ces travaux a débouché sur la création de l'atelier logiciel Aralia WorkShop de saisie et de traitement des modèles booléens d'analyse des risques (Arbre de défaillance : AdD, Arbre d'événements : AdE, Bloc diagramme de fiabilité : BDF), s'appuyant pour la partie traitement sur le coeur de calcul Aralia. Ce dernier se base sur un codage des formules booléennes en BDD.This thesis presents the results obtained by the author during his participation to two research programs supported by industrial partners: * The Hévéa projet The main objective of this project was to assess event-tree sequences by means of Boolean techniques. During the first stage of this program, the author formalized the problem. He designed the Hévéa software which is dedicated to event-tree assessment. In the second stage, the author introduced several original means to reduce the exponential blow-up of the BDD-based processing of Boolean formulae. During the third stage, he validated by means of a systematic study of two industrial PSA (Probabilistic Safety Analysis) the approximations commonly used in the nuclear framework. * The Aloes project The aim of this project was the study of so-called requirement allocation problems. This project began by an important bibliographic work and ended by the creation of a language suitable for allocation problems. This language, and related software Aloès are generic enough to be connected to external assessment softwares such as Aralia (which encodes boolean formulae by using BDD) and Réséda (which transform a reliability network into boolean formulae). Three optimisation algorithms (steepest descent, branch and bound, simplex) are implemented in the Aloès Software to solve allocation problems. Several experiments on reliability networks validated language. These experiments showed that some of previous embedded optimisation algorithms must be improved. The final result of all these studies is the software set Aralia WorkShop which is devoted to the assessment of Boolean risk analysis models (Faut-tree, Event-tree, Reliability block-diagrams and networks) thanks to the embedded computing software Aralia
    corecore