253 research outputs found

    Analyses statistiques des communications sur puce

    Get PDF
    This PhD is composed of two main parts. The first one focuses on Internet traffic modelling. From the analysis of many traffic traces, we have proposed a parsimonious model (Gamma-Farima) adapted to aggregated throughput traces and valid for wide range of aggregation levels. In order to produce synthetic traffic from this model, we have also studied the generation of sample path of non-gaussian and long memory stochastic processes. We have then used the Gamma-Farima model in order to build an anomaly detection method. To this end we have introduced a multiresolution model that can differentiate a regular traffic from a malicious one (including a DDoS attack). This method was evaluated both on real traces and simulations. Finally, we have studied the production of long range dependent traffic in a network simulator (NS-2). The second part of this PhD deals with the analysis and synthesis of on-chip traffic, i.e. the traffic occurring in a system on chip. In such systems, the introduction of networks on chip (NOC) has brought the interconnection system on top of the design flow. In order to prototype these NOC rapidly, fast simulations need to be done, and replacing the components by traffic generators is a good way to achieve this purpose. So, we have set up and developed a complete and flexible on-chip traffic generation environment that is able to replay a previously recorded trace, to generate a random load on the network, to produce a stochastic traffic fitted to a reference trace and to take into account traffic phases. Indeed most of the traffic traces we have obtained were non-stationary, we therefore need to split them into reasonably stationary parts in order to perform a meaningful stochastic fit. We have performed many experiments in the SOCLIB simulation environment that demonstrate that i) our traffic generation procedure is correct, ii) our segmentation algorithm provides promising results and iii) multiphase stochastic traffic generation is a good tradeoff between replay and simple random traffic generation. Finally, we have investigated the presence of long memory in the trace as well as the impact of long memory on the NoC performance.Cette thÚse est composée de deux parties. La premiÚre explore la problématique de la modélisation de trafic Internet. Nous avons proposé, à partir de l'étude de nombreuses traces, un modÚle basé sur des processus stochastiques non-gaussiens à longue mémoire (Gamma-Farima) permettant de modéliser de maniÚre pertinente les traces de débit agrégé, et ce pour une large gamme de niveau d'agrégation. Afin de pouvoir générer du trafic synthétique, nous avons proposé une méthode de synthÚse de tels processus. Nous avons ensuite, à partir du modÚle Gamma-Farima, proposé un modÚle multirésolution permettant de différencier un trafic régulier, d'un trafic contenant une attaque (de type déni de service distribuée). Ceci nous a permis de proposer une méthode de détection d'anomalie que nous avons évalué sur des traces réelles et en simulation. Enfin nous avons étudié expérimentalement le problÚme de la production de trafic à longue mémoire dans un simulateur de réseaux (NS-2). La deuxiÚme partie traite la problématique de la génération de trafic au sein des systÚmes sur puce (SOC). Dans ce domaine, l'arrivée de véritable réseaux sur puce place la conception de l'interconnexion au premier plan, et pour accélérer les simulations, il convient de remplacer les composants par des générateurs de trafic. Nous avons mis en place un environnement complet de génération de trafic sur puce permettant de rejouer une trace, de produire une charge aléatoire sur le réseau, de produire un trafic stochastique ajusté sur une trace de référence et de tenir compte des phases dans le trafic. Nous avons effectué de nombreuses simulations dans l'environnement de simulation de SOC académique SOCLIB qui nous ont permis de valider notre approche, d'évaluer notre algorithme de segmentation ainsi que la génération de trafic stochastique multiphase que nous avons introduite. Nous avons aussi exploré la présence de longue mémoire dans le trafic des processeurs sur puce, ainsi que l'impact de cette caractéristique sur les performances du réseau sur puce

    Ordonnancement de tùches sous contraintes sur des métiers à tisser

    Get PDF
    Dans une usine de production de textile, il y a des mĂ©tiers Ă  tisser. Ces mĂ©tiers Ă  tisser peuvent ĂȘtre configurĂ©s de diffĂ©rentes façons. Des tĂąches doivent ĂȘtre exĂ©cutĂ©es sur ces mĂ©tiers Ă  tisser et le temps d’exĂ©cution d’une tĂąche est fonction du mĂ©tier sur lequel elle est effectuĂ©e. De plus, chaque tĂąche est seulement compatible avec les mĂ©tiers Ă  tisser Ă©tant configurĂ©s de certaines façons. Un temps de mise en course peut permettre de configurer ou prĂ©parer un mĂ©tier Ă  tisser pour l’exĂ©cution d’une tĂąche. Le temps de mise en course est dĂ©pendant de la tĂąche qui prĂ©cĂšde et de celle qui suit. Nous souhaitons alors crĂ©er un horaire pour minimiser les temps de fabrication et les retards. Toutefois, certaines contraintes doivent ĂȘtre respectĂ©es. Lorsque des prĂ©parations surviennent sur des mĂ©tiers diffĂ©rents en mĂȘme temps, le nombre d’employĂ©s doit ĂȘtre suffisant. Un mĂ©tier ne peut faire qu’une seule action Ă  la fois. L’ordonnancement d’une seule machine est un problĂšme NP-Difficile. Dans ce projet, il faut ordonnancer environ 800 tĂąches sur 90 machines dans un horizon de deux semaines, tout en respectant les contraintes de personnel. Des Ă©vĂšnements stochastiques doivent ĂȘtre pris en compte pour obtenir un meilleur horaire. Le bris d’un fil n’étant pas un Ă©vĂšnement rare, l’occurrence des bris est donnĂ©e sous la forme d’une loi de Poisson. Nous proposons alors une approche de rĂ©solution utilisant une heuristique de branchement basĂ©e sur le problĂšme du commis voyageur. Cette approche permet d’obtenir de bonnes solutions pour le problĂšme d’ordonnancement explorĂ©. Les solutions trouvĂ©es sont 5 Ă  30% meilleures en termes de fonction objectif qu’une heuristique semblable Ă  celle utilisĂ©e par l’équipe de planification de notre partenaire industriel. Nous prĂ©sentons aussi un algorithme pour garantir la robustesse d’un horaire. Notre algorithme permet de gĂ©nĂ©rer des horaires plus rĂ©alistes et qui rĂ©sistent bien aux Ă©vĂšnements imprĂ©vus. La combinaison de ces deux pratiques mĂšne Ă  l’intĂ©gration et l’utilisation du produit final par notre partenaire industriel.In a textile factory, there are looms. Workers can configure the looms to weave different pieces of textiles. A loom can only weave a piece of textiles if the piece of textiles is compatible with its loom configuration. To change its configuration, a loom requires a setup. The setups are performed manually by workers. There are also sequence-dependent setups to prepare a loom for the upcoming piece of textiles. We wish to minimize the setups duration and the lateness. A solution must satisfy some constraints. The problem is subject to cumulative resources. The quantity of workers simultaneously configuring machines can’t exceed the total number of employees. A loom can only weave a piece of textiles at a time. Scheduling tasks on a single loom is an NP-Hard problem. In this project, we must schedule tasks an average of 800 tasks on 90 looms with a two-week horizon. Stochastic events might occur and must be accounted for. We must design an algorithm to create robust schedules under uncertainty. As a thread breaking during the weaving process isn’t a rare occurrence, a better schedule could greatly impact the performances of a company when applying the schedule to a real situation. We formulate that the number of breaks per task follows a Poisson distribution. First, we propose a branching heuristic based on the traveling salesperson problem in order to leverage computation times. The solutions found are 5 to 30% better according to their objective function than the ones of a greedy heuristic similar to what our industrial partner uses. We also present a filtering algorithm to guarantee robustness of solutions in respect to a confidence level. This algorithm improves robustness and creates more realist schedules. The algorithm is also efficient in computation time by achieving bound consistency in linear time. Combining both these techniques leads to the integration of our research in the decision system of our industrial partner

    Simulation stochastique des précipitations à fine échelle : application à l'observation en milieu urbain

    Get PDF
    Precipitations are highly variable across a wide range of both spatial and temporal scales. This variability is a major source of uncertainty for the measurement and modeling, also for the simulation and prediction. Moreover, rainfall is an extremely intermittent process with multiple scale invariance regimes. The rain-field generator developed during the thesis is based on the fine-scale statistic modeling of rain by the mean of its heterogeneity and intermittency. The modeling originality partially rest on the analysis of fine-scale disdrometer data. This model differs from other existing models whose resolution is roughly a minute or even an hour or a day. It provides simulations with realistic properties across a wide range ofscales. This simulator produces time series with statistical characteristics almost identical to the observations both at the 15s resolution and, after degradation, at hourly or daily resolutions. The multi-scale properties of our simulator are obtained through a hybrid approach that relies on a fine scale simulation of rain events using a multifractal generator associated with a rain support simulation based on a Poissonian-type hypothesis. A final re-normalization step of the rain rate is added in order to adapt the generator to the relevant climate area. The simulator allows the generation of 2D water-sheets. The methodology developed in the first part is extended to the 2 Dimension case. The multi-scale 2D stochastic simulator thus developed can reproduce geostatistical and topological characteristics at the spatial resolution of 1x1 km2.This generator is used in the scope of the feasability study of a new observation system for urban area. The principle of this system is based on the opportunistic use of attenuation measurements provided by geostationary TV satellites which radio waves lay in the 10.7 to 12.7 GHz bandwidth. More specifically it is assumed that the SAT-TV reception terminals installed in private homes are able to measure such attenuations. At this stage of the study we do not have such observations. The study is therefore based on rainfall maps generated using the 2D generator in addition to a hypothetical sensor network. The considered observation system will allow to estimate precipitation fields (30 x 30 km2) with a spatial resolution of 0.5x0.5 km2.Les prĂ©cipitations ont une trĂšs grande variabilitĂ© sur une large gamme d'Ă©chelles tant spatiale que temporelle. Cette variabilitĂ© est une source importante d'incertitude pour la mesure, les applications et la modĂ©lisation, et au-delĂ  pour la simulation et la prĂ©vision. De plus, les prĂ©cipitations sont des processus extrĂȘmement intermittents et possĂšdent plusieurs rĂ©gimes d’invariance d’échelle. Le gĂ©nĂ©rateur de champ prĂ©cipitant dĂ©veloppĂ© au cours de la thĂšse est basĂ© sur la modĂ©lisation statistique de l’hĂ©tĂ©rogĂ©nĂ©itĂ© et de l’intermittence des prĂ©cipitations Ă  fine Ă©chelle. L’originalitĂ© de la modĂ©lisation repose en partie sur l’analyse de donnĂ©es observĂ©es par un disdromĂštre Ă  trĂšs fine rĂ©solution. Cette modĂ©lisation qui diffĂšre des modĂšles existants dont la rĂ©solution est plutĂŽt de l’ordre de la minute, voire de l’heure ou du jour, permet d’obtenir des simulations dont les propriĂ©tĂ©s sont rĂ©alistes sur une large gamme d’échelle. Ce simulateur permet de produire des sĂ©ries chronologiques dont les caractĂ©ristiques statistiques sont similaires aux observations aussi bien Ă  l’échelle de simulation (15s) qu’aprĂšs dĂ©gradation (1h et 1 jour). Les propriĂ©tĂ©s multi-Ă©chelles du simulateur sont obtenues grĂące Ă  une approche hybride qui repose sur une simulation Ă  fine Ă©chelle des Ă©vĂšnements de pluie par un gĂ©nĂ©rateur multifractal associĂ© Ă  une simulation du support basĂ©e sur une hypothĂšse de type Poissonienne. Une Ă©tape de re-normalisation des taux de pluie assure l’adaptation du gĂ©nĂ©rateur Ă  la zone climatique considĂ©rĂ©e.Le simulateur permet la gĂ©nĂ©ration de cartes 2D de lames d’eau. La mĂ©thodologie dĂ©veloppĂ©e pour les sĂ©ries chronologiques est Ă©tendue au cas 2D. Le simulateur stochastique multi-Ă©chelle 2D ainsi dĂ©veloppĂ© reproduit les caractĂ©ristiques gĂ©ostatistiques et topologiques Ă  la rĂ©solution de 1x1 km2. Ce gĂ©nĂ©rateur est utilisĂ© dans le cadre d’une Ă©tude de faisabilitĂ© d’un nouveau systĂšme d’observation des prĂ©cipitations en milieu urbain. Le principe de ce systĂšme repose sur l’utilisation de mesures opportunistes de l’affaiblissement subit par les ondes radios Ă©mises par les satellites gĂ©ostationnaires TV-SAT dans la bande 10.7-12.7 GHz. De façon plus spĂ©cifique on suppose que les terminaux de rĂ©ception TVSAT installĂ©s en ville chez les particuliers sont capables de mesurer de tels affaiblissements. A ce stade de l’étude nous ne disposons pas de telles observations. L’étude s’appuie donc sur des cartes de prĂ©cipitations issues du gĂ©nĂ©rateur 2D et d’un rĂ©seau de capteur hypothĂ©tique. Le systĂšme d’observation envisagĂ© permettra d’estimer les champs de prĂ©cipitation (30x30 Km2) et avec une rĂ©solution spatiale de 0.5x0.5 Km2

    Gestion de stockage d'Ă©nergie thermique d'un arc de chauffe-eaux par une commande Ă  champ moyen

    Get PDF
    RÉSUMÉ Dans un contexte actuel de transition Ă©nergĂ©tique, le smartgrid et la gestion de la charge Ă©lectrique sont des champs de recherche de plus en plus actifs. Le projet smartDESC dans lequel ce mĂ©moire s’inscrit, s’intĂ©resse plus spĂ©cifiquement au contrĂŽle d’appareils Ă©lectromĂ©nagers chauffant (chauffe-eau, chauffe-espace) permettant de moduler la charge domestique. Ainsi, en utilisant la thĂ©orie des jeux Ă  champ moyen, le projet smartDESC veut convertir les chauffe-eaux (et Ă©ventuellement les chauffe-espace) en des rĂ©servoirs d’énergie intelligents. Pour ce faire, un ensemble de "modules" a Ă©tĂ© dĂ©veloppĂ©. Certains permettent la gĂ©nĂ©ration d’une commande optimale et son interprĂ©tation en champ moyen, d’autres permettent la simulation numĂ©rique d’un chauffe-eau, du processus alĂ©atoire de tirage d’eau ou d’un rĂ©seau de tĂ©lĂ©communications. Durant la maĂźtrise de recherche, tous ces modules ont Ă©tĂ© intĂ©grĂ©s, testĂ©s, interfacĂ©s et rĂ©glĂ©s dans un simulateur commun. Ce simulateur a pour but de rĂ©aliser des simulations de rĂ©seau Ă©lectriques complĂštes allant du fonctionnement individuel de chaque chauffe-eau jusqu’à des considĂ©rations plus gĂ©nĂ©rales tel que la charge globale Ă©lectrique. AprĂšs l’interfaçage de l’ensemble des modules, un ensemble de simulations ont Ă©tĂ© rĂ©alisĂ©es. Ces simulations permettent d’analyser la rĂ©ponse d’un parc de chauffe-eaux connectĂ©s Ă  diffĂ©rents types de contrĂŽle et de situation. Dans un premier temps, les diffĂ©rents modules sont dĂ©crits prĂ©cisĂ©ment d’un point de vue thĂ©orique et pratique. Ensuite, diffĂ©rents types de contrĂŽle sont appliquĂ©s Ă  une population uniforme de maisons Ă©quipĂ©es de chauffe-eaux et de dispositifs de commande. Les rĂ©sultats de chacun de ces contrĂŽles sont analysĂ©s et comparĂ©s afin d’en comprendre les points forts et faibles. Enfin, un Ă©tude est menĂ©e afin d’analyser les capacitĂ©s de rĂ©silience d’un contrĂŽle champ-moyen. Ce rapport tend Ă  montrer la possibilitĂ© d’effectuer un contrĂŽle basĂ© sur l’utilisation de la thĂ©orie des jeux Ă  champ moyen. Ce contrĂŽle offre une bonne rĂ©silience aux imprĂ©vus pouvant perturber le rĂ©seau. Il est aussi dĂ©montrĂ© que l’utilisation d’un contrĂŽle champs-moyen pour absorber les variations dues Ă  la production Ă©olienne est possible. Ainsi, en rĂ©duisant la variabilitĂ© de la charge Ă©lectrique du secteur rĂ©sidentiel, le contrĂŽle en champ moyen participe Ă  accroĂźtre la stabilitĂ© gĂ©nĂ©rale du rĂ©seau.----------ABSTRACT In today’s energy transition, smart grids and electrical load control are very active research fields. This master’s thesis is an offshoot of the SmartDesc project which aims at using energy storage capability of electric household appliances, such as water heaters and electric heaters to mitigate the fluctuations of system loads and renewable generation. The smartDESC project aims at demonstrating that the mean field game theory (MFG), as new mathematical theory, can be used to convert and control water heaters (and possibly space heater) into smart thermal capacities. Thus, a set f "modules" has been developed. These modules are used to generate the optimal control and locally interpret it, to simulate the water-heater thermophysics or water draw event, or to virtualize a telecommunication mesh network. The different aspects of the project have been first studied and developed separately. During the course of this master’s research, the modules have been integrated, tested, interfaced and tuned in a common simulator. This simulator is designed to make complete electrical network simulations with a multi-scale approach (from individual water heater to global electric load and production). Firstly, the modules are precisely described theoretically and practically. Then, different types of control are applied to an uniform population of houses fitted with water heaters and controllers. The results of these controls are analysed and compared in order to understand their strengths and weaknesses. Finally, a study was conducted to analyse the resilience of a mean field control. This report demonstrates that mean field game theory in coordination with a system level aggregate model based optimization program, is able to effectively control a large population of water heaters to smooth the overall electrical load. This control offers good resilience to unforeseen circumstances that can disrupt the network. It is also demonstrated that a mean field control is able to absorb fluctuations due to Wind power production. Thus, by reducing the variability of the residential sector’s electrical charge, the mean field control plays a role in increasing power system stability in the face of high levels of renewable energy penetration. The next stage of smartDESC project is now to set up an intelligent electric water heater prototype. This prototype, in progress since January 2016 at École Polytechnique in Montreal,is aimed at proving concretely the theories developed in the project

    Contribution à la conception d'architecture de calcul auto-adaptative intégrant des nanocomposants neuromorphiques et applications potentielles

    Get PDF
    Dans cette thÚse, nous étudions les applications potentielles des nano-dispositifs mémoires émergents dans les architectures de calcul. Nous montrons que des architectures neuro-inspirées pourraient apporter l'efficacité et l'adaptabilité nécessaires à des applications de traitement et de classification complexes pour la perception visuelle et sonore. Cela, à un cout moindre en termes de consommation énergétique et de surface silicium que les architectures de type Von Neumann, grùce à une utilisation synaptique de ces nano-dispositifs. Ces travaux se focalisent sur les dispositifs dit memristifs , récemment (ré)-introduits avec la découverte du memristor en 2008 et leur utilisation comme synapse dans des réseaux de neurones impulsionnels. Cela concerne la plupart des technologies mémoire émergentes : mémoire à changement de phase Phase-Change Memory (PCM), Conductive-Bridging RAM (CBRAM), mémoire résistive Resistive RAM (RRAM)... Ces dispositifs sont bien adaptés pour l'implémentation d'algorithmes d'apprentissage non supervisés issus des neurosciences, comme Spike-Timing-Dependent Plasticity (STDP), ne nécessitant que peu de circuit de contrÎle. L'intégration de dispositifs memristifs dans des matrices, ou crossbar , pourrait en outre permettre d'atteindre l'énorme densité d'intégration nécessaire pour ce type d'implémentation (plusieurs milliers de synapses par neurone), qui reste hors de portée d'une technologie purement en Complementary Metal Oxide Semiconductor (CMOS). C'est l'une des raisons majeures pour lesquelles les réseaux de neurones basés sur la technologie CMOS n'ont pas eu le succÚs escompté dans les années 1990. A cela s'ajoute la relative complexité et inefficacité de l'algorithme d'apprentissage de rétro-propagation du gradient, et ce malgré tous les aspects prometteurs des architectures neuro-inspirées, tels que l'adaptabilité et la tolérance aux fautes. Dans ces travaux, nous proposons des modÚles synaptiques de dispositifs memristifs et des méthodologies de simulation pour des architectures les exploitant. Des architectures neuro-inspirées de nouvelle génération sont introduites et simulées pour le traitement de données naturelles. Celles-ci tirent profit des caractéristiques synaptiques des nano-dispositifs memristifs, combinées avec les derniÚres avancées dans les neurosciences. Nous proposons enfin des implémentations matérielles adaptées pour plusieurs types de dispositifs. Nous évaluons leur potentiel en termes d'intégration, d'efficacité énergétique et également leur tolérance à la variabilité et aux défauts inhérents à l'échelle nano-métrique de ces dispositifs. Ce dernier point est d'une importance capitale, puisqu'il constitue aujourd'hui encore la principale difficulté pour l'intégration de ces technologies émergentes dans des mémoires numériques.In this thesis, we study the potential applications of emerging memory nano-devices in computing architecture. More precisely, we show that neuro-inspired architectural paradigms could provide the efficiency and adaptability required in some complex image/audio processing and classification applications. This, at a much lower cost in terms of power consumption and silicon area than current Von Neumann-derived architectures, thanks to a synaptic-like usage of these memory nano-devices. This work is focusing on memristive nano-devices, recently (re-)introduced by the discovery of the memristor in 2008 and their use as synapses in spiking neural network. In fact, this includes most of the emerging memory technologies: Phase-Change Memory (PCM), Conductive-Bridging RAM (CBRAM), Resistive RAM (RRAM)... These devices are particularly suitable for the implementation of natural unsupervised learning algorithms like Spike-Timing-Dependent Plasticity (STDP), requiring very little control circuitry.The integration of memristive devices in crossbar array could provide the huge density required by this type of architecture (several thousand synapses per neuron), which is impossible to match with a CMOS-only implementation. This can be seen as one of the main factors that hindered the rise of CMOS-based neural network computing architectures in the nineties, among the relative complexity and inefficiency of the back-propagation learning algorithm, despite all the promising aspects of such neuro-inspired architectures, like adaptability and fault-tolerance. In this work, we propose synaptic models for memristive devices and simulation methodologies for architectural design exploiting them. Novel neuro-inspired architectures are introduced and simulated for natural data processing. They exploit the synaptic characteristics of memristives nano-devices, along with the latest progresses in neurosciences. Finally, we propose hardware implementations for several device types. We assess their scalability and power efficiency potential, and their robustness to variability and faults, which are unavoidable at the nanometric scale of these devices. This last point is of prime importance, as it constitutes today the main difficulty for the integration of these emerging technologies in digital memories.PARIS11-SCD-Bib. électronique (914719901) / SudocSudocFranceF

    Commande d'un robot mobile par instructions sémantiques

    Get PDF
    RÉSUMÉ Lorsqu’une personne Ă©garĂ©e nous demande son chemin, on lui indique gĂ©nĂ©ralement, d’une part, une description gĂ©omĂ©trique approximative du trajet jusqu’à destination et, d’autre part, des Ă©lĂ©ments de l’environnement identifiables pouvant lui servir de repĂšres. Les futures actions de cette personne sont alors l’objet d’un dilemme : progresser lentement et identifier avec certitude tous les repĂšres ? Ou progresser plus rapidement vers la destination au risque de se tromper de chemin ? Le travail rĂ©alisĂ© dans le cadre de cette maĂźtrise a pour objectif de dĂ©velopper un algorithme permettant Ă  un robot mobile de prĂ©senter un comportement similaire Ă  celui d’une telle personne Ă©garĂ©e. Nous dĂ©finissons une version simplifiĂ©e du problĂšme. Comme Ă©lĂ©ments identifiables, nous plaçons dans l’environnement une sĂ©rie d’objets que le robot est capable de dĂ©tecter et d’identifier Ă  l’aide d’une camĂ©ra et d’un algorithme de dĂ©tection. Par analogie Ă  la description gĂ©omĂ©trique du trajet, une sĂ©rie d’instructions donnent approximativement la distance et la direction de chaque objet par rapport au prĂ©cĂ©dent. L’objectif du robot est alors d’atteindre le dernier objet. Nous formulons ce problĂšme simplifiĂ© sous forme d’un processus dĂ©cisionnel de Markov, en nous basant sur des modĂšles stochastiques de l’algorithme de dĂ©tection et des instructions. Nous appliquons finalement la mĂ©thode de Monte Carlo Tree Search Ă  la rĂ©solution de ce problĂšme.----------ABSTRACT When somebody is lost and asking for directions, we usually, on the one hand, provide an approximate geometric description of the itinerary towards his destination and, on the other hand, describe identifiable elements in the environment that can be used as landmarks. Then, on his way, this lost person is facing a dilemma : should he progress slowly and try and identify with certainty all the specified landmarks? Or should he move faster, hence taking the risk of taking a wrong turn? In this master’s thesis, we present an algorithm allowing a mobile robot to behave in a similar fashion to such a lost person. We define a simplified version of this problem. As identifiable elements, a sequence of objects are placed in the environment, which the robot can then detect and identify with the help of a camera and a detection algorithm. The geometric description of the itinerary is given as a sequence of instructions, which specify approximately the distance and direction of each object from the previous one. The goal of the robot is to reach the last object. We formulate this simplified problem as a Markov Decision Process, based on stochastic models of the detection algorithm and instructions. The Monte Carlo Tree Search method is eventually used to solve this problem

    Modélisation et émulation des canaux de propagation des systÚmes MIMO

    Get PDF
    Les systĂšmes de tĂ©lĂ©communication mobile de la prochaine gĂ©nĂ©ration doivent permettre des amĂ©liorations substantielles par rapport aux anciennes gĂ©nĂ©rations et des dĂ©bits plus Ă©levĂ©s devraient ĂȘtre atteints. Pour atteindre ces objectifs, une nouvelle technique de transmission a Ă©tĂ© mise en Ă©vidence. Cette technique consiste en une architecture de transmission Ă  plusieurs antennes Ă  l'Ă©mission et Ă  la rĂ©ception, appelĂ©e MIMO (Multi Input Multi Output). Les travaux de recherche ont montrĂ© que ces systĂšmes sont capables d'atteindre une grande efficacitĂ© spectrale. La conception et la simulation de tels systĂšmes nĂ©cessitent une connaissance approfondie du canal radio. Dans ce mĂ©moire, on s'intĂ©resse Ă  la modĂ©lisation du canal matriciel des systĂšmes MIMO. DiffĂ©rents modĂšles du canal MIMO ont Ă©tĂ© examinĂ©s et deux parmi ces modĂšles ont Ă©tĂ© implĂ©mentĂ©s dans SPW afin de faciliter la simulation et l'Ă©tude de performance des systĂšmes MIMO sans fil. Pour valider l'implĂ©mentation de ces modĂšles, nous avons analysĂ© l'effet de corrĂ©lation sur le taux d'erreur du symbole d'un systĂšme MIMO. Une investigation de la corrĂ©lation et de la capacitĂ© du canal MIMO basĂ©e sur des mesures RF incorporĂ©es a Ă©tĂ© menĂ©e. Nous avons dĂ©montrĂ© qu'une dĂ©composition adĂ©quate de la matrice originale du canal fait apparaĂźtre une matrice mesurable. Les rĂ©sultats des simulations ont dĂ©montrĂ© que la capacitĂ©, calculĂ©e Ă  base de la matrice mesurable, dĂ©pend de la corrĂ©lation. Cette dĂ©pendance est la mĂȘme que celle de la capacitĂ© calculĂ©e Ă  base de la matrice originale avec une diffĂ©rence quasi constante

    Planification de prises pour la manipulation robotisée

    Get PDF
    Cette thĂšse propose une nouvelle approche pour l'analyse des prises. En se basant sur la thĂ©orie de l'axe central du torseur des forces de contact, nous avons dĂ©veloppĂ© une nouvelle condition nĂ©cessaire et suffisante pour qu'une prise soit en fermeture de force (force-closure). Pour le cas des prises planes Ă  n points de contact, nous avons proposĂ© une nouvelle mĂ©thode gĂ©omĂ©trique pour le test de la force-closure. Cet algorithme graphique est basĂ© sur des calculs gĂ©omĂ©triques simples qui permettent de rĂ©duire d'une maniĂšre significative le coĂ»t de calcul par rapport aux schĂ©mas linĂ©aires. En outre, une nouvelle formulation linĂ©aire est proposĂ©e pour le test et la caractĂ©risation d'une prise Ă  n points de contact. Cet algorithme prĂ©sente l'avantage d'ĂȘtre trĂšs simple du point de vue implĂ©mentation et rapide du point de vue temps de calcul. Afin de valider l'approche proposĂ©e, nous l'avons comparĂ©e avec les algorithmes basĂ©s sur le calcul de l'enveloppe convexe des torseurs primitifs de contact. Des implĂ©mentations de cet algorithme sont effectuĂ©es dans le dĂ©monstrateur ``Move3d'' du LAAS ainsi que dans le simulateur ``GraspIt''. Nous abordons ensuite la synthĂšse de prises qui dĂ©finissent une force-closure. En premier lieu, nous avons proposĂ© la formulation du problĂšme de recherche de la configuration des points de contact assurant un maximum de stabilitĂ© de l'objet comme Ă©tant un problĂšme d'optimisation sous contraintes. En second lieu, pour les prises robotisĂ©es, nous avons prĂ©sentĂ© une approche pour la recherche des prises stables d'objets 3D. Le planificateur de prises proposĂ© permet de gĂ©nĂ©rer des prises faisables sans passer par le calcul de la cinĂ©matique inverse de la main mĂ©canique. Cette approche exploite, sans aucune transformation gĂ©omĂ©trique, les modĂšles CAO des objets Ă  saisir pour minimiser le temps de recherche des prises. Ce planificateur de prises utilise un algorithme de rĂ©solution basĂ© sur la technique d'optimisation stochastique du recuit simulĂ©. Cette mĂ©thode nous a permis de synthĂ©tiser des prises de bonne qualitĂ© d'objets complexes mĂȘme dans des environnements encombrĂ©s d'obstacles. Pour illustrer l'efficacitĂ© de la dĂ©marche proposĂ©e, nous avons prĂ©sentĂ© des implĂ©mentations dans l'environnement de simulation ``GraspIt''.This thesis proposes a new approach for grasp analysis. Based on the theory of central axes of grasp wrench, we developed a new necessary and sufficient condition for n-finger grasps to achieve force-closure property. For n-finger planar grasps, we proposed a new graphical method for testing force-closure of arbitrary planar objects. The proposed geometric algorithm is very simple and requires low computational complexity. Thus, it can be used in real-time implementations and reduce significantly the computational cost compared to linear programming schemes. Further, based on friction-cone linearization, we formalized quantitative test of planar and spatial n-fingered force-closure grasps as a new linear programming problem. The proposed quantitative force-closure test offers a good metric of quality measurement without need to compute the convex hull of the primitive contact wrenches, which efficiently reduces the amount of computational time. Implementations were performed on ``Move3D'' and ``GraspIt'' simulation environments. For grasp synthesis, we formulated the computation of fingertips locations problem as an optimization problem under constraints. Furthermore, we presented an approach for finding appropriate stable grasps for a robotic hand on arbitrary objects. We used simulated annealing technique to synthesize suboptimal grasps of 3D objects. Through numerical simulations on arbitrary shaped objects, we showed that the proposed approach is able to compute good grasps for multifingered hands within reasonable computational time. The proposed grasp planner was implemented on ``GraspIt'' simulator

    SystÚme informatique d'aide à la modélisation mathématique basé sur un langage de programmation dédié pour les systÚmes dynamiques discrets stochastiques.Application aux modÚles de croissance de plantes.

    Get PDF
    In agriculture, in order to predict crop yield or to reduce inputs, mathematical models of plant growth open new perspectives by simulating crop growth in interaction with the environment. In this thesis we will particularly focus on ”mechanistic” models based on the description of ecophysiological and archictectural processes in plants.Since the first attempts, in the seventies, the scientific community has created a large number of models with va- rious objectives : for instance, CERES, STICS, APSIM, LNAS as crop models and LIGNUM, ADEL, GreenLab, MAppleT as functional-structural models.These models have to be designed and evaluated with a rigourous process in several steps, according to what is usually described as ”good modelling practices”. The methods involved in the different steps are : sensitivity and uncertainty analysis, parameter estimation, model selection, data assimilation, optimal control ... According to the configuration of the study case, various algorithms can be used at each of these steps. The state-of-the-art software systems generally focus on one aspect of the global workflow, but very few focus on the workflow itself and propose the whole chain of mathematical methodologies adapted to the type of models and configurations faced in plant growth modelling : stochastic and nonlinear dynamical models involving a lot of processes and parameters, heterogeneous and irregular system observations.This thesis considers the formalization of stochastic dynamical models, of statistical methods and algorithms dedicated to their study and of the interface between models and algorithms to generate the analysis workflow. We deduce the conception of a software platform which allows modelers (or more exactly modelling teams, since the activity is quite complex) to create and validate crop/plant models by using a single language and dedicated statistical tools. Our system facilitates model design, sensitivity and uncertainty analysis, parameter estimation and evaluation from experimental data and optimization.Our research is at the heart of ”quantitative agronomy” which combines agronomy, modeling, statistics and computer science. We describe and formalize the type of models faced in agronomy and plant sciences and how we simulate them. We detail the good modelling practices workflow and which algorithms are available at all steps. Thanks to this formalization and tools, model studies can be conducted in an easier and more efficient way. It is illustrated on several test cases, particularly for the LNAS and STICS models. Based on this conception and results, we also discuss the possibility to deduce an ontology and a domain-specific language in order to improve the communication between experts. Finally, we conclude about the perspectives in terms of community platforms, first generally for modellers, and second more specifically in quantitative agronomy.Afin de prévoir les rendements ou réduire la consommation d’intrants nous pouvons, en exploitant les données expérimentales, créer des modèles mathématiques afin de simuler la croissance des cultures en fonction des caractéristiques de l’environnement. Dans cette optique, cette thèse s’intéresse particulièrement aux modèles dits ”mécanistes”.Des premières tentatives, dans les années 70, à nos jours, il y a eu pléthore de nouveaux modèles créés, à différentes échelles, afin d’étudier certains phénomènes dans les cultures ou au sein des plantes. On peut par exemple citer : CERES, STICS, APSIM, LNAS pour les modèles dits de culture ou LIGNUM, ADEL, GreenLab, MAppleT, pour les modèles dits structure-fonction.Ces modèles nécessitent d’être créés et évalués en conduisant une analyse rigoureuse possédant de nombreuses étapes et dont chacune est composée de plusieurs algorithmes complexes. Cette étude devrait s’inscrire dans une démarche dite de bonnes pratiques de modélisation, ”Good Modelling Practices”. On peut citer comme fonctionnalités : l’analyse de sensibilité, l’estimation paramétrique, l’analyse d’incertitude, l’assimilation de données, la sélection de modèles, le contrôle optimal ... En fonction de la configuration du cas, chacune de ces fonctionnalités peut faire appel à un grand nombre d’algorithmes avec chacun des caractéristiques propres. On retrouve dans l’état de l’art des plateformes qui s’occupent souvent d’une fonctionnalité mais très rarement qui s’attaquent à l’ensemble de la chaîne de travail.Cette thèse propose une formalisation des modèles dynamiques stochastiques (cadre adapté à la modélisation des plantes), de méthodes et algorithmes statistiques dédiés à leur étude et de l’interfaçage entre les modèles et les algorithmes dans cette chaîne de travail. Nous en déduisons la conception d’un système informatique (ou plateforme logicielle) permettant d’aider les modélisateurs, ou plutôt les équipes de modélisation tant l’activité est complexe et transverse, afin de créer et valider des modèles agronomiques par le truchement d’un langage dédié et d’outils statistiques associés. Le système facilite ainsi l’écriture des modèles, leur analyse de sensibilité, leur identification paramétrique et leur évaluation à partir de données expérimentales, leur optimisation. Notre domaine d’étude est au coeur de ”l’agronomie quantitative”, qui combine à la fois agronomie, modélisation, statistiques et informatique. Nous décrirons les types de modèles mathématiques pris en compte et comment nous les traduisons sur machine afin de permettre des simulations. Puis nous passerons en revue le flux de travail général ainsi que les algorithmes utilisés afin de montrer la conduite générale des études qui sont désormais plus facilement et rapidement faisables. Ce flux sera testé sur plusieurs cas d’étude, en particulier pour les modèles LNAS et STICS. Finalement, nous ouvrirons sur la possibilité d’injecter ces études dans une base de connaissance générale, ou ontologie, avec un langage dédié avant de conclure sur les perspectives du travail développé pour la communauté et notamment celles en termes de plateformes à destination des modélisateurs en général et des utilisateurs des modèles agronomiques en particulier

    Cadre décisionnel basé sur la simulation et l'optimisation pour résoudre le problÚme générique de la recherche de la meilleure combinaison de scénarios : applications pour la prise de décisions complexes

    Get PDF
    Lorsque le temps est manquant, la simulation-optimisation est une mĂ©thode trĂšs utilisĂ©e pour dĂ©terminer le « meilleur » scĂ©nario possible. En contexte manufacturier, on peut vouloir dĂ©terminer les paramĂštres de production qui vont maximiser la productivitĂ© d'une ligne de production. Le nombre de scĂ©narios possibles (reprĂ©sentant diffĂ©rentes configurations possibles de la ligne) Ă©tant souvent trĂšs grand, tous les scĂ©narios ne peuvent ĂȘtre simulĂ©s. La simulation-optimisation permet de trouver un « bon » scĂ©nario, i.e. le scĂ©nario donnant les meilleurs rĂ©sultats par rapport Ă  des critĂšres dĂ©finis (ici, la productivitĂ©) dans un contexte oĂč le temps ne permet pas de simuler toutes les possibilitĂ©s. Dans le cas oĂč l'on cherche Ă  dĂ©terminer la productivitĂ© combinĂ©e de plusieurs lignes de production, on cherche alors plusieurs scĂ©narios qui, conjointement, vont maximiser ce critĂšre, i.e. la « meilleure combinaison » de scĂ©narios. Or, lorsqu'on recherche le meilleur ensemble de scĂ©narios et non le meilleur scĂ©nario, les mĂ©thodes classiques s'appliquent difficilement. À notre connaissance, le problĂšme de la recherche de la meilleure combinaison de scĂ©narios n'a pas Ă©tĂ© introduit formellement dans la littĂ©rature. Cette thĂšse propose une dĂ©finition formelle de ce problĂšme et un cadre pour le rĂ©soudre. Le cadre proposĂ© utilise la simulation dans le but d'Ă©valuer des scĂ©narios. L'optimisation est ensuite utilisĂ©e pour dĂ©terminer la meilleure combinaison de scĂ©narios. Le nombre de scĂ©narios Ă  simuler est tel qu'il n'est pas possible de tous les Ă©valuer. Nous proposons aussi d'utiliser certaines mĂ©thodes de recherche dans les arbres, issues de la programmation par contraintes pour dĂ©terminer quels scĂ©narios devraient ĂȘtre Ă©valuĂ©s en premier. La pertinence du cadre est dĂ©montrĂ©e par son application Ă  travers plusieurs problĂšmes industriels. La premiĂšre application s'attarde Ă  rĂ©soudre des problĂšmes de planification tactique liĂ©s Ă  l'industrie du bois d'Ɠuvre nord-amĂ©ricaine. Cette derniĂšre fabrique presque exclusivement des produits de commoditĂ© (c'est-Ă -dire des produits aux dimensions et propriĂ©tĂ©s standards destinĂ©s Ă  la construction). Il arrive que certains clients veuillent aussi des produits avec des caractĂ©ristiques spĂ©cifiques. Le contexte manufacturier actuel ne permet pas au scieur de connaĂźtre le panier de produits global qui dĂ©coulera de l'introduction d'un nouveau produit. En effet, du fait de la divergence des flux et de la co-production associĂ©es Ă  la transformation de la matiĂšre premiĂšre en scierie, l'ajout d'un autre produit Ă  fabriquer entraĂźne des rĂ©percussions sur l'ensemble du panier de produits. Nous proposons donc d'utiliser le cadre pour intĂ©grer Ă  la planification tactique la demande pour des produits spĂ©cifiques jamais fabriquĂ©s auparavant. Le cadre utilise un simulateur de dĂ©bitage de billes couplĂ© Ă  un modĂšle de planification pour rĂ©aliser un plan. Ce dernier permet au dĂ©cideur d'Ă©valuer quelles demandes pour des produits sur mesure devraient ĂȘtre acceptĂ©es, quoi produire et quand, ainsi que les paramĂštres de l'Ă©quipement Ă  utiliser et la matiĂšre premiĂšre Ă  acheter/consommer Ă  chaque pĂ©riode. La seconde application du cadre prĂ©sentĂ©e dans cette thĂšse a pour but d'amĂ©liorer les dĂ©cisions prises par un systĂšme de dĂ©coupe de bois de plancher soumis Ă  de fortes contraintes de production. La dĂ©coupe d'un ensemble d'images de planches provenant de productions passĂ©es est simulĂ©e pour diffĂ©rentes configurations du systĂšme. Une base de donnĂ©es caractĂ©risant la production attendue pour chaque configuration est ainsi gĂ©nĂ©rĂ©e. Le simulateur est le systĂšme rĂ©el utilisĂ© « hors-ligne ». À partir des informations obtenues, nous Ă©tablissons ensuite un horaire de production en utilisant un modĂšle d'optimisation linĂ©aire maximisant la valeur attendue de la production. L'horaire permet de dĂ©finir comment configurer le systĂšme de dĂ©coupe tout au long de la production. Le cadre peut aussi ĂȘtre appliquĂ© pour rĂ©soudre d'autres problĂšmes du mĂȘme type comme, par exemple, pour la conception d'usines en rĂ©seau dans une chaĂźne logistique. Enfin, pour illustrer et vĂ©rifier la pertinence de l'utilisation de certaines mĂ©thodes de recherche dans les arbres pour dĂ©terminer l'ordre d'Ă©valuation des scĂ©narios, la dĂ©marche est appliquĂ©e au problĂšme de dĂ©coupe de bois de plancher mentionnĂ© prĂ©alablement. L'Ă©tude rĂ©alisĂ©e montre que les mĂ©thodes issues de la programmation par contraintes pourraient se rĂ©vĂ©ler efficaces pour rĂ©soudre ce type de problĂšmes. En effet, la mĂ©thode Limited Discrepancy Search (LDS) obtient des rĂ©sultats trĂšs semblables Ă  une heuristique spĂ©cialement Ă©laborĂ©e pour le cas Ă©tudiĂ©. Or LDS est une mĂ©thode gĂ©nĂ©rique et pourrait s'appliquer Ă  d'autres cas
    • 

    corecore