253 research outputs found
Analyses statistiques des communications sur puce
This PhD is composed of two main parts. The first one focuses on Internet traffic modelling. From the analysis of many traffic traces, we have proposed a parsimonious model (Gamma-Farima) adapted to aggregated throughput traces and valid for wide range of aggregation levels. In order to produce synthetic traffic from this model, we have also studied the generation of sample path of non-gaussian and long memory stochastic processes. We have then used the Gamma-Farima model in order to build an anomaly detection method. To this end we have introduced a multiresolution model that can differentiate a regular traffic from a malicious one (including a DDoS attack). This method was evaluated both on real traces and simulations. Finally, we have studied the production of long range dependent traffic in a network simulator (NS-2). The second part of this PhD deals with the analysis and synthesis of on-chip traffic, i.e. the traffic occurring in a system on chip. In such systems, the introduction of networks on chip (NOC) has brought the interconnection system on top of the design flow. In order to prototype these NOC rapidly, fast simulations need to be done, and replacing the components by traffic generators is a good way to achieve this purpose. So, we have set up and developed a complete and flexible on-chip traffic generation environment that is able to replay a previously recorded trace, to generate a random load on the network, to produce a stochastic traffic fitted to a reference trace and to take into account traffic phases. Indeed most of the traffic traces we have obtained were non-stationary, we therefore need to split them into reasonably stationary parts in order to perform a meaningful stochastic fit. We have performed many experiments in the SOCLIB simulation environment that demonstrate that i) our traffic generation procedure is correct, ii) our segmentation algorithm provides promising results and iii) multiphase stochastic traffic generation is a good tradeoff between replay and simple random traffic generation. Finally, we have investigated the presence of long memory in the trace as well as the impact of long memory on the NoC performance.Cette thÚse est composée de deux parties. La premiÚre explore la problématique de la modélisation de trafic Internet. Nous avons proposé, à partir de l'étude de nombreuses traces, un modÚle basé sur des processus stochastiques non-gaussiens à longue mémoire (Gamma-Farima) permettant de modéliser de maniÚre pertinente les traces de débit agrégé, et ce pour une large gamme de niveau d'agrégation. Afin de pouvoir générer du trafic synthétique, nous avons proposé une méthode de synthÚse de tels processus. Nous avons ensuite, à partir du modÚle Gamma-Farima, proposé un modÚle multirésolution permettant de différencier un trafic régulier, d'un trafic contenant une attaque (de type déni de service distribuée). Ceci nous a permis de proposer une méthode de détection d'anomalie que nous avons évalué sur des traces réelles et en simulation. Enfin nous avons étudié expérimentalement le problÚme de la production de trafic à longue mémoire dans un simulateur de réseaux (NS-2). La deuxiÚme partie traite la problématique de la génération de trafic au sein des systÚmes sur puce (SOC). Dans ce domaine, l'arrivée de véritable réseaux sur puce place la conception de l'interconnexion au premier plan, et pour accélérer les simulations, il convient de remplacer les composants par des générateurs de trafic. Nous avons mis en place un environnement complet de génération de trafic sur puce permettant de rejouer une trace, de produire une charge aléatoire sur le réseau, de produire un trafic stochastique ajusté sur une trace de référence et de tenir compte des phases dans le trafic. Nous avons effectué de nombreuses simulations dans l'environnement de simulation de SOC académique SOCLIB qui nous ont permis de valider notre approche, d'évaluer notre algorithme de segmentation ainsi que la génération de trafic stochastique multiphase que nous avons introduite. Nous avons aussi exploré la présence de longue mémoire dans le trafic des processeurs sur puce, ainsi que l'impact de cette caractéristique sur les performances du réseau sur puce
Ordonnancement de tùches sous contraintes sur des métiers à tisser
Dans une usine de production de textile, il y a des mĂ©tiers Ă tisser. Ces mĂ©tiers Ă tisser peuvent ĂȘtre configurĂ©s de diffĂ©rentes façons. Des tĂąches doivent ĂȘtre exĂ©cutĂ©es sur ces mĂ©tiers Ă tisser et le temps dâexĂ©cution dâune tĂąche est fonction du mĂ©tier sur lequel elle est effectuĂ©e. De plus, chaque tĂąche est seulement compatible avec les mĂ©tiers Ă tisser Ă©tant configurĂ©s de certaines façons. Un temps de mise en course peut permettre de configurer ou prĂ©parer un mĂ©tier Ă tisser pour lâexĂ©cution dâune tĂąche. Le temps de mise en course est dĂ©pendant de la tĂąche qui prĂ©cĂšde et de celle qui suit. Nous souhaitons alors crĂ©er un horaire pour minimiser les temps de fabrication et les retards. Toutefois, certaines contraintes doivent ĂȘtre respectĂ©es. Lorsque des prĂ©parations surviennent sur des mĂ©tiers diffĂ©rents en mĂȘme temps, le nombre dâemployĂ©s doit ĂȘtre suffisant. Un mĂ©tier ne peut faire quâune seule action Ă la fois. Lâordonnancement dâune seule machine est un problĂšme NP-Difficile. Dans ce projet, il faut ordonnancer environ 800 tĂąches sur 90 machines dans un horizon de deux semaines, tout en respectant les contraintes de personnel. Des Ă©vĂšnements stochastiques doivent ĂȘtre pris en compte pour obtenir un meilleur horaire. Le bris dâun fil nâĂ©tant pas un Ă©vĂšnement rare, lâoccurrence des bris est donnĂ©e sous la forme dâune loi de Poisson. Nous proposons alors une approche de rĂ©solution utilisant une heuristique de branchement basĂ©e sur le problĂšme du commis voyageur. Cette approche permet dâobtenir de bonnes solutions pour le problĂšme dâordonnancement explorĂ©. Les solutions trouvĂ©es sont 5 Ă 30% meilleures en termes de fonction objectif quâune heuristique semblable Ă celle utilisĂ©e par lâĂ©quipe de planification de notre partenaire industriel. Nous prĂ©sentons aussi un algorithme pour garantir la robustesse dâun horaire. Notre algorithme permet de gĂ©nĂ©rer des horaires plus rĂ©alistes et qui rĂ©sistent bien aux Ă©vĂšnements imprĂ©vus. La combinaison de ces deux pratiques mĂšne Ă lâintĂ©gration et lâutilisation du produit final par notre partenaire industriel.In a textile factory, there are looms. Workers can configure the looms to weave different pieces of textiles. A loom can only weave a piece of textiles if the piece of textiles is compatible with its loom configuration. To change its configuration, a loom requires a setup. The setups are performed manually by workers. There are also sequence-dependent setups to prepare a loom for the upcoming piece of textiles. We wish to minimize the setups duration and the lateness. A solution must satisfy some constraints. The problem is subject to cumulative resources. The quantity of workers simultaneously configuring machines canât exceed the total number of employees. A loom can only weave a piece of textiles at a time. Scheduling tasks on a single loom is an NP-Hard problem. In this project, we must schedule tasks an average of 800 tasks on 90 looms with a two-week horizon. Stochastic events might occur and must be accounted for. We must design an algorithm to create robust schedules under uncertainty. As a thread breaking during the weaving process isnât a rare occurrence, a better schedule could greatly impact the performances of a company when applying the schedule to a real situation. We formulate that the number of breaks per task follows a Poisson distribution. First, we propose a branching heuristic based on the traveling salesperson problem in order to leverage computation times. The solutions found are 5 to 30% better according to their objective function than the ones of a greedy heuristic similar to what our industrial partner uses. We also present a filtering algorithm to guarantee robustness of solutions in respect to a confidence level. This algorithm improves robustness and creates more realist schedules. The algorithm is also efficient in computation time by achieving bound consistency in linear time. Combining both these techniques leads to the integration of our research in the decision system of our industrial partner
Simulation stochastique des précipitations à fine échelle : application à l'observation en milieu urbain
Precipitations are highly variable across a wide range of both spatial and temporal scales. This variability is a major source of uncertainty for the measurement and modeling, also for the simulation and prediction. Moreover, rainfall is an extremely intermittent process with multiple scale invariance regimes. The rain-field generator developed during the thesis is based on the fine-scale statistic modeling of rain by the mean of its heterogeneity and intermittency. The modeling originality partially rest on the analysis of fine-scale disdrometer data. This model differs from other existing models whose resolution is roughly a minute or even an hour or a day. It provides simulations with realistic properties across a wide range ofscales. This simulator produces time series with statistical characteristics almost identical to the observations both at the 15s resolution and, after degradation, at hourly or daily resolutions. The multi-scale properties of our simulator are obtained through a hybrid approach that relies on a fine scale simulation of rain events using a multifractal generator associated with a rain support simulation based on a Poissonian-type hypothesis. A final re-normalization step of the rain rate is added in order to adapt the generator to the relevant climate area. The simulator allows the generation of 2D water-sheets. The methodology developed in the first part is extended to the 2 Dimension case. The multi-scale 2D stochastic simulator thus developed can reproduce geostatistical and topological characteristics at the spatial resolution of 1x1 km2.This generator is used in the scope of the feasability study of a new observation system for urban area. The principle of this system is based on the opportunistic use of attenuation measurements provided by geostationary TV satellites which radio waves lay in the 10.7 to 12.7 GHz bandwidth. More specifically it is assumed that the SAT-TV reception terminals installed in private homes are able to measure such attenuations. At this stage of the study we do not have such observations. The study is therefore based on rainfall maps generated using the 2D generator in addition to a hypothetical sensor network. The considered observation system will allow to estimate precipitation fields (30 x 30 km2) with a spatial resolution of 0.5x0.5 km2.Les prĂ©cipitations ont une trĂšs grande variabilitĂ© sur une large gamme d'Ă©chelles tant spatiale que temporelle. Cette variabilitĂ© est une source importante d'incertitude pour la mesure, les applications et la modĂ©lisation, et au-delĂ pour la simulation et la prĂ©vision. De plus, les prĂ©cipitations sont des processus extrĂȘmement intermittents et possĂšdent plusieurs rĂ©gimes dâinvariance dâĂ©chelle. Le gĂ©nĂ©rateur de champ prĂ©cipitant dĂ©veloppĂ© au cours de la thĂšse est basĂ© sur la modĂ©lisation statistique de lâhĂ©tĂ©rogĂ©nĂ©itĂ© et de lâintermittence des prĂ©cipitations Ă fine Ă©chelle. LâoriginalitĂ© de la modĂ©lisation repose en partie sur lâanalyse de donnĂ©es observĂ©es par un disdromĂštre Ă trĂšs fine rĂ©solution. Cette modĂ©lisation qui diffĂšre des modĂšles existants dont la rĂ©solution est plutĂŽt de lâordre de la minute, voire de lâheure ou du jour, permet dâobtenir des simulations dont les propriĂ©tĂ©s sont rĂ©alistes sur une large gamme dâĂ©chelle. Ce simulateur permet de produire des sĂ©ries chronologiques dont les caractĂ©ristiques statistiques sont similaires aux observations aussi bien Ă lâĂ©chelle de simulation (15s) quâaprĂšs dĂ©gradation (1h et 1 jour). Les propriĂ©tĂ©s multi-Ă©chelles du simulateur sont obtenues grĂące Ă une approche hybride qui repose sur une simulation Ă fine Ă©chelle des Ă©vĂšnements de pluie par un gĂ©nĂ©rateur multifractal associĂ© Ă une simulation du support basĂ©e sur une hypothĂšse de type Poissonienne. Une Ă©tape de re-normalisation des taux de pluie assure lâadaptation du gĂ©nĂ©rateur Ă la zone climatique considĂ©rĂ©e.Le simulateur permet la gĂ©nĂ©ration de cartes 2D de lames dâeau. La mĂ©thodologie dĂ©veloppĂ©e pour les sĂ©ries chronologiques est Ă©tendue au cas 2D. Le simulateur stochastique multi-Ă©chelle 2D ainsi dĂ©veloppĂ© reproduit les caractĂ©ristiques gĂ©ostatistiques et topologiques Ă la rĂ©solution de 1x1 km2. Ce gĂ©nĂ©rateur est utilisĂ© dans le cadre dâune Ă©tude de faisabilitĂ© dâun nouveau systĂšme dâobservation des prĂ©cipitations en milieu urbain. Le principe de ce systĂšme repose sur lâutilisation de mesures opportunistes de lâaffaiblissement subit par les ondes radios Ă©mises par les satellites gĂ©ostationnaires TV-SAT dans la bande 10.7-12.7 GHz. De façon plus spĂ©cifique on suppose que les terminaux de rĂ©ception TVSAT installĂ©s en ville chez les particuliers sont capables de mesurer de tels affaiblissements. A ce stade de lâĂ©tude nous ne disposons pas de telles observations. LâĂ©tude sâappuie donc sur des cartes de prĂ©cipitations issues du gĂ©nĂ©rateur 2D et dâun rĂ©seau de capteur hypothĂ©tique. Le systĂšme dâobservation envisagĂ© permettra dâestimer les champs de prĂ©cipitation (30x30 Km2) et avec une rĂ©solution spatiale de 0.5x0.5 Km2
Gestion de stockage d'Ă©nergie thermique d'un arc de chauffe-eaux par une commande Ă champ moyen
RĂSUMĂ Dans un contexte actuel de transition Ă©nergĂ©tique, le smartgrid et la gestion de la charge Ă©lectrique
sont des champs de recherche de plus en plus actifs. Le projet smartDESC dans lequel ce mĂ©moire sâinscrit, sâintĂ©resse plus spĂ©cifiquement au contrĂŽle dâappareils Ă©lectromĂ©nagers chauffant (chauffe-eau, chauffe-espace) permettant de moduler la charge domestique.
Ainsi, en utilisant la thĂ©orie des jeux Ă champ moyen, le projet smartDESC veut convertir les chauffe-eaux (et Ă©ventuellement les chauffe-espace) en des rĂ©servoirs dâĂ©nergie intelligents. Pour ce faire, un ensemble de "modules" a Ă©tĂ© dĂ©veloppĂ©. Certains permettent la gĂ©nĂ©ration dâune commande optimale et son interprĂ©tation en champ moyen, dâautres permettent la simulation numĂ©rique dâun chauffe-eau, du processus alĂ©atoire de tirage dâeau ou dâun rĂ©seau de tĂ©lĂ©communications. Durant la maĂźtrise de recherche, tous ces modules ont Ă©tĂ© intĂ©grĂ©s, testĂ©s, interfacĂ©s et rĂ©glĂ©s dans un simulateur commun. Ce simulateur a pour but de rĂ©aliser des simulations de rĂ©seau
Ă©lectriques complĂštes allant du fonctionnement individuel de chaque chauffe-eau jusquâĂ des considĂ©rations plus gĂ©nĂ©rales tel que la charge globale Ă©lectrique. AprĂšs lâinterfaçage de lâensemble des modules, un ensemble de simulations ont Ă©tĂ© rĂ©alisĂ©es. Ces simulations permettent
dâanalyser la rĂ©ponse dâun parc de chauffe-eaux connectĂ©s Ă diffĂ©rents types de contrĂŽle et de situation.
Dans un premier temps, les diffĂ©rents modules sont dĂ©crits prĂ©cisĂ©ment dâun point de vue thĂ©orique et pratique. Ensuite, diffĂ©rents types de contrĂŽle sont appliquĂ©s Ă une population uniforme de maisons Ă©quipĂ©es de chauffe-eaux et de dispositifs de commande. Les rĂ©sultats de chacun de ces contrĂŽles sont analysĂ©s et comparĂ©s afin dâen comprendre les points forts et faibles. Enfin, un Ă©tude est menĂ©e afin dâanalyser les capacitĂ©s de rĂ©silience dâun contrĂŽle
champ-moyen. Ce rapport tend Ă montrer la possibilitĂ© dâeffectuer un contrĂŽle basĂ© sur lâutilisation de la
thĂ©orie des jeux Ă champ moyen. Ce contrĂŽle offre une bonne rĂ©silience aux imprĂ©vus pouvant perturber le rĂ©seau. Il est aussi dĂ©montrĂ© que lâutilisation dâun contrĂŽle champs-moyen pour absorber les variations dues Ă la production Ă©olienne est possible. Ainsi, en rĂ©duisant la variabilitĂ© de la charge Ă©lectrique du secteur rĂ©sidentiel, le contrĂŽle en champ moyen participe Ă accroĂźtre la stabilitĂ© gĂ©nĂ©rale du rĂ©seau.----------ABSTRACT In todayâs energy transition, smart grids and electrical load control are very active research fields. This masterâs thesis is an offshoot of the SmartDesc project which aims at using energy storage capability of electric household appliances, such as water heaters and electric heaters to mitigate the fluctuations of system loads and renewable generation. The smartDESC project aims at demonstrating that the mean field game theory (MFG), as new mathematical theory, can be used to convert and control water heaters (and possibly space heater) into smart thermal capacities. Thus, a set f "modules" has been developed. These modules are used to generate the optimal control and locally interpret it, to simulate the water-heater thermophysics or water draw event, or to virtualize a telecommunication mesh network. The different aspects of the project have been first studied and developed separately. During the course of this masterâs research, the modules have been integrated, tested, interfaced and tuned in a common simulator. This simulator is designed to make complete electrical network simulations with a multi-scale approach (from individual water heater to global electric load and production).
Firstly, the modules are precisely described theoretically and practically. Then, different types of control are applied to an uniform population of houses fitted with water heaters and controllers. The results of these controls are analysed and compared in order to understand
their strengths and weaknesses. Finally, a study was conducted to analyse the resilience of a mean field control.
This report demonstrates that mean field game theory in coordination with a system level aggregate model based optimization program, is able to effectively control a large population of water heaters to smooth the overall electrical load. This control offers good resilience to
unforeseen circumstances that can disrupt the network.
It is also demonstrated that a mean field control is able to absorb fluctuations due to Wind power production. Thus, by reducing the variability of the residential sectorâs electrical charge, the mean field control plays a role in increasing power system stability in the face of high levels of renewable energy penetration. The next stage of smartDESC project is now to set up an intelligent electric water heater prototype. This prototype, in progress since January 2016 at Ăcole Polytechnique in Montreal,is aimed at proving concretely the theories developed in the project
Contribution à la conception d'architecture de calcul auto-adaptative intégrant des nanocomposants neuromorphiques et applications potentielles
Dans cette thÚse, nous étudions les applications potentielles des nano-dispositifs mémoires émergents dans les architectures de calcul. Nous montrons que des architectures neuro-inspirées pourraient apporter l'efficacité et l'adaptabilité nécessaires à des applications de traitement et de classification complexes pour la perception visuelle et sonore. Cela, à un cout moindre en termes de consommation énergétique et de surface silicium que les architectures de type Von Neumann, grùce à une utilisation synaptique de ces nano-dispositifs. Ces travaux se focalisent sur les dispositifs dit memristifs , récemment (ré)-introduits avec la découverte du memristor en 2008 et leur utilisation comme synapse dans des réseaux de neurones impulsionnels. Cela concerne la plupart des technologies mémoire émergentes : mémoire à changement de phase Phase-Change Memory (PCM), Conductive-Bridging RAM (CBRAM), mémoire résistive Resistive RAM (RRAM)... Ces dispositifs sont bien adaptés pour l'implémentation d'algorithmes d'apprentissage non supervisés issus des neurosciences, comme Spike-Timing-Dependent Plasticity (STDP), ne nécessitant que peu de circuit de contrÎle. L'intégration de dispositifs memristifs dans des matrices, ou crossbar , pourrait en outre permettre d'atteindre l'énorme densité d'intégration nécessaire pour ce type d'implémentation (plusieurs milliers de synapses par neurone), qui reste hors de portée d'une technologie purement en Complementary Metal Oxide Semiconductor (CMOS). C'est l'une des raisons majeures pour lesquelles les réseaux de neurones basés sur la technologie CMOS n'ont pas eu le succÚs escompté dans les années 1990. A cela s'ajoute la relative complexité et inefficacité de l'algorithme d'apprentissage de rétro-propagation du gradient, et ce malgré tous les aspects prometteurs des architectures neuro-inspirées, tels que l'adaptabilité et la tolérance aux fautes. Dans ces travaux, nous proposons des modÚles synaptiques de dispositifs memristifs et des méthodologies de simulation pour des architectures les exploitant. Des architectures neuro-inspirées de nouvelle génération sont introduites et simulées pour le traitement de données naturelles. Celles-ci tirent profit des caractéristiques synaptiques des nano-dispositifs memristifs, combinées avec les derniÚres avancées dans les neurosciences. Nous proposons enfin des implémentations matérielles adaptées pour plusieurs types de dispositifs. Nous évaluons leur potentiel en termes d'intégration, d'efficacité énergétique et également leur tolérance à la variabilité et aux défauts inhérents à l'échelle nano-métrique de ces dispositifs. Ce dernier point est d'une importance capitale, puisqu'il constitue aujourd'hui encore la principale difficulté pour l'intégration de ces technologies émergentes dans des mémoires numériques.In this thesis, we study the potential applications of emerging memory nano-devices in computing architecture. More precisely, we show that neuro-inspired architectural paradigms could provide the efficiency and adaptability required in some complex image/audio processing and classification applications. This, at a much lower cost in terms of power consumption and silicon area than current Von Neumann-derived architectures, thanks to a synaptic-like usage of these memory nano-devices. This work is focusing on memristive nano-devices, recently (re-)introduced by the discovery of the memristor in 2008 and their use as synapses in spiking neural network. In fact, this includes most of the emerging memory technologies: Phase-Change Memory (PCM), Conductive-Bridging RAM (CBRAM), Resistive RAM (RRAM)... These devices are particularly suitable for the implementation of natural unsupervised learning algorithms like Spike-Timing-Dependent Plasticity (STDP), requiring very little control circuitry.The integration of memristive devices in crossbar array could provide the huge density required by this type of architecture (several thousand synapses per neuron), which is impossible to match with a CMOS-only implementation. This can be seen as one of the main factors that hindered the rise of CMOS-based neural network computing architectures in the nineties, among the relative complexity and inefficiency of the back-propagation learning algorithm, despite all the promising aspects of such neuro-inspired architectures, like adaptability and fault-tolerance. In this work, we propose synaptic models for memristive devices and simulation methodologies for architectural design exploiting them. Novel neuro-inspired architectures are introduced and simulated for natural data processing. They exploit the synaptic characteristics of memristives nano-devices, along with the latest progresses in neurosciences. Finally, we propose hardware implementations for several device types. We assess their scalability and power efficiency potential, and their robustness to variability and faults, which are unavoidable at the nanometric scale of these devices. This last point is of prime importance, as it constitutes today the main difficulty for the integration of these emerging technologies in digital memories.PARIS11-SCD-Bib. électronique (914719901) / SudocSudocFranceF
Commande d'un robot mobile par instructions sémantiques
RĂSUMĂ Lorsquâune personne Ă©garĂ©e nous demande son chemin, on lui indique gĂ©nĂ©ralement, dâune
part, une description gĂ©omĂ©trique approximative du trajet jusquâĂ destination et, dâautre
part, des Ă©lĂ©ments de lâenvironnement identifiables pouvant lui servir de repĂšres. Les futures
actions de cette personne sont alors lâobjet dâun dilemme : progresser lentement et identifier
avec certitude tous les repĂšres ? Ou progresser plus rapidement vers la destination au risque
de se tromper de chemin ?
Le travail réalisé dans le cadre de cette maßtrise a pour objectif de développer un algorithme
permettant Ă un robot mobile de prĂ©senter un comportement similaire Ă celui dâune telle
personne égarée. Nous définissons une version simplifiée du problÚme. Comme éléments identifiables,
nous plaçons dans lâenvironnement une sĂ©rie dâobjets que le robot est capable de
dĂ©tecter et dâidentifier Ă lâaide dâune camĂ©ra et dâun algorithme de dĂ©tection. Par analogie
Ă la description gĂ©omĂ©trique du trajet, une sĂ©rie dâinstructions donnent approximativement
la distance et la direction de chaque objet par rapport au prĂ©cĂ©dent. Lâobjectif du robot est
alors dâatteindre le dernier objet.
Nous formulons ce problĂšme simplifiĂ© sous forme dâun processus dĂ©cisionnel de Markov, en
nous basant sur des modĂšles stochastiques de lâalgorithme de dĂ©tection et des instructions.
Nous appliquons finalement la méthode de Monte Carlo Tree Search à la résolution de ce
problĂšme.----------ABSTRACT When somebody is lost and asking for directions, we usually, on the one hand, provide an approximate geometric description of the itinerary towards his destination and, on the other hand, describe identifiable elements in the environment that can be used as landmarks. Then, on his way, this lost person is facing a dilemma : should he progress slowly and try and identify
with certainty all the specified landmarks? Or should he move faster, hence taking the risk of taking a wrong turn?
In this masterâs thesis, we present an algorithm allowing a mobile robot to behave in a similar fashion to such a lost person. We define a simplified version of this problem. As identifiable elements, a sequence of objects are placed in the environment, which the robot can then detect and identify with the help of a camera and a detection algorithm. The geometric description of the itinerary is given as a sequence of instructions, which specify approximately the distance and direction of each object from the previous one. The goal of the robot is to
reach the last object. We formulate this simplified problem as a Markov Decision Process, based on stochastic
models of the detection algorithm and instructions. The Monte Carlo Tree Search method is eventually used to solve this problem
Modélisation et émulation des canaux de propagation des systÚmes MIMO
Les systĂšmes de tĂ©lĂ©communication mobile de la prochaine gĂ©nĂ©ration doivent permettre des amĂ©liorations substantielles par rapport aux anciennes gĂ©nĂ©rations et des dĂ©bits plus Ă©levĂ©s devraient ĂȘtre atteints. Pour atteindre ces objectifs, une nouvelle technique de transmission a Ă©tĂ© mise en Ă©vidence. Cette technique consiste en une architecture de transmission Ă plusieurs antennes Ă l'Ă©mission et Ă la rĂ©ception, appelĂ©e MIMO (Multi Input Multi Output). Les travaux de recherche ont montrĂ© que ces systĂšmes sont capables d'atteindre une grande efficacitĂ© spectrale. La conception et la simulation de tels systĂšmes nĂ©cessitent une connaissance approfondie du canal radio.
Dans ce mémoire, on s'intéresse à la modélisation du canal matriciel des systÚmes MIMO. Différents modÚles du canal MIMO ont été examinés et deux parmi ces modÚles ont été implémentés dans SPW afin de faciliter la simulation et l'étude de performance des systÚmes MIMO sans fil. Pour valider l'implémentation de ces modÚles, nous avons analysé l'effet de corrélation sur le taux d'erreur du symbole d'un systÚme MIMO.
Une investigation de la corrĂ©lation et de la capacitĂ© du canal MIMO basĂ©e sur des mesures RF incorporĂ©es a Ă©tĂ© menĂ©e. Nous avons dĂ©montrĂ© qu'une dĂ©composition adĂ©quate de la matrice originale du canal fait apparaĂźtre une matrice mesurable. Les rĂ©sultats des simulations ont dĂ©montrĂ© que la capacitĂ©, calculĂ©e Ă base de la matrice mesurable, dĂ©pend de la corrĂ©lation. Cette dĂ©pendance est la mĂȘme que celle de la capacitĂ© calculĂ©e Ă base de la matrice originale avec une diffĂ©rence quasi constante
Planification de prises pour la manipulation robotisée
Cette thĂšse propose une nouvelle approche pour l'analyse des prises. En se basant sur la thĂ©orie de l'axe central du torseur des forces de contact, nous avons dĂ©veloppĂ© une nouvelle condition nĂ©cessaire et suffisante pour qu'une prise soit en fermeture de force (force-closure). Pour le cas des prises planes Ă n points de contact, nous avons proposĂ© une nouvelle mĂ©thode gĂ©omĂ©trique pour le test de la force-closure. Cet algorithme graphique est basĂ© sur des calculs gĂ©omĂ©triques simples qui permettent de rĂ©duire d'une maniĂšre significative le coĂ»t de calcul par rapport aux schĂ©mas linĂ©aires. En outre, une nouvelle formulation linĂ©aire est proposĂ©e pour le test et la caractĂ©risation d'une prise Ă n points de contact. Cet algorithme prĂ©sente l'avantage d'ĂȘtre trĂšs simple du point de vue implĂ©mentation et rapide du point de vue temps de calcul. Afin de valider l'approche proposĂ©e, nous l'avons comparĂ©e avec les algorithmes basĂ©s sur le calcul de l'enveloppe convexe des torseurs primitifs de contact. Des implĂ©mentations de cet algorithme sont effectuĂ©es dans le dĂ©monstrateur ``Move3d'' du LAAS ainsi que dans le simulateur ``GraspIt''. Nous abordons ensuite la synthĂšse de prises qui dĂ©finissent une force-closure. En premier lieu, nous avons proposĂ© la formulation du problĂšme de recherche de la configuration des points de contact assurant un maximum de stabilitĂ© de l'objet comme Ă©tant un problĂšme d'optimisation sous contraintes. En second lieu, pour les prises robotisĂ©es, nous avons prĂ©sentĂ© une approche pour la recherche des prises stables d'objets 3D. Le planificateur de prises proposĂ© permet de gĂ©nĂ©rer des prises faisables sans passer par le calcul de la cinĂ©matique inverse de la main mĂ©canique. Cette approche exploite, sans aucune transformation gĂ©omĂ©trique, les modĂšles CAO des objets Ă saisir pour minimiser le temps de recherche des prises. Ce planificateur de prises utilise un algorithme de rĂ©solution basĂ© sur la technique d'optimisation stochastique du recuit simulĂ©. Cette mĂ©thode nous a permis de synthĂ©tiser des prises de bonne qualitĂ© d'objets complexes mĂȘme dans des environnements encombrĂ©s d'obstacles. Pour illustrer l'efficacitĂ© de la dĂ©marche proposĂ©e, nous avons prĂ©sentĂ© des implĂ©mentations dans l'environnement de simulation ``GraspIt''.This thesis proposes a new approach for grasp analysis. Based on the theory of central axes of grasp wrench, we developed a new necessary and sufficient condition for n-finger grasps to achieve force-closure property. For n-finger planar grasps, we proposed a new graphical method for testing force-closure of arbitrary planar objects. The proposed geometric algorithm is very simple and requires low computational complexity. Thus, it can be used in real-time implementations and reduce significantly the computational cost compared to linear programming schemes. Further, based on friction-cone linearization, we formalized quantitative test of planar and spatial n-fingered force-closure grasps as a new linear programming problem. The proposed quantitative force-closure test offers a good metric of quality measurement without need to compute the convex hull of the primitive contact wrenches, which efficiently reduces the amount of computational time. Implementations were performed on ``Move3D'' and ``GraspIt'' simulation environments. For grasp synthesis, we formulated the computation of fingertips locations problem as an optimization problem under constraints. Furthermore, we presented an approach for finding appropriate stable grasps for a robotic hand on arbitrary objects. We used simulated annealing technique to synthesize suboptimal grasps of 3D objects. Through numerical simulations on arbitrary shaped objects, we showed that the proposed approach is able to compute good grasps for multifingered hands within reasonable computational time. The proposed grasp planner was implemented on ``GraspIt'' simulator
SystÚme informatique d'aide à la modélisation mathématique basé sur un langage de programmation dédié pour les systÚmes dynamiques discrets stochastiques.Application aux modÚles de croissance de plantes.
In agriculture, in order to predict crop yield or to reduce inputs, mathematical models of plant growth open new perspectives by simulating crop growth in interaction with the environment. In this thesis we will particularly focus on âmechanisticâ models based on the description of ecophysiological and archictectural processes in plants.Since the first attempts, in the seventies, the scientific community has created a large number of models with va- rious objectives : for instance, CERES, STICS, APSIM, LNAS as crop models and LIGNUM, ADEL, GreenLab, MAppleT as functional-structural models.These models have to be designed and evaluated with a rigourous process in several steps, according to what is usually described as âgood modelling practicesâ. The methods involved in the different steps are : sensitivity and uncertainty analysis, parameter estimation, model selection, data assimilation, optimal control ... According to the configuration of the study case, various algorithms can be used at each of these steps. The state-of-the-art software systems generally focus on one aspect of the global workflow, but very few focus on the workflow itself and propose the whole chain of mathematical methodologies adapted to the type of models and configurations faced in plant growth modelling : stochastic and nonlinear dynamical models involving a lot of processes and parameters, heterogeneous and irregular system observations.This thesis considers the formalization of stochastic dynamical models, of statistical methods and algorithms dedicated to their study and of the interface between models and algorithms to generate the analysis workflow. We deduce the conception of a software platform which allows modelers (or more exactly modelling teams, since the activity is quite complex) to create and validate crop/plant models by using a single language and dedicated statistical tools. Our system facilitates model design, sensitivity and uncertainty analysis, parameter estimation and evaluation from experimental data and optimization.Our research is at the heart of âquantitative agronomyâ which combines agronomy, modeling, statistics and computer science. We describe and formalize the type of models faced in agronomy and plant sciences and how we simulate them. We detail the good modelling practices workflow and which algorithms are available at all steps. Thanks to this formalization and tools, model studies can be conducted in an easier and more efficient way. It is illustrated on several test cases, particularly for the LNAS and STICS models. Based on this conception and results, we also discuss the possibility to deduce an ontology and a domain-specific language in order to improve the communication between experts. Finally, we conclude about the perspectives in terms of community platforms, first generally for modellers, and second more specifically in quantitative agronomy.Afin de preÌvoir les rendements ou reÌduire la consommation dâintrants nous pouvons, en exploitant les donneÌes expeÌrimentales, creÌer des modeÌles matheÌmatiques afin de simuler la croissance des cultures en fonction des caracteÌristiques de lâenvironnement. Dans cette optique, cette theÌse sâinteÌresse particulieÌrement aux modeÌles dits âmeÌcanistesâ.Des premieÌres tentatives, dans les anneÌes 70, aÌ nos jours, il y a eu pleÌthore de nouveaux modeÌles creÌeÌs, aÌ diffeÌrentes eÌchelles, afin dâeÌtudier certains pheÌnomeÌnes dans les cultures ou au sein des plantes. On peut par exemple citer : CERES, STICS, APSIM, LNAS pour les modeÌles dits de culture ou LIGNUM, ADEL, GreenLab, MAppleT, pour les modeÌles dits structure-fonction.Ces modeÌles neÌcessitent dâeÌtre creÌeÌs et eÌvalueÌs en conduisant une analyse rigoureuse posseÌdant de nombreuses eÌtapes et dont chacune est composeÌe de plusieurs algorithmes complexes. Cette eÌtude devrait sâinscrire dans une deÌmarche dite de bonnes pratiques de modeÌlisation, âGood Modelling Practicesâ. On peut citer comme fonctionnaliteÌs : lâanalyse de sensibiliteÌ, lâestimation parameÌtrique, lâanalyse dâincertitude, lâassimilation de donneÌes, la seÌlection de modeÌles, le controÌle optimal ... En fonction de la configuration du cas, chacune de ces fonctionnaliteÌs peut faire appel aÌ un grand nombre dâalgorithmes avec chacun des caracteÌristiques propres. On retrouve dans lâeÌtat de lâart des plateformes qui sâoccupent souvent dâune fonctionnaliteÌ mais treÌs rarement qui sâattaquent aÌ lâensemble de la chaiÌne de travail.Cette theÌse propose une formalisation des modeÌles dynamiques stochastiques (cadre adapteÌ aÌ la modeÌlisation des plantes), de meÌthodes et algorithmes statistiques deÌdieÌs aÌ leur eÌtude et de lâinterfaçage entre les modeÌles et les algorithmes dans cette chaiÌne de travail. Nous en deÌduisons la conception dâun systeÌme informatique (ou plateforme logicielle) permettant dâaider les modeÌlisateurs, ou plutoÌt les eÌquipes de modeÌlisation tant lâactiviteÌ est complexe et transverse, afin de creÌer et valider des modeÌles agronomiques par le truchement dâun langage deÌdieÌ et dâoutils statistiques associeÌs. Le systeÌme facilite ainsi lâeÌcriture des modeÌles, leur analyse de sensibiliteÌ, leur identification parameÌtrique et leur eÌvaluation aÌ partir de donneÌes expeÌrimentales, leur optimisation. Notre domaine dâeÌtude est au coeur de âlâagronomie quantitativeâ, qui combine aÌ la fois agronomie, modeÌlisation, statistiques et informatique. Nous deÌcrirons les types de modeÌles matheÌmatiques pris en compte et comment nous les traduisons sur machine afin de permettre des simulations. Puis nous passerons en revue le flux de travail geÌneÌral ainsi que les algorithmes utiliseÌs afin de montrer la conduite geÌneÌrale des eÌtudes qui sont deÌsormais plus facilement et rapidement faisables. Ce flux sera testeÌ sur plusieurs cas dâeÌtude, en particulier pour les modeÌles LNAS et STICS. Finalement, nous ouvrirons sur la possibiliteÌ dâinjecter ces eÌtudes dans une base de connaissance geÌneÌrale, ou ontologie, avec un langage deÌdieÌ avant de conclure sur les perspectives du travail deÌveloppeÌ pour la communauteÌ et notamment celles en termes de plateformes aÌ destination des modeÌlisateurs en geÌneÌral et des utilisateurs des modeÌles agronomiques en particulier
Cadre décisionnel basé sur la simulation et l'optimisation pour résoudre le problÚme générique de la recherche de la meilleure combinaison de scénarios : applications pour la prise de décisions complexes
Lorsque le temps est manquant, la simulation-optimisation est une mĂ©thode trĂšs utilisĂ©e pour dĂ©terminer le « meilleur » scĂ©nario possible. En contexte manufacturier, on peut vouloir dĂ©terminer les paramĂštres de production qui vont maximiser la productivitĂ© d'une ligne de production. Le nombre de scĂ©narios possibles (reprĂ©sentant diffĂ©rentes configurations possibles de la ligne) Ă©tant souvent trĂšs grand, tous les scĂ©narios ne peuvent ĂȘtre simulĂ©s. La simulation-optimisation permet de trouver un « bon » scĂ©nario, i.e. le scĂ©nario donnant les meilleurs rĂ©sultats par rapport Ă des critĂšres dĂ©finis (ici, la productivitĂ©) dans un contexte oĂč le temps ne permet pas de simuler toutes les possibilitĂ©s. Dans le cas oĂč l'on cherche Ă dĂ©terminer la productivitĂ© combinĂ©e de plusieurs lignes de production, on cherche alors plusieurs scĂ©narios qui, conjointement, vont maximiser ce critĂšre, i.e. la « meilleure combinaison » de scĂ©narios. Or, lorsqu'on recherche le meilleur ensemble de scĂ©narios et non le meilleur scĂ©nario, les mĂ©thodes classiques s'appliquent difficilement. Ă notre connaissance, le problĂšme de la recherche de la meilleure combinaison de scĂ©narios n'a pas Ă©tĂ© introduit formellement dans la littĂ©rature. Cette thĂšse propose une dĂ©finition formelle de ce problĂšme et un cadre pour le rĂ©soudre. Le cadre proposĂ© utilise la simulation dans le but d'Ă©valuer des scĂ©narios. L'optimisation est ensuite utilisĂ©e pour dĂ©terminer la meilleure combinaison de scĂ©narios. Le nombre de scĂ©narios Ă simuler est tel qu'il n'est pas possible de tous les Ă©valuer. Nous proposons aussi d'utiliser certaines mĂ©thodes de recherche dans les arbres, issues de la programmation par contraintes pour dĂ©terminer quels scĂ©narios devraient ĂȘtre Ă©valuĂ©s en premier. La pertinence du cadre est dĂ©montrĂ©e par son application Ă travers plusieurs problĂšmes industriels. La premiĂšre application s'attarde Ă rĂ©soudre des problĂšmes de planification tactique liĂ©s Ă l'industrie du bois d'Ćuvre nord-amĂ©ricaine. Cette derniĂšre fabrique presque exclusivement des produits de commoditĂ© (c'est-Ă -dire des produits aux dimensions et propriĂ©tĂ©s standards destinĂ©s Ă la construction). Il arrive que certains clients veuillent aussi des produits avec des caractĂ©ristiques spĂ©cifiques. Le contexte manufacturier actuel ne permet pas au scieur de connaĂźtre le panier de produits global qui dĂ©coulera de l'introduction d'un nouveau produit. En effet, du fait de la divergence des flux et de la co-production associĂ©es Ă la transformation de la matiĂšre premiĂšre en scierie, l'ajout d'un autre produit Ă fabriquer entraĂźne des rĂ©percussions sur l'ensemble du panier de produits. Nous proposons donc d'utiliser le cadre pour intĂ©grer Ă la planification tactique la demande pour des produits spĂ©cifiques jamais fabriquĂ©s auparavant. Le cadre utilise un simulateur de dĂ©bitage de billes couplĂ© Ă un modĂšle de planification pour rĂ©aliser un plan. Ce dernier permet au dĂ©cideur d'Ă©valuer quelles demandes pour des produits sur mesure devraient ĂȘtre acceptĂ©es, quoi produire et quand, ainsi que les paramĂštres de l'Ă©quipement Ă utiliser et la matiĂšre premiĂšre Ă acheter/consommer Ă chaque pĂ©riode. La seconde application du cadre prĂ©sentĂ©e dans cette thĂšse a pour but d'amĂ©liorer les dĂ©cisions prises par un systĂšme de dĂ©coupe de bois de plancher soumis Ă de fortes contraintes de production. La dĂ©coupe d'un ensemble d'images de planches provenant de productions passĂ©es est simulĂ©e pour diffĂ©rentes configurations du systĂšme. Une base de donnĂ©es caractĂ©risant la production attendue pour chaque configuration est ainsi gĂ©nĂ©rĂ©e. Le simulateur est le systĂšme rĂ©el utilisĂ© « hors-ligne ». Ă partir des informations obtenues, nous Ă©tablissons ensuite un horaire de production en utilisant un modĂšle d'optimisation linĂ©aire maximisant la valeur attendue de la production. L'horaire permet de dĂ©finir comment configurer le systĂšme de dĂ©coupe tout au long de la production. Le cadre peut aussi ĂȘtre appliquĂ© pour rĂ©soudre d'autres problĂšmes du mĂȘme type comme, par exemple, pour la conception d'usines en rĂ©seau dans une chaĂźne logistique. Enfin, pour illustrer et vĂ©rifier la pertinence de l'utilisation de certaines mĂ©thodes de recherche dans les arbres pour dĂ©terminer l'ordre d'Ă©valuation des scĂ©narios, la dĂ©marche est appliquĂ©e au problĂšme de dĂ©coupe de bois de plancher mentionnĂ© prĂ©alablement. L'Ă©tude rĂ©alisĂ©e montre que les mĂ©thodes issues de la programmation par contraintes pourraient se rĂ©vĂ©ler efficaces pour rĂ©soudre ce type de problĂšmes. En effet, la mĂ©thode Limited Discrepancy Search (LDS) obtient des rĂ©sultats trĂšs semblables Ă une heuristique spĂ©cialement Ă©laborĂ©e pour le cas Ă©tudiĂ©. Or LDS est une mĂ©thode gĂ©nĂ©rique et pourrait s'appliquer Ă d'autres cas
- âŠ