49 research outputs found

    Évaluation efficace de fonctions numériques - Outils et exemples

    Get PDF
    With computers, it is possible to evaluate some numerical functions such as f = exp, sin, arccos, etc. The purpose of this thesis is to study how these functions can be implemented. Depending on the target architecture (software or hardware, small or high accuracy required), different problems must be addressed, but the final goal is always to eventually obtain an implementation as efficient as possible. We first study with an example the problems that arise in the case when the precision is arbitrary. When, on the contrary, the precision is known in advance, the function f is often replaced by an approximation polynomial p. Such a polynomial can then be very efficiently evaluated. In practice, the coefficients of p must be representable on a given finite number of bits. We propose several algorithms (some of them are heuristic and others are rigorous) for finding very good approximation polynomials satisfying this constraint. Our results also apply in the case when the approximant is a rational fraction. Once p has been found, one must prove that the error |p-f| is not greater than a given bound. The particular form of the function p-f (subtraction between two very close functions) makes this property hard to rigorously prove. We propose an algorithm for overcoming this difficulty. All these algorithms have been integrated into a software tool called Sollya, developed during the thesis. In the beginning, it was created for making the implementation of functions easier. Now, it may be interesting for anyone who needs to perform numerical computations in a safe environment.Les systèmes informatiques permettent d'évaluer des fonctions numériques telles que f = exp, sin, arccos, etc. Cette thèse s'intéresse au processus d'implémentation de ces fonctions. Suivant la cible visée (logiciel ou matériel, faible ou grande précision), les problèmes qui se posent sont différents, mais l'objectif est toujours d'obtenir l'implémentation la plus efficace possible. Nous étudions d'abord, à travers un exemple, les problèmes qui se posent dans le cas où la précision est arbitraire. Lorsque, à l'inverse, la précision est connue d'avance, la fonction f est souvent remplacée par un polynôme d'approximation p. Un tel polynôme peut ensuite être évalué très efficacement en machine. En pratique, les coefficients de p doivent être représentables sur un nombre fini donné de bits. Nous proposons un ensemble d'algorithmes (certains sont heuristiques, d'autres rigoureux) pour trouver de très bons polynômes d'approximation répondant à cette contrainte. Ces résultats s'étendent au cas où la fonction d'approximation est une fraction rationnelle. Une fois p trouvé, il faut prouver que l'erreur |p-f| n'excède pas un certain seuil. La nature particulière de la fonction p-f (soustraction de deux fonctions très proches) rend cette propriété difficile à prouver rigoureusement. Nous proposons un algorithme capable de contourner cette difficulté. Tous ces algorithmes ont été intégrés au logiciel Sollya, développé pendant la thèse. À l'origine conçu pour faciliter l'implémentation de fonctions, ce logiciel s'adresse à présent à toute personne souhaitant faire des calculs numériques dans un cadre complètement fiable

    Hybridation d’algorithmes évolutionnaires et de méthodes d’intervalles pour l’optimisation de problèmes difficiles

    Get PDF
    Award : Prix math/info de l'académie des sciences de Toulouse 2015Reliable global optimization is dedicated to finding a global minimum in the presence of rounding errors. The only approaches for achieving a numerical proof of optimality in global optimization are interval-based methods that interleave branching of the search-space and pruning of the subdomains that cannot contain an optimal solution. The exhaustive interval branch and bound methods have been widely studied since the 1960s and have benefittedfrom the development of refutation methods and filtering algorithms, stemming from the interval analysis and interval constraint programming communities. It is of the utmost importance: i) to compute sharp enclosures of the objective function and the constraints on a given subdomain; ii) to find a good approximation (an upper bound) of the globalminimum.State-of-the-art solvers are generally integrative methods, that is they embed local optimization algorithms to compute a good upper bound of the global minimum over each subspace. In this document, we propose a cooperativeframework in which interval methods cooperate with evolutionary algorithms. The latter are stochastic algorithms in which a population of individuals (candidate solutions) iteratively evolves in the search-space to reach satisfactory solutions. Evolutionary algorithms, endowed with operators that help individuals escape from local minima, are particularly suited for difficult problems on which traditional methods struggle to converge.Within our cooperative solver Charibde, the evolutionary algorithm and the interval- based algorithm run in parallel and exchange bounds, solutions and search-space via message passing. A strategy combining a geometric exploration heuristic and a domain reduction operator prevents premature convergence toward local minima and prevents theevolutionary algorithm from exploring suboptimal or unfeasible subspaces. A comparison of Charibde with state-of-the-art solvers based on interval analysis (GlobSol, IBBA, Ibex) on a benchmark of difficult problems shows that Charibde converges faster by an order of magnitude. New optimality results are provided for five multimodal problems, for which few solutions were available in the literature. We present an aeronautical application in which conflict solving between aircraft is modeled by an universally quantified constrained optimization problem, and solved by specific interval contractors. Finally, we certify the optimality of the putative solution to the Lennard-Jones cluster problem for five atoms, an open problem in molecular dynamics.L’optimisation globale fiable est dédiée à la recherche d’un minimum global en présence d’erreurs d’arrondis. Les seules approches fournissant une preuve numérique d’optimalité sont des méthodes d’intervalles qui partitionnent l’espace de recherche et éliminent les sous-espaces qui ne peuvent contenir de solution optimale. Ces méthodes exhaustives, appelées branch and bound par intervalles, sont étudiées depuis les années 60 et ont récemment intégré des techniques de réfutation et de contraction, issues des communautés d’analyse par intervalles et de programmation par contraintes. Il est d’une importance cruciale de calculer i)un encadrement précis de la fonction objectif et des contraintes sur un sous-domaine; ii)une bonne approximation (un majorant) du minimum global. Les solveurs de pointe sont généralement des méthodes intégratives : ils invoquent sur chaque sous-domaine des algorithmes d’optimisation locale afin d’obtenir une bonne approximation du minimum global. Dans ce document, nous nous intéressons à un cadre coopératif combinant des méthodes d’intervalles et des algorithmes évolutionnaires. Ces derniers sont des algorithmes stochastiques faisant évoluer une population de solutions candidates (individus) dans l’espace de recherche de manière itérative, dans l’espoir de converger vers des solutions satisfaisantes. Les algorithmes évolutionnaires, dotés de mécanismes permettant de s’échapper des minima locaux, sont particulièrement adaptés à la résolution de problèmes difficiles pour lesquels les méthodes traditionnelles peinent à converger Au sein de notre solveur coopératif Charibde, l’algorithme évolutionnaire et l’algorithme sur intervalles exécutés en parallèle échangent bornes, solutions et espace de recherche par passage de messages. Une stratégie couplant une heuristique d’exploration géométrique et un opérateur de réduction de domaine empêche la convergence prématurée de la populationvers des minima locaux et évite à l’algorithme évolutionnaire d’explorer des sous-espaces sous-optimaux ou non réalisables. Une comparaison de Charibde avec des solveurs de pointe (GlobSol, IBBA, Ibex) sur une base de problèmes difficiles montre un gain de temps d’un ordre de grandeur. De nouveaux résultats optimaux sont fournis pour cinq problèmes multimodaux pour lesquels peu de solutions, même approchées, sont connues dans la littérature. Nous proposons une application aéronautique dans laquelle la résolution de conflits est modélisée par un problème d’optimisation sous contraintes universellement quantifiées, et résolue par des techniques d’intervalles spécifiques. Enfin, nous certifions l’optimalité de la meilleure solution connue pour le cluster de Lennard-Jones à cinq atomes, un problème ouvert en dynamique moléculaire

    Une approche multi-physiques et multi-échelles pour l'amélioration de l'efficacité de la modélisation et de la simulation des disjoncteurs haute-tension

    Get PDF
    RÉSUMÉ La conception des disjoncteurs haute-tension est une tâche complexe et difficile en raison des écoulements internes compressibles supersoniques à haute température et instationnaires, des forts champs électriques, magnétiques et radiatifs. L’arc électrique créé lors de la séparation des contacts électriques en est la cause principale. Il s’apparente à un plasma porté à des températures qui avoisinent les 30 000 K et qui provoque la sublimation des matériaux à sa proximité. Devant la complexité de ces phénomènes et pour pouvoir en tirer des critères de design, les outils de simulations numériques sont indispensables pour répondre aux besoins des ingénieurs. Cependant, la modélisation et la simulation numérique de ces phénomènes multi-physiques, fortement non-linéaires, comportent de nombreux défis de natures multidisciplinaires. En effet, les aspects concernant : la physique, les méthodes numériques, la modélisation géométrique et le calcul haute-performance sont fortement entremêlés. La contrainte du temps de calcul, qui peut s’échelonner sur plusieurs semaines, est un frein supplémentaire majeur lors du développement de l’appareillage de coupure des circuits électriques haute-tension. Par conséquent, l’efficacité de la modélisation et de la simulation des disjoncteurs haute-tension dépend d’une approche multi-physiques et multi-échelles dans la conception des outils scientifiques. Dans un partenariat entre l’École Polytechnique de Montréal et la société Alstom (désormais intégrée à General Electric), vieux de plus de 30 ans, l’outil scientifique MC3 a été développé et enrichi par de nouveaux modèles au fil du temps afin de répondre aux besoins de simulation. En revanche, il était nécessaire de le moderniser : son architecture n’était pas adaptée au contexte multi-physiques, les algorithmes n’étaient pas adaptés aux architectures des matériels informatiques modernes, les performances en temps de calcul n’étaient pas maximisées et les simulations étaient restreintes à des calculs 2D axisymétriques. Dans un but de modernisation de MC3 et d’amélioration de son efficacité du point de vue des performances et de la fidélité des résultats de calcul, quatre axes de recherche ont été poursuivis consécutivement. En premier lieu, une révision des modèles a été proposée pour s’assurer de leur pertinence. Une mise à jour mineure du schéma numérique utilisé pour la résolution de la mécanique des fluides a été effectuée. Les autres modèles étaient à jour vis-à-vis de l’état de l’art. Cela a constitué des fondations stables et solides pour supporter la suite des étapes de modernisation. En second lieu, les performances en vitesse d’exécution avaient besoin d’être améliorées, une analyse approfondie de l’outil de calcul existant a donc été réalisée.----------ABSTRACT High-voltage circuit breaker design is a complex and challenging task, because of several factors including the dynamics of fluid flow (unsteady supersonic compressible internal fluid flow at high temperature) and the the strong coupled electric, magnetic and radiative fields. These phenomena are caused by the electric arc created by the separation of the electrodes. The arc is considered as a plasma at a temperature approaching 30,000 K and creating wall sublimation of the boundary materials. Facing the complexity of these phenomena, numerical simulation tools are indispensable to comply with engineering requirements and to obtain design criteria. However, modelling and numerical simulation of these multiphysics phenomena, which are highly non-linear, constitute multidisciplinary challenges. Indeed, physics, numerical analysis, geometric modelling and high performance computing are strongly interrelated. Calculation times can take several weeks, representing an additional obstacle to the development of high-voltage circuit breakers. Consequently, the efficiency of the modeling and the numerical simulation of high-voltage circuit breakers depends on a multiphysics and multiscale approach while designing scientific tools. As a result of a long term partnership, over 30 years, between Alstom company (now part of General Electric) and Ecole Polytechnique de Montréal, the scientific tool MC3 has been developed and enriched with new models, following the simulation requirements. During the task of modernizing MC3, it was found that the software architecture was not well adapted to the multiphysics context, that the algorithms were not suitable to modern computing hardware architecture, and that performance in terms of the calculation runtime were not maximized. In addition, simulations were limited to 2D axisymmetric cases. The research aims to address those issues to improve its efficiency from performance and result fidelity perspectives, and this has led to four research axes. First, a model review has been conducted to confirm the relevance of each physical model. A minor update for the numerical scheme used to solve fluid dynamics has been performed. The other models were state of the art. That step constituted robust and stable foundations to support the consecutive steps of code modernization. Secondly, performance in terms of the calculation runtime needed to be drastically improved. This has led to an in-depth profiling of the actual tool. Code profiling and numerical analysis have permited to steer modification choices which have been carried out to speedup the simulation for all the physics, independently

    Calcul analytique

    No full text
    Ce document correspond à un cours qui a été donné aux Journées Nationales du Calcul Formel à Luminy en novembre 2011. Pourquoi un cours sur le calcul analytique ? Traditionnellement, on choisit le calcul formel pour la beauté du calcul symbolique ! Or, les techniques du calcul formel admettent de nombreuses applications en analyse, et le calcul numérique peut parfois permettre une résolution plus efficace ou directe de problèmes en calcul formel. Toutefois, quand j'ai commencé à m'intéresser à des problèmes plus analytiques, il me manquait la culture nécessaire en analyse calculable et en arithmétique d'intervalles. Ce cours cherche à exposer les techniques les plus utiles de ces domaines, tout en gardant le lien avec le calcul formel en filigrane

    Spéculation temporelle pour accélérateurs matériels

    Get PDF
    This thesis is focused on the use of timing speculation to improve the performance and energy efficiency of hardware accelerators. Timing speculation is the use of a circuit using a frequency or a voltage at which its operation is no longer guaranteed. It increases the performance of the circuit (computations per second) but also its energy efficiency (computations per joule). As the correct operation of the circuit is no longer guaranteed, it must be accompanied by an error detection mechanism. This mechanism must have the lowest possible additional cost in terms of resources used, energy and impact on performance. These overheads must indeed be low enough to make the approach worthwhile, but also be as low as possible to maximize the gain obtained. We present a new algorithm-level error detection mechanism for convolutions used in convolutional neural networks that meets these conditions. We show that combining this mechanism with timing speculation can improve the performance and energy efficiency of a convolution hardware accelerator.Résumé : Cette thèse porte sur l’utilisation de la spéculation temporelle pour améliorer les performances et l’efficacité énergétique d’accélérateurs matériels. La spéculation temporelle consiste en l’utilisation d’un circuit en utilisant une fréquence ou une tension à laquelle son fonctionnement n’est plus garanti. Elle permet d’augmenter les performances du circuit (calculs par seconde) mais aussi son efficacité énergétique (calculs par joule). Comme le fonctionnement du circuit n’est plus garanti, elle doit être accompagnée d’un mécanisme de détection d’erreur. Celui-ci doit avoir un coût en ressources utilisées, en énergie et un impact sur les performances les plus faibles possibles. Ces surcoûts doivent effectivement être suffisamment faibles pour que l’approche vaille le coup, mais aussi être le plus bas possible pour maximiser les gains obtenus. Nous présentons un nouveau mécanisme de détection d’erreur au niveau algorithmique pour les convolutions utilisées dans les réseaux de neurones convolutifs qui remplit ces conditions. Nous montrons que la combinaison de ce mécanisme avec la spéculation temporelle permet d’améliorer les performances et l’efficacité énergétique d’un accélérateur matériel de convolution

    Réalisation et validation en VHDL d'un récepteur de station de base à modulation en étalement de spectre

    Get PDF
    Les communications en étalement spectral sont utilisées à grand déploiement depuis l'adoption du standard cellulaire civil IS-95A en Amérique du nord. Pour augmenter la capacité des réseaux sans fil et permettre la diffusion de contenu numérique multimédia, le standard 3GPP a été développé. Il spécifie une bande passante supérieure, ce qui entraîne des débits de données plus élevés. Ce type de transmission impose cependant des contraintes sur le récepteur RAKE classique et exige sa révision pour diminuer les dégradations inter-symboles, inter-usagers et multi-trajets

    Égalisation adaptative et non invasive de la réponse temps-fréquence d'une petite salle

    Get PDF
    RÉSUMÉ Dans le cadre de cette recherche, on s’intéresse au son, à l’environnement dans lequel il se propage, à l’interaction entre l’onde de son et son canal de transmission ainsi qu’aux transformations induites par les composantes d’une chaine audio. Le contexte précis étudié est celui de l’écoute musicale sur haut-parleurs.Pour le milieu dans lequel l’onde se propage, comme pour tout canal de transmission, il existe des fonctions mathématiques permettant de caractériser les transformations induites par le canal sur un signal qui le traverse. Un signal électrique sert de signal d’excitation pour ce canal constitué en l’occurrence d’un amplificateur, d’un haut-parleur et de la salle dans laquelle a lieu l’écoute, qui selon ses caractéristiques, retourne en sortie à la position d’écoute une onde de son altérée. Réponse en fréquence, réponse à l’impulsion, fonction de transfert ; les mathématiques utilisées ne diffèrent en rien de celles servant communément à la caractérisation d’un canal de transmission ou à l’expression des fonctions liant les sorties d’un système linéaire à ses entrées. Naturellement, il y a un but à cet exercice de modélisation : l’obtention de la réponse de la chaine amplificateur/salle/haut-parleur rend possible sa correction. Il est commun dans bien des contextes d’écoute, qu’un filtre soit inséré dans la chaine audio entre la source (exemple : lecteur CD) et le haut-parleur qui transforme le signal électrique en signal acoustique propagé dans la salle. Ce filtre, dit « égalisateur », a pour but de compenser en fréquences l’effet des composantes de la chaine audio et de la salle sur le signal sonore y étant transmis. Ses propriétés découlent de celles de l’amplificateur, du haut-parleur et de la salle. Bien qu’analytiquement rigoureuse, l’approche physique, centrée sur la modélisation physique du haut-parleur et sur l’équation de propagation de l’onde acoustique, est mal adaptée aux salles à géométrie complexe ou changeante au fil du temps. La seconde approche, la modélisation expérimentale, abordée dans ce travail, fait abstraction des propriétés physiques. La chaine amplificateur/haut-parleur/salle y est plutôt vue comme une « boite noire » comprenant entrées et sorties. Le problème étudié est celui de la caractérisation d’un système électro-acoustique ayant comme unique entrée un signal émis à travers un haut-parleur dans une salle, et comme unique sortie le signal capté par un microphone placé à la position d’écoute. L’originalité de ce travail réside non seulement dans la technique développée pour en arriver à cette caractérisation, mais surtout dans les contraintes imposées dans la manière d’y arriver. La majorité des techniques documentées à ce jour font appel à des signaux d’excitation dédiés à la mesure ; des signaux dotés de caractéristiques favorables à la simplification du calcul de réponse impulsionnelle qui en découle. Des signaux connus sont émis à travers un haut-parleur et la réponse à leur excitation est captée à l’aide d’un microphone à la position d’écoute. L’exercice de mesure lui-même pose problème, notamment, lorsqu’un auditoire est présent dans la salle. Aussi, la réponse de la salle peut changer entre le moment de la prise de mesure et l’écoute si la salle est reconfigurée, par exemple un rideau est tiré ou une estrade déplacée. Dans le cas d’une salle de spectacle, le haut-parleur utilisé peut varier selon le contexte. Un recensement des travaux dans lesquels des solutions à ce problème sont suggérées fut effectué. Le principal objectif est de développer une méthode innovatrice permettant de capturer la réponse impulsionnelle de la chaine audio à l’insu de l’auditoire. Pour ce faire, aucun signal dédié à la mesure ne doit être utilisé. La méthode développée permet la capture de la réponse impulsionnelle électro-acoustique en n’exploitant que les signaux musicaux. Le résultat est, un algorithme permettant la modélisation dynamique et en continu de la réponse d’une salle. Un filtre égalisateur numérique à réponse impulsionnelle finie doit être conçu, lui aussi capable de s’adapter dynamiquement au comportement de la salle, même lorsque celui-ci varie au fil du temps. La familiarisation avec des concepts plus avancés de programmation C++ orienté objet étant de mise, une technique permettant d’exploiter des signaux musicaux afin d’obtenir la réponse impulsionnelle et la réponse en fréquence du système fut testée expérimentalement sous forme d’un module VST. L’excitation est procurée par les signaux musicaux émis sur haut-parleurs durant l’écoute. Une moyenne mobile pondérée reconstruit statistiquement, au fil du temps, la réponse de la salle sur toute la plage de fréquences audibles. Dans le but d’en quantifier la performance, la réponse en fréquence obtenue est comparée à celle obtenue par une méthode standard servant de référence. L’erreur quadratique moyenne sert de métrique d’erreur et montre que plus la musique défile, plus la réponse en fréquence obtenue s’apparente à la référence pour un même point d’écoute. Une approche à résolution spectrale variable est utilisée pour construire, par bandes de fréquences, la réponse du filtre découlant de celle de la chaine audio. La réponse en fréquence du système corrigée par le filtre égalisateur est plus plane que celle du système initial. Des techniques explorées dans le cadre de ce travail de recherche ont mené à la publication d’un article scientifique dans une revue à comité de lecture et un article de conférence dans lesquels des méthodes similaires furent exploitées en génie des mines.----------ABSTRACT In this research, we are interested in sound, environment wherein it propagates, the interaction between the sound wave and a transmission channel, and the changes induced by the components of an audio chain. The specific context studied is that of listening to music on loudspeakers. For the environment in which sound wave propagates, like for any transmission channel, there are mathematical functions used to characterize the changes induced by a channel on the signal therethrough. An electric signal serves as a input for a system, in this case consisting of an amplifier, a loudspeaker, and the room where the listening takes place, which according to its characteristics, returns as an output at the listening position, an altered sound wave. Frequency response, impulse response, transfer function, the mathematics used are no different from those used commonly for the characterization of a transmission channel or the expression of the outputs of a linear system to its inputs. Naturally, there is a purpose to this modeling exercise: getting the frequency response of the amplifier/loundspeaker/room chain makes possible its equalization. It is common in many contexts of listening to find a filter inserted into the audio chain between the source (Eg CD player) and the amplifier/loudspeaker that converts the electrical signal to an acoustic signal propagated in the room. This filter, called “equalizer” is intended to compensate the frequency effect of the components of the audio chain and the room on the sound signal that will be transmitted. Properties for designing this filter are derived from those of the audio chain. Although analytically rigorous, physical approach, focusing on physical modeling of the loudspeaker and the propagation equation of the acoustic wave is ill-suited to rooms with complex geometry and changing over time. The second approach, experimental modeling, and therefore that addressed in this work, ignores physical properties. The system audio chain is rather seen as a “black box” including inputs and outputs. The problem studied is the characterization of an electro-acoustic system as having a single input signal transmitted through a speaker in a room, and a single output signal picked up by a microphone at the listening position. The originality of this work lies not only in the technique developed to arrive at this characterization, but especially in the constraints imposed in order to get there. The majority of technics documented to this date involve using excitation signals dedicated the measure; signals with favorable characteristics to simplify the calculation of the impulse response of the audio chain. Known signals are played through a loudspeaker and the room’s response to excitation is captured with a microphone at the listening position. The measurement exercise itself poses problem, especially when there is an audience in the room. Also, the response of the room may change between the time of the measurement and time of listening. If the room is reconfigured for example, a curtain is pulled or the stage moved. In the case of a theater, the speaker used may vary depending on the context. A survey of work in which solutions to this problem are suggested was made. The main objective is to develop an innovative method to capture the impulse response of an audio chain without the knowledge of the audience. To do this, no signal dedicated to the measurement should be used. The developed method allows the capture of the electro-acoustic impulse response exploiting only the music signals when it comes to a concert hall or using a movie sound track when a movie is a movie theater. As a result, an algorithm for modeling dynamicly and continuously the response of a room. A finite impulse response filter acting as a digital equalizer must be designed and also able to dynamically adapt the behavior of the room, even when it varies over time. Familiarization with more advanced programming concepts of object-oriented C++ being put, a technique to exploit music signals to obtain the impulse response and frequency response of the audio chain was implemented as a VST module and tested experimentally. The excitation is provided by music signals played through speakers. Using a weighted moving average reconstructed statistically over time, the response of the room on the entire audible frequency range is obtained. In order to quantify the performance the frequency response obtained is compared with that obtained by using a standard reference method. The mean square error is used as an error metric and shows that more music scrolls, more the frequency response obtained is similar to the reference one for the same listening position. A multi spectral resolution method is used to build, for diffrent frequency bands, the filter response arising from the inversion of the room/speaker frequency response. The resulting dynamically adapting filter has properties similar to those of the human ear, a significant spectral-resolution in lower frequencies, and high time-resolution at high frequencies. The response corrected by the filter system tends approaching to a pure pulse. Techniques explored in the context of this research led to the publication of a scientific article in a peer reviewed journal and one conference paper in which similar methods were used for mining engineering applications

    Développement d'algorithmes pour la fonction NCTR - Application des calculs parallèles sur les processeurs GPU.

    Get PDF
    Le thème principal de cette thèse est l'étude d'algorithmes de reconnaissance de cibles non coopératives (NCTR). Il s'agit de faire de la reconnaissance au sein de la classe "chasseur" en utilisant le profil distance. Nous proposons l'étude de quatre algorithmes : un basé sur l'algorithme des KPPV, un sur les méthodes probabilistes et deux sur la logique floue. Une contrainte majeure des algorithmes NCTR est le contrôle du taux d'erreur tout en maximisant le taux de succès. Nous avons pu montrer que les deux premiers algorithmes ne permettait pas de respecter cette contrainte. Nous avons en revanche proposé deux algorithmes basés sur la logique floue qui permettent de respecter cette contrainte. Ceci se fait au détriment du taux de succès (notamment sur les données réelles) pour le premier des deux algorithmes. Cependant la deuxième version de l'algorithme a permis d'augmenter considérablement le taux de succès tout en gardant le contrôle du taux d'erreur. Le principe de cet algorithme est de caractériser, case distance par case distance, l'appartenance à une classe en introduisant notamment des données acquises en chambre sourde. Nous avons également proposé une procédure permettant d'adapter les données acquises en chambre sourde pour une classe donnée à d'autres classes de cibles. La deuxième contrainte forte des algorithmes NCTR est la contrainte du temps réel. Une étude poussée d'une parallélisation de l'algorithme basé sur les KPPV a été réalisée en début de thèse. Cette étude a permis de faire ressortir les points à prendre en compte lors d'une parallélisation sur GPU d'algorithmes NCTR. Les conclusions tirées de cette étude permettront par la suite de paralléliser de manière efficace sur GPU les futurs algorithmes NCTR et notamment ceux proposés dans le cadre de cette thèse.The main subject of this thesis is the study of algorithms for non-cooperative targets recognition (NCTR). The purpose is to make recognition within "fighter" class using range profile. The study of four algorithms is proposed : one based on the KNN algorithm, one on probabilistic methods and two on fuzzy logic. A major constraint of NCTR algorithms is to control the error rate while maximizing the success rate. We have shown that the two first algorithms are not sufficient to fulfill this requirement. On the other hand, two algorithms based on fuzzy logic have been proposed and meet this requirement. Compliance with this condition is made at the expense of success rate (in particular on real data) for the first of the two algorithms based on fuzzy-logic. However, a second version of the algorithm has greatly increased the success rate while keeping control of the error rate. The principle of this algorithm is to make classification range bin by range bin, with the introduction of data acquired in an anechoic chamber. We also proposed a procedure for adapting the data acquired in an anechoic chamber for a class to another class of targets. The second major constraint algorithms NCTR is the real time constraint. An advanced study of a parallelization on GPU of the algorithm based on KNN was conducted at the beginning of the thesis. This study has helped to identify key points of a parallelization on GPU of NCTR algorithms. Findings from this study will be used to parallelize efficiently on GPU future NCTR algorithms, including those proposed in the thesis.PARIS11-SCD-Bib. électronique (914719901) / SudocSudocFranceF

    Etude de faisabilité d'un émetteur radio fréquence à conversion directe pour le standard WCDMA avec boucle cartésienne de linéarisation en technologie CMOS 65 nm

    Get PDF
    L’objectif de cette thèse est d’évaluer une architecture d’émetteur RF mobile WCDMA à boucle cartésienne de linéarisation. Combinant les efforts d’étude du système et de conception de circuits en CMOS 65 nm, il s’agit de déterminer si l’architecture choisie permet de réduire la surface et la consommation, conformément aux attentes de l’industrie, tout en respectant les contraintes de performances imposées par le standard WCDMA. Les travaux ainsi menés permettent d’identifier les points critiques pour la réalisation d’une boucle cartésienne sur silicium et propose un mode de réalisation. Une estimation de la surface et de la consommation des circuits de l’émetteur à boucle cartésienne montre que cette solution est très avantageuse comparée à l’état l’art des émetteurs WCDMA.The purpose of this thesis is to evaluate a cartesian feedback linearization system for a WCDMA RF transmitter handset IC. Combining system study and circuit design in CMOS 65 nm, we have to determine if the selected architecture, fitting WCDMA requirements, leads to silicon area and power consumption reduction as expected for an industrial application. Work thus undertaken allows to identify the points which make difficult cartesian feedback integration on silicon and brings a circuit design solution. An area and power consumption estimation of the cartesian feedback transmitter shows this solution as very advantageous compared with WCDMA transmitter state of the Art
    corecore