924 research outputs found

    Measurement of the transfered impendance of the shield cable by the impulse current method using a Fourier processor

    Get PDF
    This paper is an application of the Fast Fourier Transform for the measurement of the transfer impedance of the shielded cables at the frequencies above 100 MHz . In the first part we present an overview of the principle of the measurement of the transfer impedance . We describe the signal processing method used in this special case . The second part of the paper is related to the Fourier processor designed to compute the Fourier tansform in few seconds and for 2,048 signal samples . We give the main steps of the algorithm and the simplifications which have been used in the numerical code .Mesure de l'impédance de transfert de câbles blindés aux fréquences supérieures à 100 MH

    La transformation de Laplace élémentaire dans les formations mathématiques pour l’ingénieur et le technicien. Du calcul intégral à « l’algébrisation » des équations différentielles et la production de tables

    Get PDF
    La transformation de Laplace est un outil d’analyse utilisé dans les métiers de l’ingénierie. Ce travail porte sur une première étude d’un corpus de textes — ouvrages d’enseignement et articles issus de revues techniques — produits par des acteurs, dont des anciens professionnels et des enseignants, pour des formations et enseignements techniques. Les applications mises en avant donnent des indices d’adaptation voire d’appropriation des savoirs pour certaines professions comme la production de tables originales et beaucoup plus complètes que celles très synthétiques des textes strictement mathématiques.The Laplace transform is an analysis tool widely used in the engineering professions. This work focuses on a first study of a corpus of texts - teaching books and articles from technical journals - produced by actors, including former professionals and teachers, for technical training and education. The applications put forward give indications of adaptation and even appropriation of knowledge for certain professions, such as the production of original tables that are much more complete than the very synthetic ones in strictly mathematical texts

    Introduction to second kind statistics: application of Log-moments and Log-cumulants to SAR image law analysis

    Get PDF
    Statistics methods classicaly used to analyse a probability density function (p.d.f.) are based on Fourier Transform, on which usefull tools as first and second characteristic functions are based, yielding the definitions of moments and cumulants. Yet this transform does not well match with p.d.f. defined on R+ as analytical expressions can be rather heavy in this case. In this article, we propose to start with a rather misknown transform: the Mellin transform, in order to define second kind statistics. By this way, second kind characteristic functions, second kind moments (log-moments) and second kind cumulants (log-cumulants) can be defined by mimicing the traditional definitions. For classical p.d.f. defined on R+, as Gamma and Nakagami laws, this approach seems to be simpler than previous one. More, for complicated p.d.f., as the famous K law or positive α-stable distributions, second kind statistics yield oversimple results. This new approach provides new methods for estimating the parameters of p.d.f. defined on R+. Comparisons can be done with traditional methods as Maximum Likehood Method and Moment Method: the variance of the new methods estimators are lower than Moment Method ones, and slightly upper than Cramer Rao bounds.Les méthodes utilisées en statistique pour étudier une distribution de probabilité (d.d.p.) sont fondées sur la transformée de Fourier, approche qui permet d'établir les définitions des fonctions caractéristiques, des moments et des cumulants. Cependant, cette transformation est mal adaptée à des d.d.p. définies sur R+ car les expressions analytiques des fonctions caractéristiques peuvent alors devenir très lourdes, voire impossibles à formuler. Cet article propose de substituer à la transformée de Fourier la transformée de Mellin. Il est alors possible, en s'inspirant des précédentes définitions, d'introduire les statistiques de deuxième espèce : fonctions caractéristiques de deuxième espèce, moments de deuxième espèce (ou log-moments) et cumulants de deuxième espèce (ou log-cumulants). Appliquée à des lois classiques comme la loi Gamma ou la loi de Nakagami, cette approche donne des résultats plus faciles à utiliser que l'approche classique. De plus, pour des lois plus compliquées, comme la loi K ou les distributions α-stables positives, les statistiques de deuxième espèce donnent des expressions vraiment très simples et aisées à exploiter. Cette nouvelle approche propose donc des méthodes innovantes pour estimer les paramètres de lois définies sur R+. Il est possible de comparer les estimateurs ainsi obtenus avec ceux de la méthode des moments ou celui du maximum de vraisemblance: on peut ainsi montrer que ces nouvelles méthodes ont des variances d'estimées inférieures à la première et légèrement supérieures aux bornes de Cramer Rao

    Etude de champs de température séparables avec une double décomposition en valeurs singulières (quelques applications à la caractérisation des propriétés thermophysiques des matérieux et au contrôle non destructif)

    Get PDF
    La thermographie infrarouge est une méthode largement employée pour la caractérisation des propriétés thermophysiques des matériaux. L avènement des diodes laser pratiques, peu onéreuses et aux multiples caractéristiques, étendent les possibilités métrologiques des caméras infrarouges et mettent à disposition un ensemble de nouveaux outils puissants pour la caractérisation thermique et le contrôle non desturctif. Cependant, un lot de nouvelles difficultés doit être surmonté, comme le traitement d une grande quantité de données bruitées et la faible sensibilité de ces données aux paramètres recherchés. Cela oblige de revisiter les méthodes de traitement du signal existantes, d adopter de nouveaux outils mathématiques sophistiqués pour la compression de données et le traitement d informations pertinentes. Les nouvelles stratégies consistent à utiliser des transformations orthogonales du signal comme outils de compression préalable de données, de réduction et maîtrise du bruit de mesure. L analyse de sensibilité, basée sur l étude locale des corrélations entre les dérivées partielles du signal expérimental, complète ces nouvelles approches. L'analogie avec la théorie dans l'espace de Fourier a permis d'apporter de nouveaux éléments de réponse pour mieux cerner la physique des approches modales.La réponse au point source impulsionnel a été revisitée de manière numérique et expérimentale. En utilisant la séparabilité des champs de température nous avons proposé une nouvelle méthode d'inversion basée sur une double décomposition en valeurs singulières du signal expérimental. Cette méthode par rapport aux précédentes, permet de tenir compte de la diffusion bi ou tridimensionnelle et offre ainsi une meilleure exploitation du contenu spatial des images infrarouges. Des exemples numériques et expérimentaux nous ont permis de valider dans une première approche cette nouvelle méthode d'estimation pour la caractérisation de diffusivités thermiques longitudinales. Des applications dans le domaine du contrôle non destructif des matériaux sont également proposées. Une ancienne problématique qui consiste à retrouver les champs de température initiaux à partir de données bruitées a été abordée sous un nouveau jour. La nécessité de connaitre les diffusivités thermiques du matériau orthotrope et la prise en compte des transferts souvent tridimensionnels sont complexes à gérer. L'application de la double décomposition en valeurs singulières a permis d'obtenir des résultats intéressants compte tenu de la simplicité de la méthode. En effet, les méthodes modales sont basées sur des approches statistiques de traitement d'une grande quantité de données, censément plus robustes quant au bruit de mesure, comme cela a pu être observé.Infrared thermography is a widely used method for characterization of thermophysical properties of materials. The advent of the laser diodes, which are handy, inexpensive, with a broad spectrum of characteristics, extend metrological possibilities of infrared cameras and provide a combination of new powerful tools for thermal characterization and non destructive evaluation. However, this new dynamic has also brought numerous difficulties that must be overcome, such as high volume noisy data processing and low sensitivity to estimated parameters of such data. This requires revisiting the existing methods of signal processing, adopting new sophisticated mathematical tools for data compression and processing of relevant information.New strategies consist in using orthogonal transforms of the signal as a prior data compression tools, which allow noise reduction and control over it. Correlation analysis, based on the local cerrelation study between partial derivatives of the experimental signal, completes these new strategies. A theoretical analogy in Fourier space has been performed in order to better understand the physical meaning of modal approaches.The response to the instantaneous point source of heat, has been revisited both numerically and experimentally. By using separable temperature fields, a new inversion technique based on a double singular value decomposition of experimental signal has been introduced. In comparison with previous methods, it takes into account two or three-dimensional heat diffusion and therefore offers a better exploitation of the spatial content of infrared images. Numerical and experimental examples have allowed us to validate in the first approach our new estimation method of longitudinal thermal diffusivities. Non destructive testing applications based on the new technique have also been introduced.An old issue, which consists in determining the initial temperature field from noisy data, has been approached in a new light. The necessity to know the thermal diffusivities of an orthotropic medium and the need to take into account often three-dimensional heat transfer, are complicated issues. The implementation of the double singular value decomposition allowed us to achieve interesting results according to its ease of use. Indeed, modal approaches are statistical methods based on high volume data processing, supposedly robust as to the measurement noise.BORDEAUX1-Bib.electronique (335229901) / SudocSudocFranceF

    Homogénéisation en viscoélasticité linéaire non-vieillissante par la méthode de l'inclusion équivalente : application aux matériaux cimentaires

    Get PDF
    The prediction of long-term behaviour of cementitious materials is a major concern which contributs to the study of the durability of prestressed structures. This work focuses on the use of the equivalent inclusion method, simplified multi-scale homogenization approach, for the prediction of creep in these materials. Creep is modelled by the non-ageing linear viscoelasticity. The equivalent inclusion method overcomes certain difficulties and limitations posed by conventional approaches. For cementitious materials (highly heterogeneous), conventional multi-scale approaches are, either digitally heavy and complex to implement, or not sufficiently detailed to take into account the specificities of a microstructure. The equivalent inclusion method presents a middle way and allows the calculation of simplified matrix-inclusion type microstructures and to provide estimates or bounds on the homogenized behaviour.Under its variational form, the equivalent inclusion method has, up to now, been implemented only for spherical inclusions. This work proposes to extend this method to ellipsoidal inclusions whose variation of slenderness allows the modelling of new aspheric elements such as cracks, fibers and portlandite crystals. Such enrichment of the geometry has an impact on the computation time, that is amplified in the context of creep. The second aspect of the work then applies to the extension of the equivalent inclusion method to the non-ageing linear viscoelasticity by means of the Laplace-Carson transform. An effective methodology (both from the viewpoint of precision and calculation time) is finally proposed to perform the numerical inversion of this transformLa prédiction du comportement à long terme des matériaux cimentaires est un enjeu majeur pour contribuer à l'étude de la durabilité des structures précontraintes. Le présent travail porte sur l'utilisation de la méthode de l'inclusion équivalente, approche d'homogénéisation multi-échelle simplifiée, pour la prédiction du fluage dans ces matériaux. Le fluage est modélisé par la viscoélasticité linéaire sans vieillissement. La méthode de l'inclusion équivalente permet de contourner certaines difficultés et limitations que présentent les approches classiques. Pour les matériaux cimentaires, fortement hétérogènes, les approches multiéchelles classiques sont ou bien numériquement lourdes et très complexes à mettre en œuvre, ou bien pas suffisamment détaillées pour prendre en compte les spécificités d'une microstructure. La méthode de l'inclusion équivalente présente un juste-milieu et permet de calculer des microstructures simplifiées de type matrice-inclusions et de fournir des estimations ou des bornes sur le comportement homogénéisé. Sous sa forme variationnelle, la méthode de l'inclusion équivalente n'a jusqu'alors été mise en œuvre que pour des inclusions de forme sphérique. Le présent travail propose d'étendre cette méthode à des inclusions de forme ellipsoïdale dont la variation de l'élancement permet de modéliser de nouveaux éléments asphériques tels que les fissures, les fibres et les cristaux de portlandite. Cette complexification de la géométrie a un impact sur le temps de calcul, qui est amplifié dans le cadre du fluage. Le second volet du travail porte alors sur l'extension de la méthode de l'inclusion équivalente à la viscoélasticité linéaire sans vieillissement par l'intermédiaire de la transformée de Laplace-Carson. Une méthodologie efficace (tant du point de vue de la précision que de celui du temps de calcul) est finalement proposée pour effectuer l'inversion numérique de cette transformé

    Méthode de modélisation et de raffinement pour les systèmes hétérogènes. Illustration avec le langage System C-AMS

    Get PDF
    Les systèmes sur puces intègrent aujourd hui sur le même substrat des parties analogiques et des unités de traitement numérique. Tandis que la complexité de ces systèmes s accroissait, leur temps de mise sur le marché se réduisait. Une conception descendante globale et coordonnée du système est devenue indispensable de façon à tenir compte des interactions entre les parties analogiques et les partis numériques dès le début du développement. Dans le but de répondre à ce besoin, cette thèse expose un processus de raffinement progressif et méthodique des parties analogiques, comparable à ce qui existe pour le raffinement des parties numériques. L'attention a été plus particulièrement portée sur la définition des niveaux analogiques les plus abstraits et à la mise en correspondance des niveaux d abstraction entre parties analogiques et numériques. La cohérence du raffinement analogique exige de détecter le niveau d abstraction à partir duquel l utilisation d un modèle trop idéalisé conduit à des comportements irréalistes et par conséquent d identifier l étape du raffinement à partir de laquelle les limitations et les non linéarités aux conséquences les plus fortes sur le comportement doivent être introduites. Cette étape peut être d un niveau d'abstraction élevé. Le choix du style de modélisation le mieux adapté à chaque niveau d'abstraction est crucial pour atteindre le meilleur compromis entre vitesse de simulation et précision. Les styles de modélisations possibles à chaque niveau ont été examinés de façon à évaluer leur impact sur la simulation. Les différents modèles de calcul de SystemC-AMS ont été catégorisés dans cet objectif. Les temps de simulation obtenus avec SystemC-AMS ont été comparés avec Matlab Simulink. L'interface entre les modèles issus de l'exploration d'architecture, encore assez abstraits, et les modèles plus fin requis pour l'implémentation, est une question qui reste entière. Une bibliothèque de composants électroniques complexes décrits en SystemC-AMS avec le modèle de calcul le plus précis (modélisation ELN) pourrait être une voie pour réussir une telle interface. Afin d illustrer ce que pourrait être un élément d une telle bibliothèque et ainsi démontrer la faisabilité du concept, un modèle d'amplificateur opérationnel a été élaboré de façon à être suffisamment détaillé pour prendre en compte la saturation de la tension de sortie et la vitesse de balayage finie, tout en gardant un niveau d'abstraction suffisamment élevé pour rester indépendant de toute hypothèse sur la structure interne de l'amplificateur ou la technologie à employer.Systems on Chip (SoC) embed in the same chip analogue parts and digital processing units. While their complexity is ever increasing, their time to market is becoming shorter. A global and coordinated top-down design approach of the whole system is becoming crucial in order to take into account the interactions between the analogue and digital parts since the beginning of the development. This thesis presents a systematic and gradual refinement process for the analogue parts comparable to what exists for the digital parts. A special attention has been paid to the definition of the highest abstracted analogue levels and to the correspondence between the analogue and the digital abstraction levels. The analogue refinement consistency requires to detect the abstraction level where a too idealised model leads to unrealistic behaviours. Then the refinement step consist in introducing for instance the limitations and non-linearities that have a strong impact on the behaviour. Such a step can be done at a relatively high level of abstraction. Correctly choosing a modelling style, that suits well an abstraction level, is crucial to obtain the best trade-off between the simulation speed and the accuracy. The modelling styles at each abstraction level have been examined to understand their impact on the simulation. The SystemC-AMS models of computation have been classified for this purpose. The SystemC-AMS simulation times have been compared to that obtained with Matlab Simulink. The interface between models arisen from the architectural exploration still rather abstracted and the more detailed models that are required for the implementation, is still an open question. A library of complex electronic components described with the most accurate model of computation of SystemC-AMS (ELN modelling) could be a way to achieve such an interface. In order to show what should be an element of such a library, and thus prove the concept, a model of an operational amplifier has been elaborated. It is enough detailed to take into account the output voltage saturation and the finite slew rate of the amplifier. Nevertheless, it remains sufficiently abstracted to stay independent from any architectural or technological assumption.SAVOIE-SCD - Bib.électronique (730659901) / SudocGRENOBLE1/INP-Bib.électronique (384210012) / SudocGRENOBLE2/3-Bib.électronique (384219901) / SudocSudocFranceF

    Conditions transparentes pour la diffraction d'ondes en milieu Ă©lastique anisotrope

    Get PDF
    This thesis is motivated by the numerical simulation of Non Destructive Testing by ultrasonic waves. It aims at designing a method to compute by Finite Element (EF) the diffraction of elastic waves in time-harmonic regime by a bounded defect in an anisotropic plate. The goal is to take into account an infinite plate and to restrict the FE calculations to a bounded area. This point is difficult due to the anisotropy and, in particular, methods such as perfectly matched layers fail.In this thesis, we have mainly considered two-dimensional cases that enabled us to implement the main ingredients of a method designed for the three-dimensional case of the plate. The first part deals with the diffraction problem in an infinite strip. The classical approach consists in writing transparent conditions by matching on a boundary the displacement and the axial stress using a modal expansion in the safe part of the plate, and the FE representation in the perturbed area. We have shown the interest of imposing these matching conditions on two separated boundaries, by introducing an overlap between the modal domain and the FE domain. Thus, we can take advantage of the bi-orthogonality relations valid for general anisotropy, and also improve the rate of convergence of iterative methods of resolution. In the second part, that represents the main part of the thesis, we discuss the diffraction problem in an anisotropic medium infinite in the two directions.The key idea is that we can express the solution (via the Fourier transform) in a half-plane given its trace on the boundary. Therefore, the approach consists in coupling several analytical representations of the solution in half-planes surrounding the defect (at least 3) with the FE representation. The difficulty is to ensure that all these representations match, in particular in the infinite intersections of the half-planes. It leads to a formulation which couples, via integral operators, the solution in a bounded domain including the defect, and its traces on the edge of the half-planes. The approximation releases a truncation and a discretization both in space and Fourier variables.For each of these two parts, the methods have been implemented and validated with a C++ code developed during the thesis, first in the scalar acoustic case, and then in the elastic case. Cette thèse est motivée par la simulation numérique du Contrôle Non Destructif par ultrasons. Elle vise à concevoir une méthode de calcul par éléments finis (EF) de la diffraction d’ondes élastiques harmoniques en temps par un défaut borné dans une plaque anisotrope infinie. L'objectif est de tenir compte du caractère non borné de la plaque tout en restreignant les calculs EF à une zone bornée autour du défaut. Ce point est difficile en raison de l'anisotropie, et, en particulier, les méthodes de type couches absorbantes parfaitement adaptées sont inopérantes. Dans cette thèse, nous avons considéré principalement des cas bidimensionnels plus simples qui nous ont permis de mettre en place les ingrédients essentiels d'une méthode destinée au cas tridimensionnel de la plaque. La première partie traite du problème de diffraction dans une bande infinie. L'approche classique consiste à écrire des conditions transparentes en raccordant sur une frontière le déplacement et la contrainte axiale exprimés à l'aide des modes de la plaque dans les parties saines d'une part, et des EF dans la zone perturbée d'autre part. Nous avons mis en évidence l'intérêt d'écrire ces raccords sur deux frontières séparées en introduisant un recouvrement entre le domaine modal et EF. Nous pouvons ainsi exploiter les relations de bi-orthogonalité valables pour une anisotropie arbitraire, et également accélérer la convergence des méthodes itératives de résolution. Dans la seconde partie, qui constitue le cœur de la thèse, nous avons étudié le problème de diffraction dans un milieu anisotrope infini dans les deux directions. L'idée clé est que l'on peut exprimer (via la transformée de Fourier) la solution dans un demi-plan en fonction de sa trace sur son bord. Ainsi, l'approche consiste à coupler plusieurs représentations analytiques de la solution dans des demi-plans entourant le défaut (au moins 3) avec la représentation EF. La difficulté est d'assurer la compatibilité de ces représentations, en particulier dans les intersections infinies des demi-plans. Cela nous conduit à une reformulation couplant, via des opérateurs intégraux, à la fois la solution dans un domaine borné contenant le défaut, et ses traces sur les bords des demi-plans. Numériquement, une troncature et une discrétisation dans les variables d'espace et de Fourier sont nécessaires.Pour chacune de ces deux parties, les méthodes ont été implémentées et validées à l'aide d'un code C++ développé pendant la thèse, d'abord dans le cas scalaire acoustique plus simple, puis dans le cas de l'élasticité

    Modélisation des rendements financiers à l'aide de la distribution de Laplace asymétrique généralisée

    Get PDF
    Les modèles classiques en finance sont basés sur des hypothèses qui ne sont pas toujours vérifiables empiriquement. L’objectif de ce mémoire est de présenter l’utilisation de la distribution de Laplace asymétrique généralisée comme une alternative intéressante à ces derniers. Pour ce faire, on utilise ses différentes propriétés afin de développer des méthodes d’estimation paramétrique, d’approximation et de test, en plus d’élaborer quelques principes d’évaluation de produits dérivés. On présente enfin un exemple d’application numérique afin d’illustrer ces différents concepts.Classical models in finance are based on a set of hypotheses that are not always empirically verifiable. The main objective behind this master’s thesis is to show that the generalized asymmetric Laplace distribution is an interesting alternative to those models. To support this idea, we focus on some of its properties to develop parametric estimation, approximation and testing methods, then we work out some principles of derivatives pricing. Finally, we have a numerical example to illustrate these concepts
    • …
    corecore