66 research outputs found

    An Efficient Global Optimization Method Based on Multi-Unit Extremum Seeking

    Get PDF
    RÉSUMÉ Les problèmes d'optimisation industrielle, telle que la maximisation de la production de produits chimiques et pétrochimiques, montrent généralement plusieurs points optimaux locaux. Le développement de méthode pour la sélection du point optimal global a toujours fait l’objet de nombreuses recherches. Plusieurs techniques déterministes et stochastiques ont été explorées à cette fin. Les techniques stochastiques ne garantissent pas toujours la convergence vers la solution globale, mais sont efficaces pour les dimensions supérieures. D'autre part, les méthodes déterministes se rendent à l'optimum global, mais le défi est d'employer un cloisonnement efficace de l'espace afin de réduire le nombre d'évaluations fonctionnelles. Cette thèse propose une approche originale en matière d’optimisation globale, numérique et déterministe basée sur des techniques d'optimisation locale en temps réel et en particulier, sur des techniques sans modèle appelé les systèmes de commande extrémale. Pour les problèmes sans contrainte, les systèmes de commande extrémale représente le problème d'optimisation comme un contrôle du gradient. La façon dont le gradient est estimé constitue la différence principale entre les différentes alternatives qui sont proposées dans la littérature scientifique. Pour les méthodes de perturbation, un signal d'excitation temporelle est utilisé afin de calculer le gradient. Une alternative existe dans le cadre d'optimisation multi-unité où le gradient est estimé par la différence finie de la sortie de deux unités identiques, mais dont les données d’entré se distinguent par un décalage. Le point de départ de cette recherche a été motivée par les systèmes de commandes extrémales locales. Ces commandes sont basées sur une perturbation qui peut être utilisée comme un outil pour l'optimisation globale des polynômes scalaires du quatrième ordre avec un optimum global. L'objectif de cette thèse est d'étendre ce concept et de développer une technique d'optimisation globale déterministe pour une classe générale de systèmes multi-variables, statiques, non linéaires et continus. Dans cette thèse, il est d'abord démontré que si le décalage est réduit à zéro pour une optimisation multi-unité scalaire, le système converge vers l'optimum global. Le résultat est également étendu aux problèmes scalaires avec contraintes qui sont caractérisés par des régions non-convexes. Dans ce cas, une stratégie de commande de “Switching” est utilisée pour faire face aux contraintes.----------ABSTRACT Industrial optimization problems, e.g., maximizing production in chemical and petrochemical facilities, typically exhibit multiple local optimal points and so choosing the global one has always attracted many researchers. Many deterministic and stochastic techniques have been explored towards this end. The stochastic techniques do not always guarantee convergence to the global solution, but fare well computationally for higher dimensions. On the other hand, the deterministic methods get to the global optimum, while the challenge therein is to employ an efficient partitioning of the space in order to reduce the number of functional evaluations. This thesis proposes an original approach to numerical deterministic global optimization based on real-time local optimization techniques (in particular, model-free techniques termed the extremum-seeking schemes). For unconstrained problems, extremum-seeking schemes recast the optimization problem as the control of the gradient. The way the gradient is estimated forms the main difference between different alternatives that are proposed in the literature. In perturbation methods, a temporal excitation signal is used in order to compute the gradient. As an alternative, in the multi-unit optimization framework, the gradient is estimated as the finite difference of the outputs of two identical units driven with the inputs that differ by an offset. The starting point of this research was motivated by the perturbation-based extremum seeking schemes which can be used as a tool for global optimization of scalar fourth order polynomials, with one local and one global optimum. The objective of this thesis is to extend this concept and develop a deterministic global optimization technique for a general class of multi-variable, static, nonlinear and continuous systems. In this thesis, it is first shown that in the scalar multi-unit optimization framework, if the offset is reduced to zero, the scheme converges to the global optimum. The result is also extended to scalar constrained problems, with possible non-convex feasible regions, where a switching control strategy is employed to deal with the constraints. The next step consists of extending the algorithm to more than one variable. For two-input systems, univariate global optimization was repeated on the circumference of a circle of reducing radius. With three variables, the two-variable optimization mentioned above is repeated on the surface of a sphere of reducing radius. Time-scale separation between the various layer

    Aide au tolérancement tridimensionnel (modèle des domaines)

    Get PDF
    Face à la demande de plus en plus exigeante en terme de qualité et de coût de fabrication des produits manufacturés, la qualification et quantification optimal des défauts acceptables est primordial. Le tolérancement est le moyen de communication permettant de définir les variations géométriques autorisé entre les différents corps de métier intervenant au cours du cycle de fabrication du produit. Un tolérancement optimal est le juste compromis entre coût de fabrication et qualité du produit final. Le tolérancement repose sur 3 problématiques majeures: la spécification (normalisation d'un langage complet et univoque), la synthèse et l'analyse de tolérances. Nous proposons dans ce document de nouvelles méthodes d'analyse et de synthèse du tolérancement tridimensionnel. Ces méthodes se basent sur une modélisation de la géométrie à l'aide de l'outil domaine jeux et écarts développé au laboratoire. La première étape consiste à déterminer les différentes topologies composant un mécanisme tridimensionnel. Pour chacune de ces topologies est définie une méthode de résolution des problématiques de tolérancement. Au pire des cas, les conditions de respect des exigences fonctionnelles se traduisent par des conditions d'existence et d'inclusions sur les domaines. Ces équations de domaines peuvent ensuite être traduites sous forme de système d'inéquations scalaires. L'analyse statistique s'appuie sur des tirages de type Monte-Carlo. Les variables aléatoires sont les composantes de petits déplacements des torseur écarts défini à l'intérieur de leur zone de tolérance (modélisée par un domaine écarts) et les dimensions géométriques fixant l'étendue des jeux (taille du domaine jeux associé). A l'issue des simulations statistiques, il est possible d'estimer le risque de non-qualité et les jeux résiduels en fonction du tolérancement défini. Le développement d'une nouvelle représentation des domaines jeux et écarts plus adapté, permet de simplifier les calculs relatifs aux problématiques de tolérancement. Le traitement local de chaque topologie élémentaire de mécanisme permet d'effectuer le traitement global des mécanismes tridimensionnels complexes avec prise en compte des jeux.As far as the demand in quality and cost of manufacturing increase, the optimal qualification and quantification of acceptable defects is essential. Tolerancing is the means of communication between all actors of manufacturing. An optimal tolerancing is the right compromise between manufacturing cost and quality of the final product. Tolerancing is based on three major issues: The specification (standardization of a complete and unequivocal language), synthesis and analysis of the tolerancing. We suggest in this thesis some new analysis and synthesis of the three-dimensional tolerancing. These methods are based on a geometric model define by the deviations and clearances domains developed on the laboratory. The first step consists in determining the elementary topology that composes a three-dimensional mechanism. For each kind of these topologies one resolution method is defined. In worst case, the condition of functional requirement respect is traduced by existence and inclusions conditions on the domains. Then these domains equations can be translated in inequalities system of scalar. The statistical analysis uses the Monte-Carlo simulation. The random variables are the small displacements components of the deviation torsor which is defined inside its tolerance area (model by a deviations domain) and the geometrics dimensions which set the extent of clearance (size of the clearance domain). Thanks to statistical simulation, it is possible to estimate the non-quality rate in regards to the defined tolerancing. The development of a new representation of clearances and deviations domains most suitable, allows us to simplify the calculation for tolerancing problems. The local treatment of elementary topology makes enables the global treatment of complex three-dimensional mechanisms with take into account of clearances.SAVOIE-SCD - Bib.électronique (730659901) / SudocGRENOBLE1/INP-Bib.électronique (384210012) / SudocGRENOBLE2/3-Bib.électronique (384219901) / SudocSudocFranceF

    Courbes remplissant l'espace et leur application en traitement d'images

    Get PDF
    The space-filling curves are known for the ability to order the multidimensional points on a line while preserving the locality, i.e. the close points are closely ordered on the line. The locality preserving is wished in many applications. Hilbert curve is the best locality preserving space-filling curve. This curve is originally proposed in 2D, i.e. it is only applied to points in a 2D space. For application in the multidimensional case, we propose in this thesis a generalization of Hilbert curve. Generalized curve is based on the essential property of Hilbert curve that creates its level of locality preserving: the adjacency. Thus, it avoids the dependence on the pattern RBG, which is the only pattern of the curve extended by previous researches. The result is a family of curves preserving well the locality. The optimization of the locality preserving is also addressed to find out the best locality preserving curve. For this purpose, we propose a measure of the locality preserving. Based on the parameters, this measure can adapt to different application situations such as the change of metric or locality size. The curve construction is an important part of the thesis. It is the basis of the index calculation used in application. For a rapid index calculation, the self-similar Hilbert curves is used. They are Hilbert curves satisfying the self-similar conditions specified in chapitre 4. The generalized curve is finally applied in image search. It is the question of the content-based image search (CBIR) where each image is characterized by a multidimensionalvector. Images are ordered by the curve of a line, and the search is simplified to the search on an ordered list. By giving an input image, similar images are those corresponding to neighbors of the index of the input. The locality preserving ensures that these indexes correspond to similar images.Les courbes remplissant l'espace sont connues pour la capacité d'ordonner les points multidimensionnels sur une ligne en tout conservant la localité, i.e. les points proches sont toujours proches sur la ligne. La conservation de la localité est beaucoup recherchée dans plusieurs applications. La courbe de Hilbert est la courbe remplissant l'espace qui conserve le mieux la localité. Cette courbe est originalement proposée en 2D, i.e. n'est qu'applicable aux points dans un espace 2D. Pour une perspective d'application dans le cas multidimensionnel, nous proposons dans cette thèse une généralisation de la courbe de Hilbert. La courbe généralisée est définie en s'appuyant sur la propriété essentielle de la courbe de Hilbert qui crée son niveau de conservation de la localité : l'adjacence. Ainsi, elle évite la dépendance du motif primitif RBG qui est le seul motif primitif de la courbe étendu par les recherches précédentes. Le résultat est donc une famille de courbe conservant bien la localité. L'optimisation de la conservation de la localité est aussi abordée pour permettre de retrouver la courbe qui conserve le mieux la localité. Pour cet objectif, nous proposons une mesure de la conservation de la localité. En s'appuyant sur les paramètres, cette mesure peut adapter aux différentes situations applicatives comme le changement de métrique ou de taille de localité. La construction est une partie importante de la thèse, elle est la base du calcul de l'index utilisé dans l'application. Pour un calcul de l'index rapide, la courbe de Hilbert autosimilaire est utilisée. La courbe de Hilbert satisfaisant les conditions de la courbe fait l'objet du chapitre 4. La courbe généralisée est enfin appliquée dans la recherche d'image. Il s'agit d'une recherche par le contenu où chaque image est caractérisée par un vecteur multidimensionnel. Les images sont ordonnées par la courbe sur une ligne ; ainsi, la recherche est simplifiée en une recherche sur une liste ordonnée. En donnant une image d'entrée, les images similaires sont celles correspondantes aux index voisins de l'index de l'image d'entrée. La conservation de la localité garantit que ces index correspondent aux images similaires

    Représentations redondantes et hiérarchiques pour l'archivage et la compression de scènes sonores

    Get PDF
    L'objet de cette thèse est l'analyse et le traitement automatique de grands volumes de données audio. Plus particulièrement, on s'intéresse à l'archivage, tâche qui regroupe, au moins, deux problématiques: la compression des données, et l'indexation du contenu de celles-ci. Ces deux problématiques définissent chacune des objectifs, parfois concurrents, dont la prise en compte simultanée s'avère donc difficile. Au centre de cette thèse, il y a donc la volonté de construire un cadre cohérent à la fois pour la compression et pour l'indexation d'archives sonores. Les représentations parcimonieuses de signaux dans des dictionnaires redondants ont récemment montré leur capacité à remplir une telle fonction. Leurs propriétés ainsi que les méthodes et algorithmes permettant de les obtenir sont donc étudiés dans une première partie de cette thèse. Le cadre applicatif relativement contraignant (volume des données) va nous amener à choisir parmi ces derniers des algorithmes itératifs, appelés également gloutons. Une première contribution de cette thèse consiste en la proposition de variantes du célèbre Matching Pursuit basées sur un sous-échantillonnage aléatoire et dynamique de dictionnaires. L'adaptation au cas de dictionnaires temps-fréquence structurés (union de bases de cosinus locaux) nous permet d'espérer une amélioration significative des performances en compression de scènes sonores. Ces nouveaux algorithmes s'accompagnent d'une modélisation statistique originale des propriétés de convergence usant d'outils empruntés à la théorie des valeurs extrêmes. Les autres contributions de cette thèse s'attaquent au second membre du problème d'archivage: l'indexation. Le même cadre est cette fois-ci envisagé pour mettre à jour les différents niveaux de structuration des données. Au premier plan, la détection de redondances et répétitions. A grande échelle, un système robuste de détection de motifs récurrents dans un flux radiophonique par comparaison d'empreintes est proposé. Ses performances comparatives sur une campagne d'évaluation du projet QUAERO confirment la pertinence de cette approche. L'exploitation des structures pour un contexte autre que la compression est également envisagé. Nous proposons en particulier une application à la séparation de sources informée par la redondance pour illustrer la variété de traitements que le cadre choisi autorise. La synthèse des différents éléments permet alors d'envisager un système d'archivage répondant aux contraintes par la hiérarchisation des objectifs et des traitements.The main goal of this work is automated processing of large volumes of audio data. Most specifically, one is interested in archiving, a process that encompass at least two distinct problems: data compression and data indexing. Jointly addressing these problems is a difficult task since many of their objectives may be concurrent. Therefore, building a consistent framework for audio archival is the matter of this thesis. Sparse representations of signals in redundant dictionaries have recently been found of interest for many sub-problems of the archival task. Sparsity is a desirable property both for compression and for indexing. Methods and algorithms to build such representations are the first topic of this thesis. Given the dimensionality of the considered data, greedy algorithms will be particularly studied. A first contribution of this thesis is the proposal of a variant of the famous Matching Pursuit algorithm, that exploits randomness and sub-sampling of very large time frequency dictionaries. We show that audio compression (especially at low bit-rate) can be improved using this method. This new algorithms comes with an original modeling of asymptotic pursuit behaviors, using order statistics and tools from extreme values theory. Other contributions deal with the second member of the archival problem: indexing. The same framework is used and applied to different layers of signal structures. First, redundancies and musical repetition detection is addressed. At larger scale, we investigate audio fingerprinting schemes and apply it to radio broadcast on-line segmentation. Performances have been evaluated during an international campaign within the QUAERO project. Finally, the same framework is used to perform source separation informed by the redundancy. All these elements validate the proposed framework for the audio archiving task. The layered structures of audio data are accessed hierarchically by greedy decomposition algorithms and allow processing the different objectives of archival at different steps, thus addressing them within the same framework.PARIS-Télécom ParisTech (751132302) / SudocSudocFranceF

    Efficacité de détection en tomographie d'émission par positrons: une approche par intelligence artificielle

    Get PDF
    En Tomographie d'Émission par Positrons (TEP), la course à la résolution spatiale nécessite des détecteurs de plus en plus petits, produisant plus de diffusion Compton avec un impact négatif sur l’efficacité de détection du scanner. Plusieurs phénomènes physiques liés à cette diffusion Compton entachent tout traitement des coïncidences multiples d'une erreur difficile à borner et à compenser, tandis que le nombre élevé de combinaisons de détecteurs complexifie exponentiellement le problème. Cette thèse évalue si les réseaux de neurones constituent une alternative aux solutions existantes, problématiques parce que statistiquement incertaines ou complexes à mettre en œuvre. La thèse réalise une preuve de concept pour traiter les coïncidences triples et les inclure dans le processus de reconstruction, augmentant l'efficacité avec un minimum d'impact sur la qualité des images. L'atteinte des objectifs est validée via différents critères de performance comme le gain d'efficacité, la qualité de l'image et le taux de succès du calcul de la ligne de réponse (LOR), mesurés en priorité sur des données réelles. Des études paramétriques montrent le comportement général de la solution : un réseau entraîné avec une source générique démontre pour le taux d'identification de la LOR une bonne indépendance à la résolution en énergie ainsi qu'à la géométrie des détecteurs, du scanner et de la source, pourvu que l'on ait prétraité au maximum les données pour simplifier la tâche du réseau. Cette indépendance, qui n'existe en général pas dans les solutions existantes, laisse présager d'un meilleur potentiel de généralisation à d'autres scanners. Pour les données réelles du scanner LabPET[indice supérieur TM], la méthode atteint un gain d'efficacité aux alentours de 50%, présente une dégradation de résolution acceptable et réussit à recouvrer le contraste de manière similaire aux images de référence, en plus de fonctionner en temps réel. Enfin, plusieurs améliorations sont anticipées

    Optimisation des ateliers de fabrication flexibles sous une commande Ă  seuils critiques

    Get PDF
    Notions sur les ateliers de fabrication flexibles -- Caractérisation des statistiques transitoires et critères d'ergodicité -- Utilisation des approximants de padé pour l'analyse transitoire -- Politiques maximales simples à seuils critiques

    PGD-Abaques virtuels pour l'optimisation géométrique des structures

    Get PDF
    During shape optimisation of structures, numerous evaluations of fiels are necessary. The idea, developed in this PhD thesis, is the efficient construction of approximations of these fiels through the Proper Generalized Decomposition (PGD), a model reduction technique. The results, computed once and for all, are stored in virtual charts for a subsequent use into an optimisation process. Geometry variations correspond to a parametric problem, where the parameters is the geometry. This kind of problem is well suited for PGD. Many studies dealt with the resolution of parametric problems and recent works treated, particularly, the introduction of geometric parameters. However, our approach is to deal with configurations of the complexity of industrial problems. The use of commercial finite elements software is a crucial issue. It was decided, in partnership with AIRBUS Defence & Space, to develop techniques allowing the resolution of geometrically parametrised problems thanks to PGD and to apply them to an industrial demonstrator. The geometry considered is defined by splines and the behaviour of the structure is highly non-linear (geometric and material non-linearities). The approach was implemented into a genuine industrial design process using commercial finite elements software. The thesis proposed, also, a new extension of PGD to discrete parameters. It allows to take into account completely different configurations (loadings, materials, etc.) in the same resolution.Lors de l'optimisation géométrique de structures, un grand nombre d'évaluations de champs est nécessaire. L'idée, développée dans cette thèse, est la construction efficace et rapide d'approximations de ces champs à travers la Proper Generalized Decomposition (PGD), une méthode de réduction de modèle. Les résultats, calculés une fois pour toutes, sont stockés dans des abaques virtuels pour une utilisation ultérieure dans un processus d'optimisation. Le problème considéré est paramétrique et les paramètres définissent la géométrie. Ce type de problème est particulièrement adapté à la PGD. En effet, de nombreux travaux ont traité de la résolution de problèmes paramétriques et des premières études ont porté, en particulier, sur la prise en compte de paramètres géométriques. Toutefois, ce qui caractérise nos travaux est d'aller vers des outils aptes à traiter des situations significatives de la complexité des problèmes rencontrés au niveau industriel. En particulier, l'exploitation de codes éléments finis commerciaux est une contrainte majeure. Il a été décidé de développer des méthodes permettant de traiter des problèmes à paramètres géométriques par la PGD, et, en partenariat avec AIRBUS Defence & Space, d'appliquer ces techniques à un démonstrateur industriel présentant une géométrie complexe (type splines) et de fortes non-linéarités (géométriques, matériaux). Notre démarche a été implémentée dans un process industriel utilisant des codes éléments finis commerciaux. On propose aussi une nouvelle extension de la PGD aux paramètres discrets autorisant la prise en considération, dans une même résolution, de configurations de structures complètement différentes (cas de chargement, matériaux, etc.)

    Planification de la maintenance d'un parc de turbines-alternateurs par programmation mathématique

    Get PDF
    RÉSUMÉ Une population grandissante de groupes turbines-alternateurs dans les centrales hydroélectriques arrive à sa fin de vie utile et les gestionnaires appréhendent la concurrence des arrêts pour des rénovations majeures avec un nombre tel que les ressources disponibles dans une même période ne seraient pas suffisantes. Ces retraits du réseau peuvent durer jusqu'à une année entière et mobilisent des ressources importantes en plus de la perte de production électrique. Les prévisions à la hausse des ventes à l'export et des rythmes de production sévères font craindre la mise à l'arrêt de beaucoup de groupes en même temps. Actuellement, le jugement des experts est au coeur des décisions des retraits qui se basent essentiellement sur des inspections périodiques et des mesures effectuées in-situ et dont les résultats sont centralisés chez l'équipe de planification des retraits. La nature aléatoire des phénomènes de dégradations qui ont lieu, font en sorte que la capacité de prévision de l'usure par l'inspection a un caractère de court-terme. Une vision des rénovations majeures sur le long terme est activement recherchée par les gestionnaires dans un souci de justification et de rationalisation des ressources budgétaires allouées aux rénovations. Les gestionnaires disposent d’une quantité impressionnante de données. Parmi elles, figurent la production horaire de chaque groupe depuis plusieurs années, l'historique des réparations sur chaque organe ainsi que les retraits majeurs effectués depuis les années 1950. Dans ce projet de recherche, nous nous proposons de résoudre le problème de planification de la maintenance d’un parc de 90 groupes turbines-alternateurs du réseau de production d'Hydro- Québec sur un horizon de 50 ans. Nous développons une méthodologie scientifique et rationnelle de préparation des plans des retraits qui serviront de support à la prise de décision en exploitant les données de mesures et les historiques disponibles tout en respectant un ensemble de contraintes techniques et économiques. Pour respecter la confidentialité de certaines données, toutes les dénominations originales ont été modifiées pour les rendre anonymes. Ce problème de planification est traité comme un problème d’optimisation avec contraintes. D'abord, un groupe est étudié pour ressortir les organes les plus influents. Un modèle de taux de défaillance est développé pour prendre en compte les caractéristiques technologiques de l'organe et d'utilisation du groupe. Ensuite, des stratégies de remplacements et de réparations sont----------ABSTRACT A growing number of Hydro-Québec's hydro generators are at the end of their useful life and maintenance managers fear to face a number of overhauls exceeding what can be handled. Maintenance crews and budgets are limited and these withdrawals may take up to a full year and mobilize significant resources in addition to the loss of electricity production. In addition, increased export sales forecasts and severe production patterns are expected to speed up wear that can lead to halting many units at the same time. Currently, expert judgment is at the heart of withdrawals which rely primarily on periodic inspections and in-situ measurements and the results are sent to the maintenance planning team who coordinate all the withdrawals decisions. The degradations phenomena taking place is random in nature and the prediction capability of wear using only inspections is limited to shortterm at best. A long term planning of major overhauls is sought by managers for the sake of justifying and rationalizing budgets and resources. The maintenance managers are able to provide a huge amount of data. Among them, is the hourly production of each unit for several years, the repairs history on each part of a unit as well as major withdrawals since the 1950's. In this research, we tackle the problem of long term maintenance planning for a fleet of 90 hydro generators at Hydro-Québec over a 50 years planning horizon period. We lay a scientific and rational framework to support withdrawals decisions by using part of the available data and maintenance history while fulfilling a set of technical and economic constraints. We propose a planning approach based on a constrained optimization framework. We begin by decomposing and sorting hydro generator components to highlight the most influential parts. A failure rate model is developed to take into account the technical characteristics and unit utilization. Then, replacement and repair policies are evaluated for each of the components then strategies are derived for the whole unit. Traditional univariate policies such as the age replacement policy and the minimal repair policy are calculated. These policies are extended to build alternative bivariate maintenance policy as well as a repair strategy where the state of a component after a repair is rejuvenated by a constant coefficient

    Développement de méthodes statistiques nécessaires à l'analyse de données génomiques (application à l'influence du polymorphisme génétique sur les caractéristiques cutanées individuelles et l'expression du vieillissement cutané.)

    Get PDF
    Les nouvelles technologies développées ces dernières années dans le domaine de la génétique ont permis de générer des bases de données de très grande dimension, en particulier de Single Nucleotide Polymorphisms (SNPs), ces bases étant souvent caractérisées par un nombre de variables largement supérieur au nombre d'individus. L'objectif de ce travail a été de développer des méthodes statistiques adaptées à ces jeux de données de grande dimension et permettant de sélectionner les variables les plus pertinentes au regard du problème biologique considéré. Dans la première partie de ce travail, un état de l'art présente différentes méthodes de sélection de variables non supervisées et supervisées pour 2 blocs de variables et plus. Dans la deuxième partie, deux nouvelles méthodes de sélection de variables non supervisées de type "sparse" sont proposées : la Group Sparse Principal Component Analysis (GSPCA) et l'Analyse des Correspondances Multiples sparse (ACM sparse). Vues comme des problèmes de régression avec une pénalisation group LASSO elles conduisent à la sélection de blocs de variables quantitatives et qualitatives, respectivement. La troisième partie est consacrée aux interactions entre SNPs et dans ce cadre, une méthode spécifique de détection d'interactions, la régression logique, est présentée. Enfin, la quatrième partie présente une application de ces méthodes sur un jeu de données réelles de SNPs afin d'étudier l'influence possible du polymorphisme génétique sur l'expression du vieillissement cutané au niveau du visage chez des femmes adultes. Les méthodes développées ont donné des résultats prometteurs répondant aux attentes des biologistes, et qui offrent de nouvelles perspectives de recherches intéressantesNew technologies developed recently in the field of genetic have generated high-dimensional databases, especially SNPs databases. These databases are often characterized by a number of variables much larger than the number of individuals. The goal of this dissertation was to develop appropriate statistical methods to analyse high-dimensional data, and to select the most biologically relevant variables. In the first part, I present the state of the art that describes unsupervised and supervised variables selection methods for two or more blocks of variables. In the second part, I present two new unsupervised "sparse" methods: Group Sparse Principal Component Analysis (GSPCA) and Sparse Multiple Correspondence Analysis (Sparse MCA). Considered as regression problems with a group LASSO penalization, these methods lead to select blocks of quantitative and qualitative variables, respectively. The third part is devoted to interactions between SNPs. A method employed to identify these interactions is presented: the logic regression. Finally, the last part presents an application of these methods on a real SNPs dataset to study the possible influence of genetic polymorphism on facial skin aging in adult women. The methods developed gave relevant results that confirmed the biologist's expectations and that offered new research perspectives.PARIS-CNAM (751032301) / SudocSudocFranceF

    Contribution à la conception préliminaire robuste en ingéniérie de produit.

    Get PDF
    Les travaux présentés dans cette thèse portent sur la conception robuste de produit et plus particulièrement sur la phase de pré-dimensionnement dans le cas où un modèle de dimensionnement et un cahier des charges sont déjà définis. Une approche pour réaliser de l optimisation robuste est proposée pour réduire la dispersion de la fonction objectif du cahier des charges du produit lorsque les paramètres de conception sont sujets aux incertitudes, conserver une bonne performance du produit et assurer une faisabilité des contraintes. Nous proposons ainsi la formulation d un cahier des charges dit robuste transformant la fonction objectif et les contraintes du cahier des charges initial afin d intégrer une notion de robustesse préalablement définie. La seconde contribution est une analyse des méthodes trouvées dans la littérature pour la propagation d incertitudes à travers des modèles de dimensionnement. Les variations des paramètres sont alors modélisées par des dispersions probabilistes. L analyse théorique du fonctionnement de chaque méthode est complétée par des tests permettant d étudier la précision des résultats obtenus et de sélectionner la méthode utilisée par la suite. L approche pour l optimisation robuste de produit proposée dans ce travail est finalement mise en œuvre et testée sur deux études de cas. Elle intègre la méthode de propagation d incertitudes dans une boucle de l algorithme d optimisation de manière à automatiser la recherche d une solution optimale robuste pour le dimensionnement du produit.The work presented in this thesis deals with the robust design of products. Particularly, it focuses on the design process preliminary phase where design models and specifications are already defined. A robust optimization approach is proposed. It aims to: reduce the scattering of the objective function included in the product specifications when the uncertainties reach the design parameters, maintain good performance of the product and ensure the constraints feasibility. We propose a new robust product specification that changes the objective function and the constraints of the initial specification in order to integrate the concept of robustness previously defined. The second contribution is an analysis of methods found in literature to propagate uncertainties across design models. Design parameter variations are modeled by probability distributions. The theoretical analysis of these methods is completed by numerous tests to investigate the accuracy of the results and to select the method used thereafter. The robust product optimization approach proposed in this work is finally implemented and tested on two case studies. It incorporates the propagation of uncertainties within the optimization loop to automate the search of a robust optimal solution for the design product.SAVOIE-SCD - Bib.électronique (730659901) / SudocGRENOBLE1/INP-Bib.électronique (384210012) / SudocGRENOBLE2/3-Bib.électronique (384219901) / SudocSudocFranceF
    • …
    corecore