17 research outputs found

    Analyse d'images : Filtrage et segmentation

    Get PDF
    Ouvrage publié avec l'aide du Ministère des affaires étrangères, direction de la coopération scientifique et technique. AVERTISSEMENT Le livre publié en 1995 chez MASSON (EAN13 : 9782225849237) est épuisé. Cette version pdf est une version élaborée à partie de la version préliminaire transmise à l'éditeur. La mise en page est légèrement différente de celle du livre. Malheureusement quelques figures de l'annexe C ont été perdues.International audienceL'analyse d'image touche à l'heure actuelle de nombreux domaines, avec des objectifs aussi variés que l'aide au diagnostic pour les images médicales, la vision artificielle en robotique ou l'analyse des ressources terrestres à partir des images prises par satellite. Le but du traitement de ces images est à la fois simple dans son concept et difficile dans sa réalisation. Simple en effet, puisqu'il s'agit de reconnaître des objets que notre système visuel perçoit rapidement, du moins pour la majorité d'entre eux. Difficile cependant, car dans la grande quantité d'informations contenues dans l'image, il faut extraire des éléments pertinents pour l'application visée et ceci indépendamment de la qualité de l'image. L'analyse d'image s'est donc dotée d'outils et de méthodes puissants issus de domaines aussi variés que les mathématiques, le traitement du signal, ou l'informatique. Cet ouvrage présente un des aspects les plus importants du traitement des images : la " segmentation ". Il récapitule d'abord les grandeurs observables et calculables sur une image et les algorithmes de manipulation des structures de données associées. Il détaille ensuite les traitements préliminaires, tels le filtrage du bruit et les deux types d'approche de la segmentation, l'extraction des contours et celle des régions. Chacune fait l'objet d'une étude théorique et de nombreux résultats illustrent les performances. Une des originalités de l'ouvrage est l'étude comparative des différentes techniques appliquées sur un même corpus d'images réelles

    Méthodologie de modélisation des systèmes mécatroniques complexes à partir du multi-bond graph : application à la liaison BTP-fuselage d’un hélicoptère

    Get PDF
    Due to the operation of the rotor, the helicopter is subject to important vibrations affecting namely the fatigue of mechanical parts and the passengers comfort. The MGB-Fuselage joint equipped with the DAVI system is an anti-vibration system that helps to reduce, in a single frequency way, vibrations transmitted to the fuselage. Semi-active intelligent solutions are studied so that the filtering can be adjusted according to the vibration sources. Such studies suffer from a lack of tools and necessary methods, firstly, for the design of complex mechanical systems and secondly, for the development of an intelligent joint. This work proposes a modeling approach using a structural modeling tool : the multi-bond graph (MBG) which offers a global and modular view for the study of complex mechatronic systems such as helicopter. At first, an analysis of modeling tools leading to the selection of MBG is presented. Secondly, developments have focused on the MBG modeling of the 3D MGB-fuselage joint of an experimental setup which was designed and built in the laboratory. This joint is a mechanical system with kinematic loops. The equations of the dynamics of such system are a differential-algebraic system (DAE) requiring specific solving methods. The MBG model of the MGB-fuselage was simulated using the 20-sim software. The results were verified using the multibody software LMS Virtual Lab. A comparison of results obtained by the two methods led to a very good correlation to various cases of excitations of the MGB (pumping, roll, pitch). Thirdly, the MBG model was used for the establishment of semi-active control system. The model of the DAVI device also developed in 20-sim allows to adjust the position of the moving masses in operation so as to minimize the level of vibration of the fuselage. The control algorithm (gradient algorithm) enables to calculate the setpoint positions of the moving masses on the DAVI beaters. The position of the moving masses driven by an electric DC motor and a screw-nut system is then controlled to the setpoints generated by the control algorithm. Finally, the command could be implemented on a non-linear bond graph model which did not require a linearization to get a transfer function.De par le fonctionnement de son rotor, l'hélicoptère est le siège de vibrations mécaniques importantes impactant notamment la fatigue des pièces mécaniques et le confort des passagers. La liaison BTP-Fuselage équipé du système SARIB est un système anti-vibratoire qui permet d'atténuer mono-fréquentiellement les vibrations transmises au fuselage. Des solutions intelligentes semi-actives sont donc étudiées afin que la filtration soit réglable en fonction des vibrations excitatrices. Ce type d'études souffre, par contre, d'un manque d'outils et de méthodes indispensables, d'une part, à la modélisation de systèmes mécaniques complexes et d'autre part, à l'élaboration d'une liaison intelligente. Ces travaux proposent une démarche de modélisation à partir d'un outil de modélisation structurel tel que le multi-bond graph (MBG) permettant une vision global et modulaire pour l'étude de systèmes mécaniques complexes tels qu'on peut les trouver sur un hélicoptère. Dans un premier temps, une analyse des outils de modélisation conduisant au choix du MBG a été présentée. Dans un second temps, les développements ont porté sur la modélisation MBG de la liaison BTP/ Fuselage 3D d'un banc d'essai réel qui a été conçu et réalisé au sein du laboratoire. Cette liaison est un système mécanique cinématiquement bouclé. Les équations de la dynamique d'un tel système forment un système d'équations algébro-différentiel (DAE) nécessitant des techniques de résolution spécifiques. Le modèle MBG de la liaison BTP-fuselage entier a été simulé à l'aide du logiciel 20-sim. Les résultats obtenus ont été vérifiés à l'aide du logiciel multicorps LMS Virtual Lab. Une comparaison des résultats obtenus par les deux méthodes a donné, pour différents cas d'excitations de la BTP (pompage, roulis, tangage), une corrélation très satisfaisante. Dans un troisième temps, le modèle MBG a été exploité pour la mise en place d'un dispositif de contrôle semi-actif. Le modèle du dispositif SARIB développé également sous 20-sim permet de régler la position des masses mobiles en fonctionnement de manière à minimiser le niveau de vibratoire du fuselage. L'algorithme de contrôle (algorithme de gradient) permet de calculer les consignes de position des masses mobiles sur les batteurs SARIB. La position des masses mobiles actionnée par un moteur électrique à courant continu et un système vis-écrou est ensuite asservie aux consignes générées par l'algorithme de contrôle. Enfin, la commande a pu être mise en place sur un modèle bond graph non-linéaire qui n'a pas nécessité une linéarisation en vue d'une transformation en fonction de transfert

    Approche multi-agents pour la conception optimale des systèmes mécatroniques

    Get PDF
    The design of a mechatronic system is a multidisciplinary and multi-objective optimization problem. Optimization approaches currently used for the optimization of multidisciplinary systems are expensive in computation time, difficult to implement, and inflexible with the preliminary design phase, in which the objectives and design constraints change frequently. It is therefore necessary to look for new techniques easier to implement and less expensive, that enable to adapt dynamically a solution due to a change in specifications. In this context that this thesis focuses on the development of a multi-agent design approach, based on disciplinary knowledge and cooperative behavior; make possible to collectively find an optimal solution that satisfies the required constraints and performance.The proposed approach is based on a design process to facilitate collaborative distributed design of mechatronic systems. This approach is applied to the preliminary design of an electric vehicle to illustrate how the use of the multi-agent paradigm helps designers in making effective decisions and to achieve an optimal decision of the overall problem. A comparative study with traditional optimization methods is made to demonstrate the validity and effectiveness of the proposed approach.La conception d’un système mécatronique est un problème d’optimisation multidisciplinaire et multi-objectif. Les approches d’optimisation actuellement utilisées, pour l’optimisation des systèmes multidisciplinaires, sont coûteuses en temps de calcul, difficiles à mettre en œuvre et non flexibles avec la phase de conception préliminaire, où les objectifs et les contraintes de conception changent fréquemment. D’où la nécessité de chercher une nouvelle technique plus simples à mettre en œuvre, moins coûteuse et qui permet d’adapter dynamiquement une solution suite à un changement des spécifications. C’est dans ce contexte que cette thèse se focalise sur le développement d’une approche multi-agents de conception qui, se basant sur les connaissances disciplinaires et par un comportement coopératif, permet de trouver collectivement une solution optimale qui satisfait les contraintes et les performances demandées.L'approche proposée est basée sur un processus de conception pour faciliter la conception collaborative distribué des systèmes mécatroniques. Cette approche est appliquée à la conception préliminaire d'un véhicule électrique pour illustrer comment l'utilisation du paradigme multi-agent aide les concepteurs à prendre des décisions efficaces et de parvenir à une décision optimale de l'ensemble du problème. Une étude comparative avec les méthodes classiques d'optimisation est faite afin de démontrer la validité et l'efficacité de l’approche proposée

    Aide à la décision multicritère pour la prescription de scénarios d'amélioration énergétique via une approche globale

    Get PDF
    We spend most of our lives in buildings. These were built mostly before the oil shocks of 1974 and 1979 and offer both poor energy performances and improvable comfort conditions (thermal, acoustic, natural lighting). In France, with 32 million units and an annual turnover of less than 1% of the existing building stock, the energy renovation of housing becomes a necessity. This, as much for political ends (energy dependence), economic reasons (revival of construction jobs, real-estate valorisation), social reasons (wellbeing of occupants), as environmental reasons (reduction of greenhouse gas emissions). This thesis aims to provide knowledge and a methodology to contribute to the decision support for prescribing efficient energy renovation scenarios of houses built during the 1945-1974 period. Three issues are highlighted in this research work: 1) the integration of an holistic approach of renovation process (systemic and multi-criteria) to avoid not foreseen collateral effects due to bad choices; 2) help formalize the preferences of decision-takers (homeowners) in a format interpretable by multi-criteria analysis tools; 3) integration of uncertainties related to the characterization of existing buildings in the process of scenarios generation and decision support. Through a systemic description of buildings and a multi-criteria performance assessment of formerly identified renovation actions, we propose an innovative methodology, consisted of 6 modular and interchangeable technical sub-models, which aims to automate the generation, assessment, optimization and performance-based ranking of renovation scenarios. The heart of the methodology is based on the formalization of renovation knowledge from construction specialists in two of our six sub-models. The first one is an influence matrix that we use to translate most common renovation goals (equivalent to the wishes expressed by homeowners) into a profile of relative weights and a profile of targeted-levels of performance on indicators modelled. The second one is a probabilistic inference tool (using the technology of bayesian networks) to both optimize assemblies of renovation actions (programming by successive constraints) and achieve multi-criteria evaluation of these assemblies (by the use of aggregation functions of local performances). A sixth and final sub-model uses the ELECTRE outranking methods to sort and classify, by preference order, renovation scenarios previously generated. At last, our methodology provides the ability to let users test their own energy renovation scenarios in order to analyze their multi-criteria performances and compatibility with the characteristics of the existing capitalized during the technical diagnosis of their building. The methodology proposed is intended to be educational and transposable into a functional computer system prototype. A first version was developed and used to apply our decision process to a real case of individual house to renovate. First results obtained are consistent and allow validating the approach. However, keep in mind that like any model using expert knowledge, robustness and validity limit of its scope of application depend on the quality of knowledge work capitalized.Nous passons la majeure partie de notre vie dans des bâtiments. Ces derniers ont été construits, pour la plupart, avant les chocs pétroliers de 1974 et 1979, et offrent une performance énergétique médiocre ainsi que des conditions de confort (thermique, acoustique, éclairement naturel) largement améliorables. En France, avec 32 millions de logements et un taux de renouvellement annuel du parc existant inférieur à 1 %, la rénovation énergétique des logements devient une nécessité. Cela, autant pour des raisons politiques (indépendances énergétiques), économiques (relance des emplois de la construction, valorisation du patrimoine), sociales (bien-être des occupants, lutte contre la précarité), qu'environnementales (diminutions des émissions des gaz à effet de serre). Ce travail de thèse vise à proposer des connaissances ainsi qu'une méthodologie afin de contribuer à l'aide à la décision pour la prescription de scénarios d'amélioration énergétique efficaces des maisons individuelles construites durant la période 1945-1974. Trois problématiques sont mises en avant dans cette recherche. 1) l'intégration de l'approche globale (systémique et multicritère) de la rénovation afin d'éviter des contre-performances collatérales dues à des mauvais choix ; 2) l'aide à la formalisation des préférences des propriétaires-occupants (notre maîtrise d'ouvrage) dans un format interprétable par des outils d'analyses multicritères ; 3) l'intégration des incertitudes liées à la caractérisation des bâtiments existants dans le processus d'élaboration des scénarios et d'aide à la décision. À travers une description systémique des bâtiments et une évaluation multicritères des performances des actions d'amélioration retenues, nous proposons une méthodologie innovante, constituée de 6 sous-modèles techniques modulables et interchangeables, qui vise à automatiser le processus de construction, d'évaluation et de hiérarchisation performantielle de scénarios de rénovation. Le cœur de notre méthodologie est basé sur la formalisation de l'expertise métier des spécialistes du bâtiment dans deux de nos 6 sous-modèles. Le premier est une matrice d'influence permettant de passer des enjeux de rénovation les plus courants (équivalent aux préférences exprimées par la maîtrise d'ouvrage) en profil de poids relatifs et profil de niveaux-cibles de performance sur les indicateurs modélisés. Le second, est un outil d'inférence probabiliste (utilisant la technologie des réseaux bayésiens) permettant à la fois d'optimiser les assemblages d'actions d'amélioration (programmation par contraintes successives) et de réaliser une évaluation multicritère de ces assemblages (par l'usage de fonctions d'agrégation de performances locales). Un sixième et dernier sous-modèle utilise les méthodes de surclassement ELECTRE pour trier et classer les alternatives de rénovation préalablement générées par ordre de préférence. Notre méthodologie offre enfin la possibilité de laisser l'utilisateur tester ses propres scénarios d'amélioration énergétique afin d'analyser leurs performances multicritères et leur compatibilité avec les caractéristiques de l'existant capitalisées lors du diagnostic technique d'une opération. La méthodologie développée se veut pédagogique et transposable dans un prototype d'outil informatique fonctionnel. Une première version a été développée et utilisée pour appliquer notre processus d'aide à la décision à un cas réel de maison individuelle à rénover. Les premiers résultats obtenus sont cohérents et permettent de valider la démarche. Néanmoins, il faut garder à l'esprit que comme tout modèle utilisant des connaissances expertes, sa robustesse et la limite de validité de son périmètre d'application dépendent de la qualité du savoir métier capitalisé

    Aide à la décision multicritère pour la prescription de scénarios d'amélioration énergétique via une approche globale

    No full text
    We spend most of our lives in buildings. These were built mostly before the oil shocks of 1974 and 1979 and offer both poor energy performances and improvable comfort conditions (thermal, acoustic, natural lighting). In France, with 32 million units and an annual turnover of less than 1% of the existing building stock, the energy renovation of housing becomes a necessity. This, as much for political ends (energy dependence), economic reasons (revival of construction jobs, real-estate valorisation), social reasons (wellbeing of occupants), as environmental reasons (reduction of greenhouse gas emissions). This thesis aims to provide knowledge and a methodology to contribute to the decision support for prescribing efficient energy renovation scenarios of houses built during the 1945-1974 period. Three issues are highlighted in this research work: 1) the integration of an holistic approach of renovation process (systemic and multi-criteria) to avoid not foreseen collateral effects due to bad choices; 2) help formalize the preferences of decision-takers (homeowners) in a format interpretable by multi-criteria analysis tools; 3) integration of uncertainties related to the characterization of existing buildings in the process of scenarios generation and decision support. Through a systemic description of buildings and a multi-criteria performance assessment of formerly identified renovation actions, we propose an innovative methodology, consisted of 6 modular and interchangeable technical sub-models, which aims to automate the generation, assessment, optimization and performance-based ranking of renovation scenarios. The heart of the methodology is based on the formalization of renovation knowledge from construction specialists in two of our six sub-models. The first one is an influence matrix that we use to translate most common renovation goals (equivalent to the wishes expressed by homeowners) into a profile of relative weights and a profile of targeted-levels of performance on indicators modelled. The second one is a probabilistic inference tool (using the technology of bayesian networks) to both optimize assemblies of renovation actions (programming by successive constraints) and achieve multi-criteria evaluation of these assemblies (by the use of aggregation functions of local performances). A sixth and final sub-model uses the ELECTRE outranking methods to sort and classify, by preference order, renovation scenarios previously generated. At last, our methodology provides the ability to let users test their own energy renovation scenarios in order to analyze their multi-criteria performances and compatibility with the characteristics of the existing capitalized during the technical diagnosis of their building. The methodology proposed is intended to be educational and transposable into a functional computer system prototype. A first version was developed and used to apply our decision process to a real case of individual house to renovate. First results obtained are consistent and allow validating the approach. However, keep in mind that like any model using expert knowledge, robustness and validity limit of its scope of application depend on the quality of knowledge work capitalized.Nous passons la majeure partie de notre vie dans des bâtiments. Ces derniers ont été construits, pour la plupart, avant les chocs pétroliers de 1974 et 1979, et offrent une performance énergétique médiocre ainsi que des conditions de confort (thermique, acoustique, éclairement naturel) largement améliorables. En France, avec 32 millions de logements et un taux de renouvellement annuel du parc existant inférieur à 1 %, la rénovation énergétique des logements devient une nécessité. Cela, autant pour des raisons politiques (indépendances énergétiques), économiques (relance des emplois de la construction, valorisation du patrimoine), sociales (bien-être des occupants, lutte contre la précarité), qu'environnementales (diminutions des émissions des gaz à effet de serre). Ce travail de thèse vise à proposer des connaissances ainsi qu'une méthodologie afin de contribuer à l'aide à la décision pour la prescription de scénarios d'amélioration énergétique efficaces des maisons individuelles construites durant la période 1945-1974. Trois problématiques sont mises en avant dans cette recherche. 1) l'intégration de l'approche globale (systémique et multicritère) de la rénovation afin d'éviter des contre-performances collatérales dues à des mauvais choix ; 2) l'aide à la formalisation des préférences des propriétaires-occupants (notre maîtrise d'ouvrage) dans un format interprétable par des outils d'analyses multicritères ; 3) l'intégration des incertitudes liées à la caractérisation des bâtiments existants dans le processus d'élaboration des scénarios et d'aide à la décision. À travers une description systémique des bâtiments et une évaluation multicritères des performances des actions d'amélioration retenues, nous proposons une méthodologie innovante, constituée de 6 sous-modèles techniques modulables et interchangeables, qui vise à automatiser le processus de construction, d'évaluation et de hiérarchisation performantielle de scénarios de rénovation. Le cœur de notre méthodologie est basé sur la formalisation de l'expertise métier des spécialistes du bâtiment dans deux de nos 6 sous-modèles. Le premier est une matrice d'influence permettant de passer des enjeux de rénovation les plus courants (équivalent aux préférences exprimées par la maîtrise d'ouvrage) en profil de poids relatifs et profil de niveaux-cibles de performance sur les indicateurs modélisés. Le second, est un outil d'inférence probabiliste (utilisant la technologie des réseaux bayésiens) permettant à la fois d'optimiser les assemblages d'actions d'amélioration (programmation par contraintes successives) et de réaliser une évaluation multicritère de ces assemblages (par l'usage de fonctions d'agrégation de performances locales). Un sixième et dernier sous-modèle utilise les méthodes de surclassement ELECTRE pour trier et classer les alternatives de rénovation préalablement générées par ordre de préférence. Notre méthodologie offre enfin la possibilité de laisser l'utilisateur tester ses propres scénarios d'amélioration énergétique afin d'analyser leurs performances multicritères et leur compatibilité avec les caractéristiques de l'existant capitalisées lors du diagnostic technique d'une opération. La méthodologie développée se veut pédagogique et transposable dans un prototype d'outil informatique fonctionnel. Une première version a été développée et utilisée pour appliquer notre processus d'aide à la décision à un cas réel de maison individuelle à rénover. Les premiers résultats obtenus sont cohérents et permettent de valider la démarche. Néanmoins, il faut garder à l'esprit que comme tout modèle utilisant des connaissances expertes, sa robustesse et la limite de validité de son périmètre d'application dépendent de la qualité du savoir métier capitalisé

    Conception intégrée par optimisation multicritère multi-niveaux d'un système d'actionnement haute vitesse pour l'avion plus électrique

    Get PDF
    Les avantages que présentent les systèmes électriques par rapport aux autres systèmes (mécaniques, hydrauliques et pneumatiques) ont permis d’intensifier l’électrification des systèmes embarqués à bord des aéronefs : c’est le concept d’avion plus électrique. Dans ce contexte, l’approche de conception intégrée par optimisation (CIO) de ces systèmes s’avère aujourd’hui une nécessité pour pouvoir répondre aux exigences en termes d’efficacité énergique, de fiabilité et de masse... Dans cette thèse, nous avons appliqué la CIO à une chaine de conversion électromécanique utilisée dans le système de conditionnement d’air d’un avion. Deux objectifs sont ciblés : la minimisation de la masse du système et l’augmentation de son efficacité énergétique. Ces objectifs sont intégrés à diverses contraintes hétérogènes, allant de la qualité réseau au respect de la mission de vol dans le plan couple – vitesse, en passant par la thermique,… Compte tenu de la complexité du système étudié et de son caractère multidisciplinaire, des approches de conception par optimisation dites « MDO » (pour Multidisciplinary Design Optimization) sont étudiées. En effet, au delà des compétences physiques et techniques, la conception intégrée par optimisation des systèmes complexes nécessite des efforts supplémentaires en termes de méthodologies de conception. Nous avons présenté dans cette thèse trois approches : Approches mono-niveau : séquentielle et globale ; Approche multi-niveaux, couplant niveaux système et niveau constituants (filtre, onduleur, machine) ; des formulations adaptées à notre problème de conception sont présentées afin de résoudre les problèmes liés aux optimisations mono-niveau. Les performances des différentes approches de conception sont présentées analysées et comparées. Les résultats obtenus montrent clairement les avantages que présente la formulation multi-niveaux par rapport aux approches classiques de conception

    Dispositifs géophysiques en laboratoire ondes de surfaces traitement d'antennes et haute densité spatiale

    Get PDF
    La sismique pétrolière est un domaine d'innovation continue depuis plus d'un siècle. Une part non négligeable des études concerne la séparation des différentes ondes se propageant dans le milieu exploré, en particulier les ondes de surface. A petite profondeur, les ondes de surfaces servent à la tomographie. Bien les connaître et les modéliser permet d'imager la proche surface. Quand la prospection est tournée vers les grandes profondeurs soit 95% de l'industrie géophysique - ces ondes masquent les ondes de volume qui contiennent les informations sur les couches profondes. Il est donc fondamental de pouvoir s'en affranchir et l'étape de séparation est des plus importantes. Les ondes de surface peuvent cependant être utilisées pour une meilleure connaissance de la proche surface, ce qui permet d'en déduire après coup des paramètres utilisables pour améliorer l'imagerie en profondeur. La recherche s'est renouvelée dans ce domaine du fait de l'impulsion récente donnée par l'imagerie sismique passive à partir du bruit sismique ambiant ou la mise en place de nouvelles géométries d'acquisition. En parallèle, l'étude des champs pétroliers existants pour une meilleure exploitation tend à se développer dans l'industrie. La maîtrise de l'imagerie 4D (3 dimensions d'espace + le temps, appliqués à la surveillance de réservoir) devient dès lors une activité clé pour la recherche dans laquelle les variations des paramètres du sous-sol sont estimées. Le travail de thèse réalisé est issu des constatations suivantes : - En dépit de travaux très riches, les ondes de surface représentent encore un sujet d'investigation important en exploration géophysique. - Les expérimentations à l'échelle du laboratoire restent relativement peu usitées en géophysiques, en particuliers pour des études impliquant un grand nombre de points de mesure. La première partie de la thèse a permis de valider un environnement de laboratoire adapté à l'étude des ondes de surfaces, en particulier la mise en évidence d'un mélange ondes de surface ondes de volume analogue à celui rencontré lors d' acquisitions terrestres. Ceci a pu être réalisé grâce à des gels d'Agar-agar de forte densité et la mise en place d'une chaine d'acquisition automatisée impliquant des réseaux de sources et de récepteurs denses. Une deuxième partie a permis de séparer les ondes de surface et les ondes de volume à l'aide de traitement d'antennes. Après séparation des ondes, il devient possible de suivre leurs variations de temps d'arrivées en présence de modification du milieu en surface et/ou en profondeur comme dans le cas d'une surveillance de réservoir en sismique pétrolière (4D). Une étude 4D complète a donc été réalisée, permettant de suivre non seulement les variations de temps d'arrivées mais également d'amplitude et de directions de départ et d'arrivées des ondes. Une méthode pour compenser les variations de vitesses parasites de la proche surface à été développée. Cette étude a été complétée par une étude issue de données terrains. Les profils de vitesse rencontrés sur le terrain font état de vitesses relativement faibles en surface. La conséquence en est que les différentes ondes de volume issues de la profondeur arrivent avec des angles d'incidences faibles et voisins les uns des autres. Les méthodes classiques de séparation d'ondes étant souvent inefficaces à ces angles, un chapitre a été consacré à l'étude des algorithmes de haute résolution dans le cadre de l'exploration sismique. Enfin, en tirant partie de la haute densité spatiale de points d'acquisitions rendue possible par l'environnement mise en place, une étude comparée de deux dispositifs - l'un théoriquement idéal mais peu réaliste et l'autre économiquement viable sur le terrain mais moins efficace - a permis de s'attaquer au problème des ondes réfléchies sur des diffractants en surface qui perturbent beaucoup les acquisitions actuelles. Une nouvelle solution de filtrage a été proposée pour le deuxième cas.Seismic exploration is a continuous innovation domain since more than one century. A significant part of the studies consists in separating the various waves propagating in the medium, especially surface waves. In the near-surface, surface waves are useful for tomography. Near-surface imaging becomes possible if they are well modelised. When exploration is dedicated to depth meaning more than 95% of the seismic exploration business the surface waves mainly hide body waves, which contains the informations related to the depth. Body and surface wave separation then becomes a fundamental task. In these situations, the surface waves can nevertheless be used to better know the near surface. It allows computing parameters usable to better the depth imaging. Research knew recent developments in this domain due to the recent impulsion given by the passive seismic imaging from ambient noise and the study of new acquisition designs with high spatial density. In parallel, the oil fields study for better exploitation is growing as a new industrial development axis. 4D (i.e. 3 spatial dilensions + time) imaging mastering becomes a key research activity, in which sub-surface parameters are estimated and monitored. This PhD thesis comes from the following remarks: - Despite rich works, surface waves are still an important research issue in seismic exploration. - Laboratory scale experiments know relatively few investigations, especially for high density acquisition design. The first step has been dedicated to the set up and the validation of a complete acquisition environment in the laboratory, adapted to surface wave study and high spatial density. Using Agar-agar phantoms, a mix of S body waves and Rayleigh surface waves comparable to the on-field P body waves and Rayleigh wave mix has been highlighted. Then, using array processing, wave separation has benne successfully demonstrated. After waves separation, it becomes possible to follow their arrival time variation in presence of surface and/or depth variation in the medium, as in reservoir monitoring conditions. A complete 4D study has been performed, allowing not only the arrival time monitoring but also amplitude and arrival and launch directions. A method has been proposed to compensate the near-surface spurious variations. An adaptation of the method on a field data set is then performed. Generally, velocity profiles on the field show weak velocities in the sub-surface. As a consequence, the various waves coming from the depth have weak and comparable incidences angles. Classical separation method using array processing are usually insufficient to work with such incidence angles set. For this reason, a complete part of this work has been dedicated to the study of high resolution algorithms in the frame of seismic exploration and their adaptation. At the end, taking advantage of the high spatial density allowed by the laboratory environment, a comparative study of two designs the first one theoretically ideal but somewhat unrealistic and the second one more viable economically but less efficient has been performed to address the scattered waves filtering issue. For the second design, a new filtering method has been proposed to enhance the scattered waves filtering.SAVOIE-SCD - Bib.électronique (730659901) / SudocGRENOBLE1/INP-Bib.électronique (384210012) / SudocGRENOBLE2/3-Bib.électronique (384219901) / SudocSudocFranceF

    Elaboration des nanocristaux de cellulose fonctionnalisés pour la vectorisation d’agents anticancéreux et pour la transfection de gènes

    Get PDF
    Targeting and drug delivery are major areas of research within the LCSN. Indeed, most of the active molecules used in cancer therapy are not very selective against tumors and are toxic to healthy cells. The development of nanobiomaterials able to specifically target tumors by EPR effect but also capable of destroying them by the action of the drug transported turns capital. In this work we achieved the binding of triphenylphosphonium cation (to target the mitochondria), hydrophobic active ingredients and a nucleic acid on cellulose nanocrystals issued from the acid hydrolysis of cotton. The first therapeutic platform synthesized according to the technique.La vectorisation et le ciblage d’agents anticancéreux représentent des axes de recherche majeurs au sein du LCSN. En effet, la plupart des molécules actives utilisées en thérapie anticancéreuse sont peu sélectives des tumeurs et sont toxiques pour les cellules saines. L’élaboration de nanobiomatériaux aptes à cibler spécifiquement les tumeurs par effet EPR mais également capables de les détruire par l’action de la drogue transportée s’avère capital. Le nanovecteur utilisé est élaboré à partir des nanocristaux de cellulose (CNCx) issus de l’hydrolyse acide du coton. Une première approche a consisté à élaborer la nanoplateforme thérapeutique suivant la technique
    corecore