Laboratoire de Physique Théorique
Thèses en ligne de l'Université Toulouse III - Paul SabatierNot a member yet
4458 research outputs found
Sort by
Lancer de photons multi-passes et écrasement de photons pour le rendu optronique
La simulation de l'éclairage par illumination globale a fait l'objet de nombreuses recherches et applications au cours des dernières années. Tout d'abord utilisée dans le domaine visible, la simulation est aujourd'hui de plus en plus appliquée au rendu infrarouge. On appelle optronique l'union de ces deux domaines. Le problème principal des méthodes d'illumination globale actuelles provient de la difficulté à traiter le phénomène de diffusion de la lumière, aussi bien dans le cas des surfaces que des milieux participants. Ces méthodes offrent des résultats satisfaisants dans le cas de scènes simples, mais les performances s'effrondrent lorsque la complexité augmente. Dans la première partie de cette thèse, nous exposons la nécessité de la prise en compte des phénomènes de diffusion pour la simulation optronique. Dans la deuxième partie nous posons les équations qui unifient les différentes méthodes de synthèse d'image, c'est à dire l'équation du rendu et l'équation volumique du transfert radiatif. L'état de l'art des méthodes d'illumination globale présenté dans la troisième partie montre qu'à l'heure actuelle la méthode des cartes de photons est celle qui offre le meilleur compromis performance/qualité. Néanmoins, la qualité des résultats obtenus grâce à cette méthode est dépendante du nombre de photons qui peuvent être stockés et donc de la quantité de mémoire disponible. Dans la quatrième partie de la thèse, nous proposons une évolution de la méthode, le lancer de photons multi-passes, qui permet de lever cette dépendance mémoire, et ainsi d'obtenir une très grande qualité sans pour autant utiliser une configuration matérielle onéreuse. Un autre problème de la méthode des cartes de photons est le temps de calcul important nécessaire lors du rendu de milieux participants. Dans la cinquième et dernière partie de cette thèse, nous proposons une méthode, l'écrasement de photons volumique, qui prend avantage de l'estimation de densité pour reconstruire efficacement la luminance volumique à partir de la carte de photons. Notre idée est d'isoler le calcul de la diffusion et d'utiliser une approche duale de l'estimation de densité pour l'optimiser car il constitue la partie coûteuse du calcul. Bien que les temps de rendu obtenus par notre méthode sont meilleurs que ceux obtenus en utilisant la méthode des cartes de photons pour la même qualité, nous proposons aussi une optimisation de la méthode utilisant les nouvelles capacités des cartes graphiques.Much research have been done on global illumination simulation. Firstly used in the visible spectrum domain, today, simulation is more and more applied to infrared rendering. The union of these two domains is called optronic. The main problem of the current global illumination methods comes from the complexity of the light scattering phenomena, as well for surfaces as for participating media. These methods offer satisfactory results for simple scenes, but performances crash when complexity raises. In the first part of this thesis, we expose the necessity to take scattering phenomena into account for optronic simulation. In the second part, we pose the equations that unify all global illumination methods, i.e. the rendering equation and the volume radiative tranfer equation. The state of the art presented in the third part shows that the Photon Mapping method is, at this moment, the one that offers the better compromise between performance and quality. Nevertheless, the quality of the results obtained with this method depends on the number of photons that can be stocked, and then on the available memory. In the fourth part, we propose an evolution of the method, called Multipass Photon Mapping, which permits to get rid of this memory dependency, and hence, to achieve a great accuracy without using a costly harware configuration. Another problem inherent to Photon Mapping, is the enormous rendering time needed for participating media rendering. In the fifth and last part of this thesis, we propose a method, called Volume Photon Splatting, which takes advantage of density estimation to efficiently reconstruct volume radiance from the photon map. Our idea is to separate the computation of emission, absorption and out-scattering from the computation of in-scattering. Then we use a dual approach of density estimation to optimize this last part as it is the most computational expensive. Our method extends Photon Splatting, which optimizes the computation time of Photon Mapping for surface rendering, to participating media, and then considerably reduce participating media rendering times. Even though our method is faster than Photon Mapping for equal quality, we also propose a GPU based optimization of our algorithm
Distribution spatiale des invertébrés benthiques du réseau hydrographique Adour-Garonne : modélisation et impact de l'anthropisation
L'analyse d'un grand nombre de travaux publiés décrivant la biodiversité à une échelle locale nous a permis de recenser 1093 espèces d'invertébrés benthiques provenant de 631 stations d'échantillonnage réparties dans l'ensemble du réseau hydrographique Adour-Garonne (sud-ouest de la France). La distribution spatiale de ces taxa dans le bassin donne lieu à des assemblages d'espèces à partir desquels nous proposons une biotypologie des cours d'eau. Cette classification révèle des différences longitudinales et géographiques de la composition des communautés à l'échelle régionale. Elle rend compte des différentes situations géomorphologiques rencontrées par les cours d'eau et fournit un cadre de référence utile à l'étude écologique comme à la gestion des cours d'eau d'un grand réseau hydrographique. L'eau douce constitue aussi une ressource pour les activités humaines. Les communautés d'invertébrés benthiques sont sensibles aux perturbation des cours d'eau et de leur environnement proche (utilisation des sols) qui modifient les gradients naturels de diversités spécifique et fonctionnelle. La directive européenne adoptée en 2000 définit un cadre pour la gestion, la préservation et la restauration des ressources en eau. Le grand réseau hydrographique y est clairement défini comme l'échelle d'étude adaptée. Ce travail montre qu'à cette échelle, la compréhension des écosystèmes aquatiques s'appuie nécessairement sur l'analyse d'un grand nombre d'études locales. Il souligne également l'intérêt des systèmes d'information géographique pour compiler et organiser les données écologiques et les rendre exploitables au moyen de techniques d'analyse multivariées adaptées.The analysis of a large number of published works describing biodiversity at local scales allowed us to identify 1093 species of benthic invertebrates from 631 sampling sites in the Adour-Garonne stream system (South-Western France). Macroinvertebrate distribution revealed spatial patterns in species assemblages from which we derived stream classifications. These classifications showed altitudinal and geographic differences in the specific composition of invertebrate communities reflecting the various physiographical situations encountered by streams at a regional scale. They also provide a useful framework for studying and managing streams in large geographic areas. In an economically developed area, water is a useful resource for many human activities. Macroinvertebrate communities are very sensitive to human modifications on streams and the surrounding land. These modifications induce changes in "natural" spatial patterns of specific and functional diversity. The EU Water framework directive adopted in 2000 (2000/60/EC) defines goals for management and protection of European surface waters in the next years. It clearly states that the best model for a single system of water management is management by river basin. Our work suggest that the understanding of aquatic ecosystems at a river basin scale necessarily relies on the analysis of a large number of local studies, the origin of which is generally diverse. It also emphasized the significance of geographic information systems to compile and organize biotic and abiotic data and make them exploitable through adapted multivariate analysis techniques
Induced transmembrane voltage and electropermeabilization of cells in cultures in vitro
Quand une cellule est exposée à un champ électrique externe, la tension électrique transmembranaire (ITV) est modifiée. Pendant l'exposition, l' ITV se superimpose au potentiel de repos (RTV) et quand la somme des deux tensions excède une valeur critique, la perméabilité de la membrane cellulaire augmente transitoirement localement . Ce phénomène est désigné comme electropermeabilisation. Dans beaucoup d'applications de l'electropermeabilisation une permeabilisation efficace et en même temps réversible est essentielle. Ainsi, une prédiction de l'expérience, qui implique l'évaluation de l'amplitude de l'ITV pour déclencher la permeabilisation, est exigée. Le problème est critique dans des tissus, où la géométrie cellulaire est plus compliquée, les cellules sont assez proches pour affecter le champ électrique autour d'elles et elles sont souvent connectées entre elles. Dans tous ces cas, une description analytique de l'ITV n'est en général pas accessible et des méthodes numériques sont ainsi souvent la seule approche envisageable. En raison de la complexité de la structure tissulaire, les modèles sont macroscopiques, et on ne considère pas la structure cellulaire détaillée, ou en cas des modèles microscopiques, les modèles sont construits utilisant des formes géométriques simples (des semi-sphères, des cubes). Pour mieux comprendre comment le champ électrique interagit avec des tissus, nous avons construit les modèles microscopiques réalistes de cellules irrégulièrement formées, des groupes de telles cellules et des suspensions denses. Le travail a alors été développé sur le plan expérimental au niveau de la cellule isolée. Les mesures de cinétique de transport de membrane ont montré que l'electropermeabilisation avec des amplitudes d'impulsion ou des durées d'impulsion progressivement croissantes conduit à des transports accrus dans des cellules. Une large augmentation a été observée dans les milisecondes après le début d'une impulsion, suivie par une augmentation de fluorescence progressive. Les résultats mesurés sur un intervalle de temps de 400 µ S ont révélé que le transport à travers la membrane permeabilisée ne peut être détecté que 100 µ S après le début de l'impulsion. En plus, une dynamique différente d'augmentation de fluorescence pendant et après l'impulsion a été observée.When a biological cell is exposed to an external electric field, induced transmembrane voltage (ITV) forms on its membrane. During the exposure, ITV superimposes to the native or resting transmembrane voltage (RTV) and when the sum of both voltages exceeds some threshold value, the permeability of the cell membrane in these regions transiently increases. This phenomenon is termed electropermeabilization. In many applications of electropermeabilization an efficient and at the same time reversible permeabilization is essential (e.g. DNA electrotransfer). Thus, a careful planning of the experiment, which involves the estimation of the amplitude of ITV leading to cell permeabilization, is required. The problem arises in case of tissues, where cell geometry is more complicated, cells are close enough to affect the electric field around each other, and they are often connected with pathways between them. In all these cases, an analytical description of ITV is in general not attainable and numerical methods are often the only feasible approach. Due to the complexity of tissue structure, numerical models are either macroscopic, where detailed cell structure is notconsidered, or in case of microscopic models, the models are constructed using simple geometrical shapes (semi-spheres, cubes). To better understand how the electric field interacts with tissues on a microscopic (single cell) level, which in turn determines the macroscopic behavior of the tissue, we constructed realistic microscopic models of irregularly shaped cells, clusters of such cells, and dense suspensions. Regarding the shape, density and connections between cells, these cell assemblies are in their complexity close to tissues. First, the amplitude of resting transmembrane voltage of cells used in the study was determined. Next, calculations of ITV were performed on models of single spherical, single attached cells, and cell clusters and they were compared to measurements of ITV on the same cells, from which the models were constructed. The course of electropermeabilization of these cells was then monitored and the results were compared with measurements and calculations of ITV. In a separate experiment, a detailed investigation of kinetics of molecular transport into cells after permeabilization was performed. Similarly, for dense cell suspensions, the ITV calculated on a model of suspension was compared with the fraction of permeabilized cells measured in suspensions with increasing cell densities. Measurements of resting transmembrane voltage (RTV) were performed by means of a slow potentiometric fluorescent dye TMRM on different cell lines in culture media and media with progressively decreasing conductivities. ITV was measured on single spherical cells, single irregularly shaped cells, and cell clusters with a fast potentiometric fluorescent dye di-8- ANEPPS. The cross-section fluorescence images of the same cells on which the measurements of ITV were performed, were used to construct realistic numerical models of cells and the ITV on these models was then calculated with finite elements method. Finitethickness, nonzero conductivity cell membrane in the model was replaced by a boundary condition in which a specific surface conductivity was assigned to the interface between the cell interior and the exterior. Electropermeabilization of cells was followed by monitoring thechanges in intracellular fluorescence of membrane-impermeant fluorescent dye Propidium Iodide. Measurements of RTV showed that in physiological conditions (cells in culture medium) and in the presence of pulsing buffer, RTV on investigated cell lines is low (between -4 and -35 mV for suspended cells and between -18 and -27 mV for attached cells). Therefore, in experiments involving electropermeabilization ITV can be used as a rough approximate of the total voltage on the membrane, while RTV can be neglected. RTV in cells in media with decreasing conductivities gradually decreased, but less than expected from theoretical calculations. This was partly attributed to overestimated intracellular concentration of potassium. However, it is also possible that the method for measuring RTV, although reported as efficient, was not suitable for these experiments. Measurements of ITV on single spherical cells, single attached cells, and cell clusters were in qualitative agreement with results of numerical calculations, while in some cases discrepancies in measured and calculated amplitudes could be observed. This was attributed to variations of the slope of calibration curve, the differences between the actual and implemented parameters of the model, physiological state of cells, and experimental setup. In addition, we observed that at pulse parameters used in measurements of ITV, cells in clusters behaved as electrically connected, i.e. a cluster acted as one giant cell. Numerical calculations on models of cells where cell membrane was replaced with a boundary condition resulted in considerably lower number of mesh elements and consequently shorter time needed to solve the problem. We also demonstrated that calculations of ITV on simplified models of irregularly shaped cells can lead to considerable deviations from ITV calculated on a realistic model. Electric field orientation affects the amplitude and distribution of calculated ITV and consequently permeabilization. Namely, cells oriented with their longer axis parallel to the field are more likely to get permeabilized than the same cells oriented perpendicularly to the field. Comparison of measured and calculated ITVs with observations of electropermeabilization on single spherical and single attached cells confirmed that permeabilization occurs in those regions of the membrane, where the absolute value of ITV is the highest (the regions facing the electrodes). Additional experiments performed on single spherical cells showed that during and immediately after the pulse, the fluorescence from cells increases asymmetrically if unipolar pulses were delivered, while symmetrical fluorescence was observed for bipolar pulses. These observations were attributed to electrophoretical effect of the pulse. On a longer time scale, asymmetry in fluorescence was still observed, even for bipolar pulses, and we did not find any reasonable explanation for that. Critical value of ITV, at which permeabilization occurs, was calculated from the polar angle of permeabilization measured immediately after the pulse and was found to be approximately 450 mV, in agreement with reported critical thresholds. Permeabilization results obtained on cell clusters showed that cells in clusters, atpulse parameters used in these experiments, behaved as electrically insulated and were permeabilized individually. This is in contradiction to what we observed during measurements of ITV (i.e. with longer, low voltage pulses), where cells in clusters behaved as electrically connected, and was assumed to be the result of opening and closing of gap junctions at different pulse parameters. Measurements of kinetics of membrane transport showed that electropermeabilization with progressively increasing pulse amplitudes or pulse durations results in increased dye transport into cells. A sharp increase was observed miliseconds after the onset of a pulse, followed by a moderate additional fluorescence increase. Results measured on a time interval of 400 µs revealed that the transport across the permeabilized membrane can be detected within 100 µs after the onset of the pulse. Besides, different dynamics of fluorescence increase was observed during and immediately after the pulse. Experiments carried out on dense cell suspensions showed that with increasing cell density (from 10×106 cells/ml to 400×106 cells/ml) the fraction of permeabilized cells decreased by approximately 50%. We attributed this to the changes in the local electric field, which lead to a decrease in the amplitude of ITV. The uptake of Propidium Iodide also decreased with cell density, but by a larger amount than expected from permeabilization results. We supposed that the additional decrease in fluorescence was mainly due to cell swelling after permeabilization, which reduced extracellular dye availability to the permeabilized membrane and hindered the dye diffusion into the cells. Resealing of cells appeared to be slower in dense suspensions, which can also be attributed to cell swelling resulting from electropermeabilization
Etude du rôle des polykétides mycobactériens dans la biogénèse de l'enveloppe et la virulence des mycobactéries : caractérisation de l'étape de condensation des acides mycoliques
Certaines mycobactéries sont responsables à l'heure actuelle et depuis l'antiquité de pathologies infectieuses graves comme la tuberculose, résultante d'une infection par Mycobacterium tuberculosis. En dépit d'une médecine efficace liée à l'avènement des antibiotiques, cette infection bactérienne est à l'échelle mondiale, la première cause de mortalité due à un agent infectieux. Deux millions de décès seraient annuellement liés à cette pathologie selon les données de l'organisation mondiale de la santé (OMS, 2002). La tuberculose est un véritable fléau dans la majorité des pays en voie de développement où son endémie corrèle celle liée à l'épidémie du VIH, et le nombre de tuberculeux recensé en Europe comme dans d'autres pays développés reste non négligeable. La pathogénie du bacille tuberculeux laisse apparaître un équilibre quasi-parasitique avec un tiers de la population mondiale infectée. L'apparition de souches multi-résistantes aux chimiothérapies actuelles inquiète le milieu médical en réduisant le nombre de médicaments disponibles. Une stratégie de prise en charge mondiale par l'OMS a récemment été adoptée pour tenter d'endiguer l'épidémie de tuberculose. En parallèle, des efforts en recherche fondamentale et clinique sont entrepris afin de décortiquer la pathogénie du bacille tuberculeux pour mieux le combattre. Dans cet objectif, le séquençage récent de son génome a représenté une avancée majeure. Il dévoile notamment 250 gènes relatifs à la biosynthèse lipidique, soit cinq fois plus que chez E.coli, dont 24 coderaient des polykétides synthases (Pks). Ces enzymes sont sources de molécules complexes souvent biologiquement actives, dont la toxine de Mycobacterium ulcerans, la mycolactone, est particulièrement représentative chez les mycobactéries. Récemment, nombre de produits de polykétides synthases se sont révélés être des composantes de l'enveloppe de Mycobacterium tuberculosis. Cette enveloppe représente une arme remarquable pour le bacille tuberculeux tant par la barrière d'imperméabilité qu'elle constitue que par ses propriétés immunologiques vraisemblablement impliquées dans sa résistance à l'immunité de l'hôte. L'approche génétique abordée dans ce travail a permis d'évaluer la contribution des différents polykétides mycobactériens dans la virulence de M.bovis BCG et M.tuberculosis en modèle murin. De plus, nous avons pu caractériser la fonction d'un locus comprenant la polykétide synthase 13 ainsi qu'une acyl-AMP synthase et une acyl-coA carboxylase dans la dernière étape de la biosynthèse des acides mycoliques, lipides majeurs de l'enveloppe mycobactérienne et essentiels pour la survie des mycobactéries. Ainsi, les enzymes caractérisées dans ce travail constituent des cibles de choix pour le développement de nouveaux antituberculeux.Since the antiquity, mycobacteria have been involved in lethal pathology such as leprosy or tuberculosis, the latter caused by Mycobacterium tuberculosis and the former by Mycobacterium leprae. Despite modern medicine including antibiotics, tuberculosis keep on being the first cause of mortality due to a single infectious agent with an average of two millions deaths per year, according to the world health organisation (WHO, 2002). Tuberculosis is a real plague in the majority of developping countries where its endemy correlates those of the HIV epidemy. Furthermore the number of tuberculosis patient number in Europe as well as in other developping countries is still not negligible. Moreover, the emergence of strains resistant to the currently used antibiotics is worrying the medical profession by reducing avalaible active molecules. Without the huge mortality associated with tuberculosis, this disease would be considered as a parasitic infection regarding the estimated number of infected but asymptomatic people (around 33% of the world population). Recently, the WHO has initiated a global approach to control the epidemy. In parallel, efforts in fondamental and clinical investigation are ongoing to understand tuberculosis pathogeny and to developp new clinical tools. Recently, the entire genome of M.tuberculosis was sequenced. It revealed 250 genes related to lipid biosynthesis, which represents a considerable involvment regarding the approximativly 50 genes found in E.coli genome. Remarkably 24 of this 250 genes encode polyketide synthase (Pks). In other bacteria, these enzymes are known to produce complex molecules with pharmaceutical interest. In mycobacteria, the mycolactone, is a potent toxin produced by Mycobacterium ulcerans. Recently, numerous polyketides has been shown to be components of the M.tuberculosis envelop. This envelop represents a powerfull weapon for the tuberculous bacillus constituting a permeability barrier and delivering immunological advantages. The genetic approach used in this work allowed us to evaluate the contribution of the various polyketides in the virulence of M.bovis BCG and M.tuberculosis in a mouse model. Furthermore, we caracterised the fonction of the locus including the polyketide synthase 13, an acyl-AMP synthase and an acyl-coA carboxylase in the last step of mycolic acid biosynthesis. Mycolic acids are major constituent of the mycobacterial cell envelop and are essential for mycobacterial viability, therefore the enzymes caracterised in the second part of this work constitutes promising targets for developping new antituberculous drugs
Caractérisation physico-chimique des interactions métaux-diatomées
Cette étude expérimentale a consisté en la caractérisation de l'interaction entre les métaux et les parois
cellulaire des diatomées. Une approche combinant des mesures spectroscopiques, IR et XPS, avec des
titrages acido-basiques et des déterminations de mobilité électrophorétiques, ont permis l'élaboration
d'un modèle thermodynamique de surface des diatomées. La complexation des cations métalliques,
Zn2+, Cd2+, et Pb2+ sur les parois cellulaires a été déterminée par des expériences d'adsorption en
fonction du pH et de la concentration en métal et a permis de développer un modèle de complexation
surfacique. Il indique que i) le frustule siliceux intervient très peu dans les processus d'adsorption ii) la
complexation des métaux s'effectue principalement sur les groupes carboxyliques de la surface en
accord avec les mesures XAFS effectuées pour l'adsorption du zinc. Des mesures d'isotopie du zinc
ont mis en évidence un fractionnement induit par les diatomées.The aim of this experimental study was to characterize the interactions between metals and diatom cell
walls. Spectroscopic measurements, FT-IR and XPS, in combination with titrations and electrokinetic
experiments allowed the construction of a surface thermodynamic model for diatoms. Complexation
between metal cations Zn2+, Cd2+, Pb2+ and diatom cell walls were investigated by adsorption
experiments as a function of pH and a surface complexation model was developed. It indicates i) that
siliceous frustule plays a minor rule during adsorption process and ii) metal complexation is governed
by carboxylic groups from the surface in agreement with XAFS determination for zinc adsorption.
Isotopic measurements for zinc indicate an isotopic fractionation induced by diatom cells
Structures de Hodge mixtes et fibrés sur le plan projectif complexe
Le développement de la théorie de Hodge a permis une compréhension plus profonde de nombreux invariants topologiques dans le cadre de la géométrie algébrique complexe. Dans ce travail de thèse, nous nous proposons de géométriser la notion de structure de Hodge mixte (SHM). Dans ce but, nous généralisons la construction de Rees et son inverse qui permettent d'associer anneaux gradués et anneaux filtrés par une chaîne d'idéaux. Nous établissons des équivalences entre catégories d'espaces vectoriels filtrés munies de morphismes strictement compatibles et catégories de faisceaux cohérents équivariants pour l'action d'un tore. Le fait que des filtrations soient opposées se traduit géométriquement par une condition de semi-stabilité forte des fibrés associés. Cette correspondance est appliquée pour exhiber une équivalence entre la catégorie des SHMs et une catégorie de fibrés vectoriels semi-stables sur le plan projectif complexe. Nous vérifions que cette dernière catégorie est abélienne, ce qui nous donne donc une démonstration géométrique du fait que la catégorie des SHMs est abélienne, un des points de départ de la théorie de Hodge mixtes, démontré par P.Deligne. Un nouvel invariant des SHMs, le niveau de R-scindement, est alors défini et ses propriétés sont étudiées. Cet invariant est calculé pour des SHMs sur les premiers groupes de cohomologie de courbes de genre 0 et 1 possiblement singulières et non-complètes. Nous étudions aussi une version relative de la correspondance pour l'appliquer aux variations de SHMs. Cette correspondance ne fonctionne que modulo une stratification adéquate de la baseHodge theory has provided a deeper understanding of many topological invariants in complex algebraic geometry. The proposal of this thesis is to find a geometric equivalent of mixed Hodge structures (MHSs). Therefore, we generalize a construction by Rees that associates a graded ring to a ring filtered by a chain of ideals. This allows us to establish equivalences between categories of filtered vector spaces endowed with morphisms that are strictly compatible and categories of coherent sheaves that are equivariant for the action of a torus. The fact that filtrations are opposed translates into a strong semistability condition for the associated vector bundles. The equivalence is next applied to MHSs and yields an equivalence between the category of MHSs and a category of semistable vector bundles on the complex projective plane. This last category is shown to be Abelian, which provides a geometric proof that the category of MHSs is Abelian. We next define a new invariant of MHSs, the R-split level, and study its properties. We compute this invariant for singular and non-complete curves of genus 0 and 1. We study a relative version of the equivalence, which aims at describing variations of MHSs geometrically. This correspondence only works provided a good stratification of the base is chosen
Modélisation de l'aérosol carboné : cas particulier des particules fractales de combustion
Depuis une trentaine d'années environ, les pays industrialisés pnt pris conscience des risques pour l'avenir de notre atmosphère si rien n'était entrepris pour modifier notre comportement vis à vis de l'environnement. A cet égard, l'étude des particules d'aérosols est nettement en retard par rapport à celle de la phase gazeuse. Elle est en effet beaucoup plus complexe par rapport à la phase gazeuses de l'atmosphère : sources et distributions spatio-temporelles plus localisées, nécessaire traitement à la fois de leur granulométrie et de leur chimie, chimie hétérogène de surfaces "imparfaites et sales" (compte tenu des nombreuses espèces chimiques présentes dans l'atmosphère), intégration dans leur composition des caractéristiques chimiques des divers milieux rencontrés lors de leur transport, etc. . . Par ailleurs, des bases de données expérimentales existent, parfois très détaillées localement, souvent peu documentées quant aux distributions spatiales. Les réseaux de mesures commencent à peine à intégrer les particules dans leur indice de qualité de l'air (indice ATMO en France), sous la forme de normes telles que PM2. 5 (masse des particules de diamètre inférieur à 2. 5 μm) ou PM10. Une première partie sera consacrée à une synthèse bibliographique sur l'aérosol carboné ; une analyse de sa composition, de sa structure et de son comportement physico-chimique sera évoquée. Cette partie préparera un deuxième chapitre, dédié à l'élaboration et à la présentation d'outils numériques permettant de décrire l'ensemble des processus chimiques et microphysiques en jeu. Il sera notamment question de modéliser la formation d'espèces secondaires condensables, formées par photooxydation dans l'atmosphère (transferts Gaz/particule). Une approche novatrice de l'aérosol, prenant en compte la morphologie des particules, sera proposée. En effet, la communauté scientifique a décrit jusqu'à présent les différents processus en considérant des particules sphériques. Bien que cette approche soit classique pour la formulation des processus, il nous a paru important d'introduire un paramètre fractal de morphologie dans la description de ces processus. En effet, nous verrons que l'aire d'échange gaz/particules est d'une importance capitale dans les processus de chimie hétérogène (absorption, catalyse de surface, etc. . . ). Le paramètre de dimension fractale permet ainsi de quantifier le rapport surface/volume des particules. L'importance de la contribution des sources mobiles sur la charge totale de matière particulaire en zone urbaine, nous a amené à étudier l'évolution des particules émises par un véhicule. Dans des conditions réelles d'émission, le modèle de particules fractales permet de suivre l'evolution des particules (compositions, tailles, etc. . . ) du pot d'échappement vers le milieu ambiant. Nous verrons en effet que les particules de combustion sont particulièrement bien décrites par l'approche fractale. Des analyses de sensibilité seront présentées. L'impact de la teneur en souffre des carburants sera notamment analysé, qui permettra d'expliquer l'apparition, observée par certains auteurs, de nanoparticules à l'échappement. Au vu de ces effets néfastes sur les systèmes catalytiques, le soufre est impliqué dans les futures régulations des carburants d'ici à 2004 en Europe et aux États-Unis.In the last three decades, industrialized countries have become aware of the risks to the future of our atmosphere if nothing was done to change our behaviours on our environment. In this perspective, the study of the airborne aerosol particles is clearly lagging behind that of the gas phase. Processes are indeed much more complex compared to the gaseous phase: sources, spatial and temporal distributions more localized, necessary treatment of both their particle size and chemistry, heterogeneous chemistry of "imperfect and dirty" surfaces (considering the many chemical species present in the atmosphere), integration of the chemical characteristics into their composition of the various media encountered during their transport, etc. . . Measurement networks are only just starting to implement particles into their strategy and air quality index (ATMO index in France); standards such as PM2.5 (mass of particles smaller than 2.5 μm) or PM10 have been then defined. The first part of this research work is devoted to a bibliographic synthesis on the carbonaceous aerosol; an analysis of its composition, structure and physico-chemical behaviour is discussed. This section introduces a second chapter, dedicated to the development and presentation of numerical tools to describe all chemical and microphysical processes involved. The formation of condensable secondary species is particularly discussed, they are produced by photooxidation in the atmosphere (gas / particle transfers). An innovative aerosol modelling approach, considering particle morphology, is proposed. Indeed, the scientific community has described up to now the different processes assuming spherical particles. Although this approach is classic for the formulation of processes, it seemed important to introduce a fractal morphology parameter into the description of these processes. Indeed, we see that the gas / particle exchange surface is of major importance for heterogeneous chemistry processes (absorption, surface catalysis, etc.). The fractal dimension parameter thus makes it possible to quantify the surface / volume ratio of particles. The importance of mobile sources contribution on the total load of particulate matter in urban areas has driven us to study the evolution of particles emitted by a single vehicle. In actual emission conditions, the fractal particle model tracks the evolution of the particles (compositions, sizes, etc…) from the exhaust pipe to the ambient environment. We observe that combustion particles are particularly well described by the fractal approach. Sensitivity analyses are presented. The impact of the sulphur content of fuels is analysed, which will explain the outbreak of nanoparticles at the exhaust, phenomenon observed by some authors. Due to these adverse effects on catalytic systems, sulphur is involved in future fuel regulations by 2004 in Europe and the United States
Sur la prévision de la qualité des prévisions météorologiques
Dans les modèles météorologiques, l'hypothèse d'évolution linéaire des erreurs d'estimation permet d'emprunter au filtre de Kalman étendu l'équation d'évolution des covariances d'erreur, afin d'estimer l'incertitude des prévisions. Dans un modèle barotrope, l'évolution des covariances d'erreur peut s'interpréter en termes de dynamique (instabilité et modes optimaux en particulier) si l'on réécrit l'équation correspondante sous forme adjointe. Cette forme adjointe permet en outre de calculer des covariances d'erreur de prévision pour un coût numérique réduit. La représentation conjointe des effets de la prévision et des observations dans un système d'assimilation séquentielle permet de montrer que, malgré les problèmes de modélisation que soulève la méthode, les covariances d'erreur de prévision contiennent une information sur la dynamique, qui permettrait d'améliorer l'utilisation des données. Cela ne serait possible en pratique qu'en utilisant des approximations numériques à l'algorithme utilisé. Enfin, les concepts de technique adjointe et de covariances d'erreurs de prévision sont illustrés dans trois problèmes : la méthode des incréments de prévision, les sentinelles, et l'assimilation de l'humidité du sol