96 research outputs found

    Measuring the effect of node aggregation on community detection

    Full text link
    Many times the nodes of a complex network, whether deliberately or not, are aggregated for technical, ethical, legal limitations or privacy reasons. A common example is the geographic position: one may uncover communities in a network of places, or of individuals identified with their typical geographical position, and then aggregate these places into larger entities, such as municipalities, thus obtaining another network. The communities found in the networks obtained at various levels of aggregation may exhibit various degrees of similarity, from full alignment to perfect independence. This is akin to the problem of ecological and atomic fallacies in statistics, or to the Modified Areal Unit Problem in geography. We identify the class of community detection algorithms most suitable to cope with node aggregation, and develop an index for aggregability, capturing to which extent the aggregation preserves the community structure. We illustrate its relevance on real-world examples (mobile phone and Twitter reply-to networks). Our main message is that any node-partitioning analysis performed on aggregated networks should be interpreted with caution, as the outcome may be strongly influenced by the level of the aggregation.Comment: 12 pages, 5 figure

    Mercury (Hg) in meteorites: variations in abundance, thermal release profile, mass-dependent and mass-independent isotopic fractionation

    Full text link
    We have measured the concentration, isotopic composition and thermal release profiles of Mercury (Hg) in a suite of meteorites, including both chondrites and achondrites. We find large variations in Hg concentration between different meteorites (ca. 10 ppb to 14'000 ppb), with the highest concentration orders of magnitude above the expected bulk solar system silicates value. From the presence of several different Hg carrier phases in thermal release profiles (150 to 650 {\deg}C), we argue that these variations are unlikely to be mainly due to terrestrial contamination. The Hg abundance of meteorites shows no correlation with petrographic type, or mass-dependent fractionation of Hg isotopes. Most carbonaceous chondrites show mass-independent enrichments in the odd-numbered isotopes 199Hg and 201Hg. We show that the enrichments are not nucleosynthetic, as we do not find corresponding nucleosynthetic deficits of 196Hg. Instead, they can partially be explained by Hg evaporation and redeposition during heating of asteroids from primordial radionuclides and late-stage impact heating. Non-carbonaceous chondrites, most achondrites and the Earth do not show these enrichments in vapor-phase Hg. All meteorites studied here have however isotopically light Hg ({\delta}202Hg = ~-7 to -1) relative to the Earth's average crustal values, which could suggest that the Earth has lost a significant fraction of its primordial Hg. However, the late accretion of carbonaceous chondritic material on the order of ~2%, which has been suggested to account for the water, carbon, nitrogen and noble gas inventories of the Earth, can also contribute most or all of the Earth's current Hg budget. In this case, the isotopically heavy Hg of the Earth's crust would have to be the result of isotopic fractionation between surface and deep-Earth reservoirs.Comment: 43 Pages, 9 Figures. Accepted for publication in Geochimica et Cosmochimica Act

    Lead Isotopic Composition of Fly Ash and Flue Gas Residues from Municipal Solid Waste Combustors in France: Implications for Atmospheric Lead Source Tracing.

    No full text
    Fly ash and flue gas residues from eight municipal solid waste combustors (MSWC) in France (1992-93 and 1998/2002) were analyzed for their Pb isotopic composition. Fly ashes are more representative of solid residual particles, whereas flue gas residues reflect mostly the composition of gas phases. Both sample types contain hundreds to thousands of micrograms of metals per gram. Leaching experiments showed that metals are present in condensed phases, probably as sulfates and chlorides, and suggest that Cd, Pb, and Zn are highly fractionated from one another during volatilization/condensation processes occurring during combustion. Although all the samples analyzed define a fairly restricted range in Pb isotopic compositions (206Pb/207Pb = 1.148-1.158 and 208Pb/206Pb = 2.101-2.114) compared to other environmental samples, some MSWC produce materials having distinct isotopic compositions, whereas others display very similar ones. Isotopic heterogeneity is also measured between samples from a single MSWC. This is interpreted as resulting from the heterogeneity of the waste source materials. The range of Pb isotopic composition of incinerator materials form a well-defined linear array in the 208Pb/206Pb versus 206Pb/207Pb diagram. This array is compatible with the previously reported European standard pollution (ESP) line and most probably represent the average lead isotopic composition of industrial atmospheric emissions in France, with the following ratios: 206Pb/207Pb = 1.154 ± 0.003 and 208Pb/206Pb = 2.107 ± 0.003 (1)

    Comment on “The biosphere: A homogeniser of Pb-isotope signals” by C. Reimann, B. Flem, A. Arnoldussen, P. Englmaier, T.E. Finne, F. Koller and Ø. Nordgulen

    Get PDF
    Reimann et al. (2008) recently published a study on Pb-isotope signature along a 120 km long transect cutting the city of Oslo. Based on concentration but also isotope data, they misinterpret Pb concentration of the biosphere in rural places and explain these large enrichments of Pb as being due to natural processes. The study ignores numerous previous studies either on local, regional or global scales (see reviews by Shotyk and Le Roux, 2005 and Callender, 2003, and references therein), which clearly demonstrate that anthropogenic Pb emitted in the atmosphere from different sources (leaded gasoline, coal burning, metallurgy, etc.) was and is dispersed worldwide. The study also ignores work on Norway by the Steinnes and colleagues group (Harmens et al., 2008, Steinnes et al., 2005a, Steinnes et al., 2005b and Åberg et al., 2004), and measurements and modelling by the EMEP network (www.emep.int/, EMEP, 2005). The study also neglects numerous works on preanthropogenic Pb deposition rate and isotopic signature using continental archives of atmospheric deposition like peat bogs (Shotyk et al., 1998, Klaminder et al., 2003, Kylander et al., 2005 and Le Roux et al., 2005). These studies have shown that preanthropogenic Pb atmospheric deposition rate and its Pb isotopic signature is regionally defined, but also that those signals are negligible compared to past 2 ka and recent Pb atmospheric fluxes (Table 1)

    Inter-calibration of a proposed new primary reference standard AA-ETH Zn for zinc isotopic analysis

    Get PDF
    We have prepared a large volume of pure, concentrated and homogenous zinc standard solution. This new standard solution is intended to be used as a primary reference standard for the zinc isotope community, and to serve as a replacement for the near-exhausted current reference standard, the so-called JMC-Lyon Zn. The isotopic composition of this new zinc standard (AA-ETH Zn) has been determined through an inter-laboratory calibration exercise, calibrated against the existing JMC-Lyon standard, as well as the certified Zn reference standard IRMM-3702. The data show that the new standard is isotopically indistinguishable from the IRMM-3702 zinc standard, with a weighted d66/64Zn value of 0.28±0.02‰ relative to JMC-Lyon. We suggest that this new standard be assigned a value d66/64Zn of +0.28‰ for reporting of future Zn isotope data, with the rationale that all existing published Zn isotope data are presented relative to the JMC-Lyon standard. Therefore our proposed presentation allows a direct comparison with all previously published data, and that is directly traceable to a certified reference standard, IRMM-3702 Zn. This standard will be made freely available to all interested labs through contact with the corresponding author

    Optimiser l'utilisation des données en reconstruction TEP: modélisation de résolution dans l'espace image et contribution à l'évaluation de la correction de mouvement

    No full text
    Cancers et maladies cardio-vasculaires sont responsables de plus de 40 % des décès dans le monde. De nombreuses personnes souffrent par ailleurs quotidiennement de ces maladies. En réduire la fréquence dans le futur passe avant tout par une adaptation de notre mode de vie et une prévention accrue, éclairées par une connaissance plus approfondie des mécanismes de ces maladies. Il est également crucial d'améliorer les diagnostics et les traitements actuels afin de mieux prendre en charge les malades d'aujourd'hui et de demain.Lorsque le tableau clinique présenté par un patient n'est pas clair, de nombreuses techniques d'imagerie médicale permettent d'affiner le diagnostic, de préciser le pronostic et de suivre l'évolution des maladies au cours du temps. Ces mêmes techniques sont également utilisées en recherche fondamentale pour faire progresser la connaissance du fonctionnement normal et pathologique du corps humain. Il s'agit par exemple de l'échographie, de l'imagerie par résonance magnétique, de la tomodensitométrie à rayons X ou encore de la tomographie par émission de positrons (TEP).Certaines de ces techniques mettent en évidence le métabolisme de molécules, comme le glucose et certains acides aminés. C'est le cas de la tomographie par émission de positrons, dans laquelle une petite quantité de molécules marquées avec un élément radioactif est injectée au patient. Ces molécules se concentrent de préférence dans les endroits du corps humain où elles sont utilisées. Instables, les noyaux radioactifs se désintègrent en émettant un anti-électron, encore appelé positron. Chaque positron s'annihile ensuite à proximité du lieu d'émission avec un électron du corps du patient, provoquant l'émission simultanée de deux photons de haute énergie dans deux directions opposées. Après avoir traversé les tissus, ces photons sont captés par un anneau de détecteurs entourant le patient. Sur base de l'ensemble des événements collectés, un algorithme de reconstruction produit enfin une image de la distribution du traceur radioactif.La tomographie par émission de positrons permet notamment d'évaluer l'efficacité du traitement des tumeurs avant que la taille de celles-ci n'ait changé, ce qui permet d'aider à décider de poursuivre ou non le traitement en cours. En cardiologie, cette technique permet de quantifier la viabilité du muscle cardiaque après un infarctus et aide ainsi à évaluer la pertinence d'une intervention chirurgicale.Plusieurs facteurs limitent la précision des images TEP. Parmi ceux-ci, on trouve l'effet de volume partiel et le mouvement du coeur.L'effet de volume partiel mène à des images floues, de la même manière qu'un objectif d'appareil photo incorrectement mis au point produit des photographies floues. Deux possibilités s'offrent aux photographes pour éviter cela :soit améliorer la mise au point de leur objectif, soit retoucher les images après les avoir réalisées ;améliorer la mise au point de l'objectif peut s'effectuer dans l'espace des données (ajouter une lentille correctrice avant l'objectif) ou dans l'espace des images (ajouter une lentille correctrice après l'objectif).Le mouvement cardiaque provoque également une perte de netteté des images, analogue à l'effet de flou sur une photographie d'une voiture de course réalisée avec un grand temps de pose. Classiquement, on peut augmenter la netteté d'une image en diminuant le temps de pose. Cependant, dans ce cas, moins de photons traversent l'objectif et l'image obtenue est plus bruitée.On pourrait alors imaginer obtenir de meilleurs images en suivant la voiture au moyen de l'appareil photo. De cette manière, la voiture serait à la fois nette et peu corrompue par du bruit, car beaucoup de photons pourraient être détectés.En imagerie TEP, l'effet de volume partiel est dû à de nombreux facteurs dont le fait que le positron ne s'annihile pas exactement à l'endroit de son émission et que le détecteur frappé par un photon n'est pas toujours correctement identifié. La solution passe par une meilleure modélisation de la physique de l'acquisition au cours de la reconstruction, qui, en pratique est complexe et nécessite d'effectuer des approximations.La perte de netteté due au mouvement du coeur est classiquement traitée en figeant le mouvement dans plusieurs images successives au cours d'un battement cardiaque. Cependant, une telle solution résulte en une diminution du nombre de photons, et donc en une augmentation du bruit dans les images. Tenir compte du mouvement de l'objet pendant la reconstruction TEP permettrait d'augmenter la netteté en gardant un bruit acceptable. On peut également penser à superposer différentes images recalées au moyen du mouvement.Au cours de ce travail, nous avons étudié des méthodes qui tirent le meilleur parti possible des informations fournies par les événements détectés. Pour ce faire, nous avons choisi de baser nos reconstructions sur une liste d'événements contenant la position exacte des détecteurs et le temps exact d'arrivée des photons, au lieu de l'histogramme classiquement utilisé.L'amélioration de résolution passe par la connaissance de l'image d'une source ponctuelle radioactive produite par la caméra.À la suite d'autres travaux, nous avons mesuré cette image et nous l'avons modélisée, pour la première fois, au moyen d'une fonction spatialement variable, non-gaussienne et asymétrique. Nous avons ensuite intégré cette fonction dans un algorithme de reconstruction, dans l'espace image. C'est la seule possibilité pratique dans le cas d'acquisitions en mode liste. Nous avons ensuite comparé les résultats obtenus avec un traitement de l'image après la reconstruction.Dans le cadre de la correction de mouvement cardiaque, nous avons opté pour l'étude de la reconstruction simultanée de l'image et du déplacement, sans autres informations externes que les données TEP et le signal d'un électrocardiogramme. Nous avons ensuite choisi d'étudier la qualité de ces estimateurs conjoints intensité-déplacement au moyen de leur variance. Nous avons étudié la variance minimale que peut atteindre un estimateur conjoint intensité-mouvement, sur base des données TEP uniquement, au moyen d'un outil appelé borne de Cramer-Rao. Dans ce cadre, nous avons étudié différentes manières existantes d'estimer la borne de Cramer-Rao et nous avons proposé une nouvelle méthode d'estimation de la borne de Cramer-Rao adaptée à des images de grande dimension. Nous avons enfin mis en évidence que la variance de l'algorithme classique OSEM était supérieure à celle prédite par la borne de Cramer-Rao. En ce qui concerne les estimateurs combinés intensité-déplacement, nous avons observé la diminution de la variance minimale possible sur les intensités lorsque le déplacement était paramétrisé sur des fonctions spatiales lisses.Ce travail est organisé comme suit. Le chapitre théorique commence par brosser brièvement le contexte historique de la tomographie par émission de positrons. Nous avons souhaité insister sur le fait que l'évolution des idées n'est romantique et linéaire qu'à grande échelle. Nous abordons ensuite la description physique de l'acquisition TEP. Dans un deuxième chapitre, nous rappelons quelques éléments de la théorie de l'estimation et de l'approximation et nous traitons des problèmes inverses en général et de la reconstruction TEP en particulier.La seconde partie aborde le problème du manque de netteté des images et la solution que nous avons choisi d'y apporter :une modélisation dans l'espace image de la réponse impulsionnelle de la caméra, en tenant compte de ses caractéristiques non gaussienne, asymétrique et spatialement variable. Nous présentons également le résultat de la comparaison avec une déconvolution post-reconstruction. Les résultats présentés dans ce chapitre ont fait l'objet d'une publication dans la revue Physics in Medicine and Biology.Dans un troisième volet, nous abordons la correction de mouvement. Une premier chapitre brosse le contexte de la correction de mouvement en TEP et remet en perspective les différentes méthodes existantes, dans un cadre bayésien unificateur.Un second chapitre aborde ensuite l'estimation de la qualité des images TEP et étudie en particulier la borne de Cramer-Rao.Les résultats obtenus sont enfin résumés et replacés dans leur contexte dans une conclusion générale.Doctorat en Sciences de l'ingénieurinfo:eu-repo/semantics/nonPublishe

    Géochimie élémentaire et isotopique des métaux lourds : applications environnementales en tissu urbain et industriel

    No full text
    In 2001, an urban waste incinerator equipped for power recuperation (UVE) was installed in the city of Metz. Samples of the UVE effluents were collected to characterize the mineralogical, chemical and isotopic behaviour of the metals and their environmental impact. Excess concentrations of the heavy metals as well as heavy Cd and Zn isotopes enrichment are found in the Trémie 2 ashes. Such an enrichment can be explained by kinetic fractionation during the condensation process. Elemental and isotopic analyses of epiphytic lichens, collected from Metz and the surrounding area before the UVE, were used to construct an urban atmospheric fall-out map and the evolution 2 years after. The application of Cd isotopes to an area polluted by a smelter demonstrates the potential of Cd isotopes for tracing environmental pollutants.En 2001, Metz s'est dotée d'une usine de valorisation énergétique (UVE). L'étude du comportement minéralogique, chimique et isotopique des métaux dans les effluents de l'UVE ainsi que le traçage isotopique de l'UVE et la quantification de son impact environnemental étaient les objectifs de ce travail. Un excès de concentration est observé au niveau de la trémie 2 ainsi qu'un enrichissement en isotopes lourds du Cd et du Zn. Cette enrichissement est expliqué par un fractionnement cinétique physique à la condensation. L'analyse élémentaire et isotopique du Pb et du Zn de lichens épiphytes prélevés dans et autour de la ville de Metz, a permis d'établir des cartes de dispersion des métaux et de définir l'état des retombées atmosphériques avant la mise en service de l'UVE et le suivi environnemental de l'UVE, 2 ans après. L'application des isotopes du Cd à un site pollué révèle leur potentialité comme traceur de pollution environnementale

    Optimiser l'utilisation des données en reconstruction TEP: modélisation de résolution dans l'espace image et contribution à l'évaluation de la correction de mouvement

    No full text
    Cancers et maladies cardio-vasculaires sont responsables de plus de 40 % des décès dans le monde. De nombreuses personnes souffrent par ailleurs quotidiennement de ces maladies. En réduire la fréquence dans le futur passe avant tout par une adaptation de notre mode de vie et une prévention accrue, éclairées par une connaissance plus approfondie des mécanismes de ces maladies. Il est également crucial d'améliorer les diagnostics et les traitements actuels afin de mieux prendre en charge les malades d'aujourd'hui et de demain.Lorsque le tableau clinique présenté par un patient n'est pas clair, de nombreuses techniques d'imagerie médicale permettent d'affiner le diagnostic, de préciser le pronostic et de suivre l'évolution des maladies au cours du temps. Ces mêmes techniques sont également utilisées en recherche fondamentale pour faire progresser la connaissance du fonctionnement normal et pathologique du corps humain. Il s'agit par exemple de l'échographie, de l'imagerie par résonance magnétique, de la tomodensitométrie à rayons X ou encore de la tomographie par émission de positrons (TEP).Certaines de ces techniques mettent en évidence le métabolisme de molécules, comme le glucose et certains acides aminés. C'est le cas de la tomographie par émission de positrons, dans laquelle une petite quantité de molécules marquées avec un élément radioactif est injectée au patient. Ces molécules se concentrent de préférence dans les endroits du corps humain où elles sont utilisées. Instables, les noyaux radioactifs se désintègrent en émettant un anti-électron, encore appelé positron. Chaque positron s'annihile ensuite à proximité du lieu d'émission avec un électron du corps du patient, provoquant l'émission simultanée de deux photons de haute énergie dans deux directions opposées. Après avoir traversé les tissus, ces photons sont captés par un anneau de détecteurs entourant le patient. Sur base de l'ensemble des événements collectés, un algorithme de reconstruction produit enfin une image de la distribution du traceur radioactif.La tomographie par émission de positrons permet notamment d'évaluer l'efficacité du traitement des tumeurs avant que la taille de celles-ci n'ait changé, ce qui permet d'aider à décider de poursuivre ou non le traitement en cours. En cardiologie, cette technique permet de quantifier la viabilité du muscle cardiaque après un infarctus et aide ainsi à évaluer la pertinence d'une intervention chirurgicale.Plusieurs facteurs limitent la précision des images TEP. Parmi ceux-ci, on trouve l'effet de volume partiel et le mouvement du coeur.L'effet de volume partiel mène à des images floues, de la même manière qu'un objectif d'appareil photo incorrectement mis au point produit des photographies floues. Deux possibilités s'offrent aux photographes pour éviter cela :soit améliorer la mise au point de leur objectif, soit retoucher les images après les avoir réalisées ;améliorer la mise au point de l'objectif peut s'effectuer dans l'espace des données (ajouter une lentille correctrice avant l'objectif) ou dans l'espace des images (ajouter une lentille correctrice après l'objectif).Le mouvement cardiaque provoque également une perte de netteté des images, analogue à l'effet de flou sur une photographie d'une voiture de course réalisée avec un grand temps de pose. Classiquement, on peut augmenter la netteté d'une image en diminuant le temps de pose. Cependant, dans ce cas, moins de photons traversent l'objectif et l'image obtenue est plus bruitée.On pourrait alors imaginer obtenir de meilleurs images en suivant la voiture au moyen de l'appareil photo. De cette manière, la voiture serait à la fois nette et peu corrompue par du bruit, car beaucoup de photons pourraient être détectés.En imagerie TEP, l'effet de volume partiel est dû à de nombreux facteurs dont le fait que le positron ne s'annihile pas exactement à l'endroit de son émission et que le détecteur frappé par un photon n'est pas toujours correctement identifié. La solution passe par une meilleure modélisation de la physique de l'acquisition au cours de la reconstruction, qui, en pratique est complexe et nécessite d'effectuer des approximations.La perte de netteté due au mouvement du coeur est classiquement traitée en figeant le mouvement dans plusieurs images successives au cours d'un battement cardiaque. Cependant, une telle solution résulte en une diminution du nombre de photons, et donc en une augmentation du bruit dans les images. Tenir compte du mouvement de l'objet pendant la reconstruction TEP permettrait d'augmenter la netteté en gardant un bruit acceptable. On peut également penser à superposer différentes images recalées au moyen du mouvement.Au cours de ce travail, nous avons étudié des méthodes qui tirent le meilleur parti possible des informations fournies par les événements détectés. Pour ce faire, nous avons choisi de baser nos reconstructions sur une liste d'événements contenant la position exacte des détecteurs et le temps exact d'arrivée des photons, au lieu de l'histogramme classiquement utilisé.L'amélioration de résolution passe par la connaissance de l'image d'une source ponctuelle radioactive produite par la caméra.À la suite d'autres travaux, nous avons mesuré cette image et nous l'avons modélisée, pour la première fois, au moyen d'une fonction spatialement variable, non-gaussienne et asymétrique. Nous avons ensuite intégré cette fonction dans un algorithme de reconstruction, dans l'espace image. C'est la seule possibilité pratique dans le cas d'acquisitions en mode liste. Nous avons ensuite comparé les résultats obtenus avec un traitement de l'image après la reconstruction.Dans le cadre de la correction de mouvement cardiaque, nous avons opté pour l'étude de la reconstruction simultanée de l'image et du déplacement, sans autres informations externes que les données TEP et le signal d'un électrocardiogramme. Nous avons ensuite choisi d'étudier la qualité de ces estimateurs conjoints intensité-déplacement au moyen de leur variance. Nous avons étudié la variance minimale que peut atteindre un estimateur conjoint intensité-mouvement, sur base des données TEP uniquement, au moyen d'un outil appelé borne de Cramer-Rao. Dans ce cadre, nous avons étudié différentes manières existantes d'estimer la borne de Cramer-Rao et nous avons proposé une nouvelle méthode d'estimation de la borne de Cramer-Rao adaptée à des images de grande dimension. Nous avons enfin mis en évidence que la variance de l'algorithme classique OSEM était supérieure à celle prédite par la borne de Cramer-Rao. En ce qui concerne les estimateurs combinés intensité-déplacement, nous avons observé la diminution de la variance minimale possible sur les intensités lorsque le déplacement était paramétrisé sur des fonctions spatiales lisses.Ce travail est organisé comme suit. Le chapitre théorique commence par brosser brièvement le contexte historique de la tomographie par émission de positrons. Nous avons souhaité insister sur le fait que l'évolution des idées n'est romantique et linéaire qu'à grande échelle. Nous abordons ensuite la description physique de l'acquisition TEP. Dans un deuxième chapitre, nous rappelons quelques éléments de la théorie de l'estimation et de l'approximation et nous traitons des problèmes inverses en général et de la reconstruction TEP en particulier.La seconde partie aborde le problème du manque de netteté des images et la solution que nous avons choisi d'y apporter :une modélisation dans l'espace image de la réponse impulsionnelle de la caméra, en tenant compte de ses caractéristiques non gaussienne, asymétrique et spatialement variable. Nous présentons également le résultat de la comparaison avec une déconvolution post-reconstruction. Les résultats présentés dans ce chapitre ont fait l'objet d'une publication dans la revue Physics in Medicine and Biology.Dans un troisième volet, nous abordons la correction de mouvement. Une premier chapitre brosse le contexte de la correction de mouvement en TEP et remet en perspective les différentes méthodes existantes, dans un cadre bayésien unificateur.Un second chapitre aborde ensuite l'estimation de la qualité des images TEP et étudie en particulier la borne de Cramer-Rao.Les résultats obtenus sont enfin résumés et replacés dans leur contexte dans une conclusion générale.Doctorat en Sciences de l'ingénieurinfo:eu-repo/semantics/nonPublishe

    MLEM and OSEM Deviate from the Cramer-Rao Bound at Low Counts

    No full text
    info:eu-repo/semantics/publishe
    corecore