40 research outputs found

    Emploi de la pré-ozonation pour augmenter la biodégradabilité d'un effluent secondaire dans un système de traitement par inflitration dans le sol

    Get PDF
    La réutilisation des eaux usées est reconnue comme une technique importante dans les régions arides et /ou grandes consommatrices d'eau. L'une des méthodes actuellement très employée consiste à recharger la nappe phréatique avec des effluents secondaires via des bassins d'infiltration. L'épuration biologique et / ou chimique à travers la zone non-saturée représente une caractéristique importante de cette technologie. Les procédés de ce type sont connus sous l'appellation de Soil Aquifer Treatment (SAT) ou géofiltration. Dans ce travail, le procédé a été étudié comme méthode de réhabilitation d'un effluent secondaire d'eaux usées jusqu'au stade d'eau potable. Cette recherche a été principalement axée sur le comportement, le transport des matières organiques (MO) de l'effluent et particulièrement sur leur rôle de précurseurs potentiels de sous-produits de désinfection lors de la réutilisation de la nappe. Dans la zone vadose, la matière organique est principalement éliminée par biodégradation, et à un degré moindre, par adsorption. Les simulations du procédé, en laboratoire, ont été réalisées en réacteurs recirculés aérobies, en mode cuvée, avec un biofilm acclimaté sur des particules de sable siliceux, afin de déterminer la fraction biodégradable des MO. L'évaluation de celle-ci est essentielle pour prédire leur potentiel de dégradation par la biomasse de la zone vadose. L'effluent mis en oeuvre est issu d'une station d'épuration de l'Arizona (États-Unis) avec biofiltre (lit filtrant à support plastique); sa concentration en carbone organique dissous (COD) se situe entre 10 et 15 mg/L.L'effluent mis 5 jours durant en contact avec le biofilm acclimaté du réacteur montre un abattement de 50-60 % du COD. Il a ainsi été déterminé qu'environ 80 % de l'élimination des MO de l'effluent survient dans les premières 24 heures d'expérimentation, alors que le reste, près de 20 %, est éliminé durant les 48 heures suivantes. Dans ces conditions, le délai de 5 jours apparait suffisant pour dégrader les MO présentes dans ces effluents. Les rendements observés augurent bien de la dégradation dans la zone vadose si l'on tient compte de la combinaison des taux et de la hauteur d'infiltration avec des temps de résidence de 2 à 14 jours ainsi qu'il est proposé dans le procédé. Afin d'accroître la biodégradabilité des MO, une ozonation a été effectuée, en amont du bio-traitement, avec un générateur d'ozone à l'échelle du banc d'essai fonctionnant en mode semi-continu (admission continue de gaz, volume stable de liquide). La pré-ozonation a permis d'accroître la biodégradation de 60-70 %. Bien qu'un fort pourcentage de MO soit éliminé dans ce schéma, il ressort que l'ozone n'a qu'un effet modeste sur la transformation des MO dissoutes non-biodégradables en matières biodégradables par rapport à des expériences similaires effectuées avec des matières organiques naturelles (MON) des eaux de surface. L'eau usée ainsi traitée présente des niveaux de COD comparables à ceux d'une eau de surface employée à des fins de consommation. Les caractéristiques des MO de l'effluent ont été comparées à celles des MON. Une ultrafiltration de l'effluent pour déterminer le poids moléculaire apparent des MO, donne une distribution bimodale de leur poids moléculaire par rapport à une distribution logarithmique normale observée avec des MON typiques. En utilisant des résines non- ioniques pour séparer les fractions hydrophobes et hydrophiles des MO, il ressort que l'ozonation ne transforme pas de façon significative la fraction hydrophobe des MO de l'effluent en fraction hydrophile, tel que cela a été observé durant l'ozonation des MON. Ces eaux ont été chlorées en pilote, selon des conditions similaires à celles des réseaux de distribution (CI2:COD=1:1mg/mg, période d'incubation=24 heures) afin de simuler la post-désinfection après récupération. Les sous-produits réglementés (Trihalométhanes THM) et ceux proposés (Acides holoacétiques, HAA6) ont été formés à des taux inférieurs ou proches des normes en vigueur (ou de celles proposées pour HAA6) pour l'eau potable aux États-Unis. Cependant, une nitrification significative a été observée dans nos simulations de traitement par le sol avec un effluent non-nitrifié, conduisant à des teneurs en nitrates supérieures à la norme américaine pour l'eau potable (10 mg/L).Soil Aquifer Treatment (SAT) is being studied as a means of water quality renovation of a secondary effluent for potable reuse. During SAT, infiltration of effluent through the vadose zone provides removal of effluent organic matter primarily through biodegradation, and to a lesser extent, through sorption. A major concern is that effluent organic matter can function as disinfection by-product (DBP) precursors upon recovery and post-disinfection. Through laboratory simulations of SAT, we have found that 50 - 60 % of the dissolved organic carbon (DOC) present in secondary effluent can potentially be removed by biodegradation, with preozonation increasing removal to 60 - 70 %. The resultant water contains DOC at levels comparable to a typical surface water used for potable purposes; moreover, upon chlorination, regulated DBPs are formed at levels below or near the United States of America's drinking water standards. However, significant nitrification was observed in our SAT simulations with an un-nitrified effluent, yielding levels of nitrate above the USA drinking water standard

    Transform-limited photons from a coherent tin-vacancy spin in diamond

    Get PDF
    Solid-state quantum emitters that couple coherent optical transitions to long-lived spin qubits are essential for quantum networks. Here we report on the spin and optical properties of individual tin-vacancy (SnV) centers in diamond nanostructures. Through cryogenic magneto-optical and spin spectroscopy, we verify the inversion-symmetric electronic structure of the SnV, identify spin-conserving and spin-flipping transitions, characterize transition linewidths, measure electron spin lifetimes and evaluate the spin dephasing time. We find that the optical transitions are consistent with the radiative lifetime limit even in nanofabricated structures. The spin lifetime is phononlimited with an exponential temperature scaling leading to T1T_1 >> 10 ms, and the coherence time, T2T_2 reaches the nuclear spin-bath limit upon cooling to 2.9 K. These spin properties exceed those of other inversion-symmetric color centers for which similar values require millikelvin temperatures. With a combination of coherent optical transitions and long spin coherence without dilution refrigeration, the SnV is a promising candidate for feasable and scalable quantum networking applications

    A variational joint segmentation and registration framework for multimodal images

    Get PDF
    Image segmentation and registration are closely related image processing techniques and often required as simultaneous tasks. In this work, we introduce an optimization-based approach to a joint registration and segmentation model for multimodal images deformation. The model combines an active contour variational term with mutual information (MI) smoothing fitting term and solves in this way the difficulties of simultaneously performed segmentation and registration models for multimodal images. This combination takes into account the image structure boundaries and the movement of the objects, leading in this way to a robust dynamic scheme that links the object boundaries information that changes over time. Comparison of our model with state of art shows that our method leads to more consistent registrations and accurate results

    Change and continuity in Japanese compensation practices: the case of occupational pensions since the early 2000s

    Get PDF
    This article analyses changes in the provision of Japanese occupational pensions since the early 2000s. It shows how Japanese companies have followed strategies of cost and risk reduction by creating multi-layered benefit systems that offer a combination of defined benefit (DB) and defined contribution (DC) plans whose benefits are becoming increasingly performance-oriented. Analysing the reasons behind the resilience of DB schemes in Japan, the article concludes that enterprise union behaviour has had less influence than regulatory issues and continued corporate commitment to long-standing employment practices for regular workers. These findings highlight the embeddedness of Japanese employment practices in their institutional context

    Using 1-D Radar Observations to Detect a Space Explosion Core Among the Explosion Fragments

    No full text
    A radar observes the result of a space explosion. Due to radar’s low horizontal resolution, we get a 1-D signal x(t) representing different 2-D slices. Based on these slices, we must distinguish between the body at the core of the explosion and the slowly out-moving fragments. We propose new algorithms for processing this 1-D data. Since these algorithms are time-consuming, we also exploit the possibility of parallelizing these algorithms. 1. FORMULATION OF THE PROBLEM Most astronomical processes are slow; however, sometimes, space explosions happen: starts become supernovae, planetoids are torn apart by tidal and gravitational forces, etc. Even the Universe itself is currently viewed as a result of such an explosion – the Big Bang. From the astrophysical viewpoint, these explosions are very important, because, e.g., supernovae explosions is how heavy metals spread around in the Universe. The explosion processes are very rare and very fast, so unless they are very powerful and spectacular – like an explosion of a nearby supernovae that happened in 1054 – they are very difficult to observe. As a result, space explosion processes often go unnoticed. What we do observe in most cases is the result of the space explosion, i.e., the explosion core – the remainder of the original celestial body – surrounded by the explosion fragments. The most well known example of such a result is the Crab Nebula formed after the 1054 supernovae explosion

    A variational model dedicated to joint segmentation, registration, and atlas generation for shape analysis

    No full text
    In medical image analysis, constructing an atlas, i.e., a mean representative of an ensemble of images, is a critical task for practitioners to estimate variability of shapes inside a population, and to characterize and understand how structural shape changes have an impact on health. This involves identifying significant shape constituents of a set of images, a process called segmentation, and mapping this group of images to an unknown mean image, a task called registration, making a statistical analysis of the image population possible. To achieve this goal, we propose treating these operations jointly to leverage their positive mutual influence, in a hyperelasticity setting, by viewing the shapes to be matched as Ogden materials. The approach is complemented by novel hard constraints on the L\infty norm of both the Jacobian and its inverse, ensuring that the deformation is a bi-Lipschitz homeomorphism. Segmentation is based on the Potts model, which allows for a partition into more than two regions, i.e., more than one shape. The connection to the registration problem is ensured by the dissimilarity measure that aims to align the segmented shapes. A representation of the deformation field in a linear space equipped with a scalar product is then computed in order to perform a geometry-driven Principal Component Analysis (PCA) and to extract the main modes of variations inside the image population. Theoretical results emphasizing the mathematical soundness of the model are provided, among which are existence of minimizers, analysis of a numerical method, asymptotic results, and a PCA analysis, as well as numerical simulations demonstrating the ability of the model to produce an atlas exhibiting sharp edges, high contrast, and a consistent shape

    Using 1-D Radar Observations to Detect a Space Explosion Core Among the Explosion Fragments: Sequential and Distributed Algorithms

    No full text
    A radar observes the result of a space explosion. Due to radar\u27s low horizontal resolution, we get a 1-D signal s(t) representing different 2-D slices. Based on these slices, we must distinguish between the body at the core of the explosion and the slowly out-moving fragments. We propose new algorithms for processing this 1-D data. Since these algorithms are time-consuming, we also exploit the possibility of parallelizing these algorithms
    corecore