93 research outputs found

    Approches d'optimisation et de personnalisation des réseaux sur puce (NoC : Networks on Chip)

    Get PDF
    Systems-on-chip (SoC) have become more and more complex due to the development of integrated circuit technology.Recent studies have shown that in order to improve the performance of a specific SoC application domain, the on-chipinter-connects (OCI) architecture must be customized at design-time or at run-time. Related approaches generallyprovide application-specific SoCs tailored to specific applications. The aim of this thesis is to carry out new approachesfor Network-on-Chip (NoC) and study their performances, especially in terms of latency, throughput, energyconsumption and simplicity of implementation.We have proposed an approach to allow designers to customize a candidate OCI architecture by adding strategiclinks in order to match large application workload. The analytical evaluation focuses on improving the physicalparameters of the NoC topology regardless of the application that should run on. The evaluation by simulationfocuses to evaluate the communication performances of the NoC. Simulations results show the effectiveness ofthis approach to improve the NoC performances. We have also introduced a compartmental Fluid-flow basedmodeling approach to allocate required resource for each buffer based on the application traffic pattern. Simulationsare conducted and results show the efficiency of this modeling method for a buffer space optimized allocation.Finally, we proposed a joint approach based on a system dynamics theory for evaluating the performance of a flowcontrol algorithm in NoCs. This algorithm allows NoC elements to dynamically adjust their inflow by using afeedback control-based mechanism. Analytical and simulation results showed the viability of this mechanism forcongestion avoidance in NoCs.Les systèmes embarqués sur puce (SoC : Systems-on-Chip) sont devenus de plus en plus complexes grâce à l’évolution de la technologie des circuits intégrés. Des études récentes ont montré que pour améliorer les performances du réseau su puce (NoC : Network-on-Chip), l’architecture de celui-ci pouvait être personnalisée, soit au moment de la conception, soit au moment de l’exécution. L’objectif principal de cette thèse est d’implémenter de nouvelles approches pour améliorer les performances des NoCs, notamment la latence, le débit, la consommation d’énergie, et la simplicité de mise en œuvre.Nous avons proposé une approche pour permettre aux concepteurs de personnaliser l'architecture d’un NoC par insertion de liens stratégiques, pour qu’elle soit adaptée à de nombreuses applications, sous la contrainte d’un budget limité en termes de nombre de liens. L’évaluation analytique porte sur l’amélioration des paramètres physiques de la topologie du NoC sans tenir compte de l’application qui devrait s’exécuter dessus. L’évaluation par simulation porte sur l’évaluation des performances de communication du NoC. Les résultats de simulations montrent l’efficacité de notre approche pour améliorer les performances du NoC. Nous avons également introduit une approche de modélisation par réseau à compartiments pour allouer les ressources nécessaires pour chaque tampon selon le modèle de trafic de l'application cible. Les résultats de simulations montrent l'efficacité de cette approche de modélisation pour l’allocation optimisée de l'espace tampon. Enfin, nous avons proposé une approche conjointe basée sur la théorie des systèmes dynamiques pour évaluer la performance d'un algorithme de contrôle de flux dans les NoCs. Cet algorithme permet aux éléments du NoC d’ajuster dynamiquement leur entrée en utilisant un mécanisme basé sur le contrôle de flux par rétroaction. Les résultats d’évaluations analytiques et de simulation montrent la viabilité de ce mécanisme pour éviter la congestion dans les NoCs

    Contribution au calcul sur GPU: considérations arithmétiques et architecturales

    Get PDF
    L’optimisation du calcul passe par une gestion conjointe du matériel et du logiciel. Cette règle se trouve renforcée lorsque l’on aborde le domaine des architectures multicoeurs où les paramètres à considérer sont plus nombreux que sur une architecture superscalaire classique. Ces architectures offrent une grande variété d’unité de calcul, de format de représentation, de hiérarchie mémoire et de mécanismes de transfert de donnée.Dans ce mémoire, nous décrivons quelques-uns de nos résultats obtenus entre 2004 et 2013 au sein de l'équipe DALI de l'Université de Perpignan relatifs à l'amélioration de l’efficacité du calcul dans sa globalité, c'est-à-dire dans la suite d’opérations décrite au niveau algorithmique et exécutées par les éléments architecturaux, en nous concentrant sur les processeurs graphiques.Nous commençons par une description du fonctionnement de ce type d'architecture, en nous attardant sur le calcul flottant. Nous présentons ensuite des implémentations efficaces d'opérateurs arithmétiques utilisant des représentations non-conventionnelles comme l'arithmétique multiprécision, par intervalle, floue ou logarithmique. Nous continuerons avec nos contributions relatives aux éléments architecturaux associés au calcul à travers la simulation fonctionnelle, les bancs de registres, la gestion des branchements ou les opérateurs matériels spécialisés. Enfin, nous terminerons avec une analyse du comportement du calcul sur les GPU relatif à la régularité, à la consommation électrique, à la fiabilisation des calculs ainsi qu'à laprédictibilité

    La géosimulation orientée agent : un support pour la planification dans le monde réel

    Get PDF
    La planification devient complexe quand il s’agit de gérer des situations incertaines. Prédire de façon précise est une tâche fastidieuse pour les planificateurs humains. L’approche Simulation-Based Planning consiste à associer la planification à la simulation. Chaque plan généré est simulé afin d’être testé et évalué. Le plan le plus approprié est alors retenu. Cependant, le problème est encore plus complexe lorsque viennent s’ajouter des contraintes spatiales. Par exemple, lors d’un feu de forêt, des bulldozers doivent construire une ligne d’arrêt pour arrêter la propagation des feux. Ils doivent alors tenir compte non seulement de l’avancée des feux mais aussi des caractéristiques du terrain afin de pouvoir avancer plus facilement. Nous proposons une approche de géosimulation basée sur les agents et qui a pour but d’assister la planification dans un espace réel, à large échelle géographique et surtout à forte composante spatiale. Un feu de forêt est un problème typique nécessitant une planification dans un monde réel incertain et soumis à de fortes contraintes spatiales. Nous illustrons donc notre approche (nommée ENCASMA) sur le problème des feux de forêts. L’approche consiste à établir un parallélisme entre l’Environnement Réel ER (p.ex. une forêt incendiée) et un Environnement de Simulation ES (p.ex. une reproduction virtuelle de la forêt incendiée). Pour garantir un niveau acceptable de réalisme, les données spatiales utilisées dans l’ES doivent absolument provenir d’un SIG (Système d’information Géographique). Les planificateurs réels comme les pompiers ou les bulldozers sont simulés par des agents logiciels qui raisonnent sur l’espace modélisé par l’ES. Pour une meilleure sensibilité spatiale (pour tenir compte de toutes les contraintes du terrain), les agents logiciels sont dotés de capacités avancées telles que la perception. En utilisant une approche par géosimulation multiagent, nous pouvons générer une simulation réaliste du plan à exécuter. Les décideurs humains peuvent visualiser les conséquences probables de l’exécution de ce plan. Ils peuvent ainsi évaluer le plan et éventuellement l’ajuster avant son exécution effective (sur le terrain). Quand le plan est en cours d’exécution, et afin de garantir la cohérence des données entre l’ER et l’ES, nous gardons trace sur l’ES des positions (sur l’ER) des planificateurs réels (en utilisant les technologies du positionnement géoréférencé). Nous relançons la planification du reste du plan à partir de la position courante de planificateur réel, et ce de façon périodique. Ceci est fait dans le but d’anticiper tout problème qui pourrait survenir à cause de l’aspect dynamique de l’ER. Nous améliorons ainsi le processus classique de l’approche DCP (Distributed Continual Planning). Enfin, les agents de l’ES doivent replanifier aussitôt qu’un événement imprévu est rapporté. Étant donné que les plans générés dans le cas étudié (feux de forêts) sont essentiellement des chemins, nous proposons également une approche basée sur la géosimulation orientée agent pour résoudre des problèmes particuliers de Pathfinding (recherche de chemin). De plus, notre approche souligne les avantages qu’apporte la géosimulation orientée agent à la collaboration entre agents humains et agents logiciels. Plus précisément, elle démontre : • Comment la cognition spatiale des agents logiciels sensibles à l’espace peut être complémentaire avec la cognition spatiale des planificateurs humains. • Comment la géosimulation orientée agent peut complémenter les capacités humaines de planification lors de la résolution de problèmes complexes. Finalement, pour appliquer notre approche au cas des feux de forêts, nous avons utilisé MAGS comme plate-forme de géosimulation et Prometheus comme simulateur du feu. Les principales contributions de cette thèse sont : 1. Une architecture (ENCASMA) originale pour la conception et l’implémentation d’applications (typiquement des applications de lutte contre les désastres naturels) dans un espace géographique réel à grande échelle et dynamique. 2. Une approche basée sur les agents logiciels pour des problèmes de Pathfinding (recherche de chemin) particuliers (dans un environnement réel et à forte composante spatiale, soumis à des contraintes qualitatives). 3. Une amélioration de l’approche de planification DCP (plus particulièrement le processus de continuité) afin de remédier à certaines limites de la DCP classique. 4. Une solution pratique pour un problème réel et complexe : la lutte contre les feux de forêts. Cette nouvelle solution permet aux experts du domaine de mieux planifier d’avance les actions de lutte et aussi de surveiller l’exécution du plan en temps réel.Planning becomes complex when addressing uncertain situations. Accurate predictions remain a hard task for human planners. The Simulation-Based Planning approach consists in associating planning and simulation. Each generated plan is simulated in order to be tested and evaluated. The most appropriate plan is kept. The problem is even more complex when considering spatial constraints. For example, when fighting a wildfire, dozers build a firebreak to stop fire propagation. They have to take into account not only the fire spread but also the terrain characteristics in order to move easily. We propose an agent-based geosimulation approach to assist such planners with planning under strong spatial constraints in a real large-scale space. Forest fire fighting is a typical problem involving planning within an uncertain real world under strong spatial constraints. We use this case to illustrate our approach (ENCASM). The approach consists in drawing a parallel between the Real Environment RE (i.e. a forest in fire) and the Simulated Environment SE (i.e. a virtual reproduction of the forest). Spatial data within the SE should absolutely come from a GIS (Geographic Information System) for more realism. Real planners such as firefighters or dozers are simulated using software agents which reason about the space of the SE. To achieve a sufficient spatial awareness (taking into account all terrain’s features), agents have advanced capabilities such as perception. Using a multiagent geosimulation approach, we can generate a realistic simulation of the plan so that human decision makers can visualize the probable consequences of its execution. They can thus evaluate the plan and adjust it before it can effectively be executed. When the plan is in progress and in order to maintain coherence between RE and SE, we keep track in the SE of the real planners’ positions in the RE (using georeferencing technologies). We periodically replan the rest of the plan starting from the current position of the real planner. This is done in order to anticipate any problem which could occur due to the dynamism of the RE. We thus enhance the process of the classical Distributed Continual Planning DCP. Finally, the agents must replan as soon as an unexpected event is reported by planners within the RE. Since plans in the studied case (forest fires) are mainly paths, we propose a new approach based on agent geosimulation to solve particular Pathfinding problems. Besides, our approach highlights the benefits of the agent-based geo-simulation to the collaboration of both humans and agents. It thus shows: • How spatial cognitions of both spatially aware agents and human planners can be complementary. • How agent-based geo-simulation can complement human planning skills when addressing complex problems. Finally, when applying our approach on firefighting, we use MAGS as a simulation platform and Prometheus as a fire simulator. The main contributions of this thesis are: 1. An original architecture (ENCASMA) for the design and the implementation of applications (typically, natural disasters applications) in real, dynamic and large-scale geographic spaces. 2. An agent-based approach for particular Pathfinding problems (within real and spatially constrained environments and under qualitative constraints). 3. An enhancement of the DCP (particularly, the continual process) approach in order to overcome some limits of the classical DCP. 4. A practical solution for a real and complex problem: wildfires fighting. This new solution aims to assist experts when planning firefighting actions and monitoring the execution of these plans

    Ecoulements en milieux fracturés : vers une intégration des approches discrètes et continues.

    Get PDF
    Simuler les réservoirs souterrains permet d’optimiser la production d’hydrocarbures. Les réservoirs naturellement ou hydrauliquement fracturés détiennent une part importante des réserves et exhibent un degré élevé d’hétérogénéité : les fractures, difficiles à détecter, impactent fortement la production via des réseaux préférentiels d’écoulement. Une modélisation précise de ces forts contrastes permettrait d’optimiser l’exploitation des ressources tout en maîtrisant mieux les risques environnementaux. L’enjeu est de prédire les processus d’écoulement multi échelles par un modèle simplement paramétrable. Une stratégie de simulations, qui améliore la fiabilité et les temps de calculs est mise au point dans cette thèse. Elle permet de simuler numériquement ou analytiquement la complexité d’un réservoir fracturé à grande échelle. Ces techniques dont l’intérêt est démontré sur un réservoir de roche mère trouvent des applications en géothermie ou dans la gestion des ressources en eau. ABSTRACT : Fluid flow simulation is used to optimize oil and gas production. Naturally or hydraulically fractured reservoirs hold a significant part of reserves, difficult to assess. Fractures may create preferential flow paths heavily impacting fluid flow. Accurate modeling of fractured media accounting for strong contrasts would allow operators to optimize resources exploitation while better controlling environmental risks. Integrating sparse available data, we aim at predicting fluid flow processes occurring in the earth’s subsurface accounting for multi-scale fractures with a simply parameterized model. Improving the computational time and results reliability, we propose a full integrated strategy suitable for fractured reservoir specificities by simulating the fractures complexity on large scales. The techniques developed in this thesis, whose interest is demonstrated in an unconventional field case study, can find other applications in geothermal engineering and water resources managemen

    Ecoulements en milieux fracturés : vers une intégration des approches discrètes et continues.

    Get PDF
    Simuler les réservoirs souterrains permet d’optimiser la production d’hydrocarbures. Les réservoirs naturellement ou hydrauliquement fracturés détiennent une part importante des réserves et exhibent un degré élevé d’hétérogénéité : les fractures, difficiles à détecter, impactent fortement la production via des réseaux préférentiels d’écoulement. Une modélisation précise de ces forts contrastes permettrait d’optimiser l’exploitation des ressources tout en maîtrisant mieux les risques environnementaux. L’enjeu est de prédire les processus d’écoulement multi échelles par un modèle simplement paramétrable. Une stratégie de simulations, qui améliore la fiabilité et les temps de calculs est mise au point dans cette thèse. Elle permet de simuler numériquement ou analytiquement la complexité d’un réservoir fracturé à grande échelle. Ces techniques dont l’intérêt est démontré sur un réservoir de roche mère trouvent des applications en géothermie ou dans la gestion des ressources en eau

    Rapport annuel 1997-1998

    Get PDF

    Modélisation directe et inverse d'écoulements géophysiques viscoplastiques par méthodes variationnelles - Application à la glaciologie

    Get PDF
    Several geophysical flows, such as ice flows or lava flows, are described by a gravity-driven low Reynolds number movement of a free surface viscoplastic fluid over a bedrock. Their modeling involves constitutive laws, typically describing their rheological behavior or interactions with their bedrock, that lean on empirical parameterizations. Otherwise, the thorough observation of this type of flows is rarely possible; data associated to the observation of these flows, mainly remote-sensed surface data, can be sparse, missing or uncertain. They are also generally indirect : unknown parameters such as the basal slipperiness or the rheology are difficult to measure on the field. This PhD work focuses on the direct and inverse modeling of these geophysical flows described by the power-law Stokes model, specifically dedicated to ice flows, using variational methods. The solution of the direct problem (Stokes non-linear) is based on the principle of minimal dissipation that leads to a variational four-field saddle-point problem for which we ensure the existence of a solution. In this context, the incompressibility condition and the constitutive rheological law represent constraints associated to the minimization problem. The critical points of the corresponding Lagrangian are determined using an augmented Lagrangian type algorithm discretized using three- field finite elements. This algorithm provides an important time and memory saving compared to classical algorithms. We then focus on the inverse numerical modeling of these fluids using the adjoint model through two main associated tools : sensitivity analysis and data assimilation. We first study the rheological modeling through the two principal input parameters (fluid consistency and rheological exponent). Sensitivity analyses with respect to these locally defined parameters allow to quantify their relative weights within the flow model, in terms of surface velocities. Identification of these parameters is also performed. The results are synthetized as a methodology towards "virtual rheometry" that could help and support rheological measurements. The basal slipperiness, major parameter in ice dynamics, is investigated using the same approach. Sensitivity analyses demonstrate an ability to see beyond the "filtered" and non-local transmission of the basal variability to the surface. Consequently these sensitivities can be used to help defining areas of interest for observation and measurement. This basal slipperiness, empirical modeling of a multiscale complex process, is then used to carry on a comparison with a so called "self-adjoint" method, common in glaciology (neglecting the dependency of the viscosity on the velocity, i.e. the non-linearity). The adjoint model, obtained by automatic differentiation and evaluated by reverse accumulation, leads to define this approximation as a limit case of the complete inverse method. This formalism allows to generalize the process of the numerical evaluation of the adjoint state into an incomplete adjoint method, adjustable in time and accuracy depending on the quality of the data and the level of detail required in the identification. All this work is associated to the development of DassFlow-Ice software dedicated to the direct and inverse numerical simulation of free-surface viscoplastic fluids. This bidimensional prospective software, distributed within the glaciological com- munity, serves as a model for the current development of the tridimensional version.Résumé : Un certain nombre d'écoulements géophysiques, tels que les écoulements de glace ou de lave magmatique, impliquent le mouvement gravitaire à faible nombre de Reynolds d'un fluide viscoplastique à surface libre sur un socle rocheux. Leur modélisation fait apparaître des lois de comportement rhéologique et des descriptions de leurs intéractions avec le socle rocheux qui reposent sur des paramétrisations empiriques. Par ailleurs, l'observation systématique de ce type d'écoulements avec une grande précision est rarement possible ; les données associées à l'observation de ces écoulements, principalement des données de surface (télédétections), peuvent être peu denses, manquantes ou incertaines. Elles sont aussi le plus souvent indirectes : des paramètres inconnus comme le glissement basal ou la rhéologie sont difficilement mesurables in situ. Ce travail de thèse s'attache à la modélisation directe et inverse de ces écoulements géophysiques, particulièrement les écoulements de glace, par des méthodes variationnelles à travers la résolution du problème de Stokes pour les fluides en loi de puissance. La méthode de résolution du problème direct (Stokes non-linéaire) repose sur le principe du minimum de dissipation qui mène à un problème variationnel de type point-selle à quatre champs pour lequel on montre l'existence de solutions. La condition d'incompressibilité et la loi de comportement représentent alors des contraintes associées au problème de minimisation. La recherche des points critiques du lagrangien correspondant est réalisée à l'aide d'un algorithme de type lagrangien augmenté, discrétisé par éléments finis triangles à trois champs. Cet algorithme conduit à un important gain tant en temps de calcul qu'en utilisation mémoire par rapport aux algorithmes classiques. On s'intéresse ensuite à la modélisation numérique inverse de ces fluides à l'aide du modèle adjoint et des deux principaux outils associés : l'analyse de sensibilité et l'assimilation de données. On étudie tout d'abord la modélisation rhéologique de ces fluides à travers les deux paramètres principaux de la loi de comportement : la consistance du fluide et l'exposant rhéologique. Des analyses de sensibilité sur ces paramètres définis localement, permettent de quantifier leurs poids relatifs au sein du modèle d'écoulement, en termes de vitesses de surface. L'identification de ces grandeurs est également réalisée. L'ensemble des résultats est résumé comme une méthodologie vers une "rhéométrie virtuelle" pouvant représenter une aide solide à la mesure rhéologique. Le glissement basal, paramètre majeur dans la dynamique de la glace, est investigué selon la même approche. Les analyses de sensibilité mettent en avant une capacité à voir à travers le caractère "filtré" et non-local de la transmission de la variabilité basale vers la surface, ouvrant des perspectives vers l'utilisation des sensibilités pour la définition de lieux d'intérêt pour l'observation et la mesure. Ce glissement basal, modélisation empirique d'un processus complexe et multiéchelle, est ensuite utilisé pour la comparaison avec une méthode inverse approximative courante en glaciologie (méthode négligeant la dépendance de la viscosité à la vitesse, i.e. la non-linéarité). Le modèle adjoint, obtenu par différentiation automatique et évalué par accumulation retour, permet de définir cette approximation comme un cas limite de la méthode inverse complète. Ce formalisme mène à une généralisation du processus d'évaluation numérique de l'état adjoint, ajustable en précision et en temps de calcul en fonction de la qualité des données et du niveau de détail souhaité dans la reconstruction. L'ensemble de ces travaux est associé au développement du logiciel DassFlow-Ice de simulation directe et inverse de fluides viscoplastiques à surface libre. Ce logiciel prospectif bidimensionnel, diffusé dans la communauté glaciologique, a donné lieu au développement d'une version tridimensionnelle

    Modélisation d'un canal minier Ultra Large Bande(UWB) en utilisant les réseaux de neurones Artificiels RBF

    Get PDF
    Dans un environnement m1mer, le besoin d'un système de communication fiable est primordial. Ce type d'environnement étant complexe, le déploiement des systèmes de communication nécessite une connaissance parfaite du milieu de propagation. La modélisation d'un canal présente une matière très intéressante dans le domaine de recherche, et elle a été traitée dans plusieurs travaux en se basant sur des modèles traditionnels permettant de déterminer le comportement du canal de propagation selon des modèles analytiques, empiriques ou stochastiques. Dans notre projet d'étude, on s'intéresse à la modélisation du canal ultra-large bande (Ultra-Wide band UWB) dans un environnement minier en se basant sur une méthode différente des méthodes traditionnelles ; l'utilisation des réseaux de neurones artificiels RBF (réseaux à fonction de base radiale). Le canal de transmission UWB est un canal à trajets multiples, surtout au cas des applications à l'intérieur. Dans notre recherche, on s'est basé sur des mesures réalisées par LR TCS dans la mine CANMET à V al d'or située à 500km au nord de Montréal, Canada. Ces mesures ont servi comme base de données pour entrainer et créer l'architecture du réseau de neurones RBF. Dans un travail antérieur, la modélisation du canal en utilisant les réseaux de neurones est réalisée, mais en utilisant les réseaux de neurones multicouches MLP (Multi Layer Perceptron), et en s'intéressant seulement à l'affaiblissement de parcours en visibilité directe (line of sight, LOS). Dans ce travail, nous nous sommes intéressés à estimer l'affaiblissement du parcours1 (Path Joss) sur toute la bande UWB, et la phase du signal reçu, en considérant les deux types de trajets : en visibilité directe (LOS) et en visibilité non directe (non line of sight, NLOS). Les résultats obtenus montrent la capacité de ce type de réseau à modéliser le canal UWB dans un environnement minier avec une haute précision

    Étude numérique de l’impact de la distribution de catalyseur sur les performances des filtres à particules catalytiques

    Get PDF
    RÉSUMÉ: Les moteurs essence à injection directe (EID) sont une technologie en vogue pour limiter les émissions de gaz à effet de serre, grâce à d’importantes économies de carburant comparé aux autres technologies d’essence. Cependant, d’autres polluants sont émis par les véhicules à combustion interne, comme les particules fines et les oxydes d’azote (NOX) par exemple. Pour les traiter, des filtres à particules (FAP) et des chambres catalytiques (CC) sont appliqués aux systèmes de traitement des gaz d’échappement par les manufacturiers. Ces deux dispositifs sont constitués de monolithes fait de canaux rectangulaires. Dans le cas du FAP, les murs des canaux sont composés d’une céramique poreuse qui filtre les aérosols. Dans le cas des CC, les canaux sont imperméables à l’écoulement des gaz d’échappement et recouverts de catalyseur dans lequel les espèces chimiques à traiter diffusent. Afin d’abaisser les coûts et le volume de ces deux systèmes, il est possible d’intégrer le catalyseur directement dans la céramique qui forme les canaux du FAP. On parle alors de filtre à particule catalytique (FAPC). Cependant, cette déposition altère de façon significative les caractéristiques géométriques du FAPC à l’échelle du mur poreux. De plus en plus d’études s’intéressent ainsi à évaluer l’impact du dépôt de catalyseur sur les performances du FAPC en fonction, par exemple, de la quantité introduite, de la différence entre une déposition dans le mur ou sur le mur, ou encore d’un recouvrement par zones le long de chaque canal.----------ABSTRACT: Particulate filters (PF) have been used very successfully during the past decade to reduce particulate matter from the exhaust gas of modern vehicles. They consist in honeycomb monoliths made out of rectangular channels in most cases. These channels are alternatively plugged at the inlet or the outlet in order to force the exhaust gases to go through the porous material composing its walls. Catalytic chambers (CC) are open monoliths coated with precious metal composed catalysts. By diffusing in the catalyst, noxious gases as carbon monoxide (CO), nitrogen oxides (NOX) and hydrocarbons (HC) are reduced or oxidized in armless components like CO2, H2O and N2
    • …
    corecore