14 research outputs found

    Optimisation de l'empreinte carbone dans un environnement intercloud : modÚles et méthodes

    Get PDF
    RÉSUMÉ Depuis une dizaine d’annĂ©es, la dĂ©matĂ©rialisation de l’information connaĂźt un essor particulier avec l’ascension du Cloud Computing. La puissance de calcul et de stockage offerte, ainsi que la flexibilitĂ© d’utilisation ont favorisĂ© une externalisation accrue des donnĂ©es vers des serveurs distants. Ces derniers affranchissent les utilisateurs du fardeau de l’outil informatique traditionnel et leur donnent accĂšs Ă  un large Ă©ventail de services en ligne, qui sont des charges modulables, facturĂ©es selon l’utilisation. ParticuliĂšrement, dans le cas du modĂšle d’Infrastructure-service, le client dispose d’une infrastructure physique hĂ©bergĂ©e et peut ainsi louer des serveurs physiques, sur lesquels tourneront ses applications encapsulĂ©es dans des machines virtuelles ou Virtual Machines (VMs). Toutefois l’émergence du Cloud et son adoption Ă  grande Ă©chelle constituent des dĂ©fis pour les fournisseurs d’infrastructure. En effet, au-delĂ  de l’implantation et de la configuration des rĂ©seaux physiques, il faut conjuguer avec l’infrastructure sous-jacente dĂ©jĂ  existante, et dĂ©terminer des mĂ©canismes efficaces d’assignation des requĂȘtes des usagers aux serveurs et data centers, contraint par le respect des performances des applications hĂ©bergĂ©es et des exigences de sĂ©curitĂ© imposĂ©es par les clients. La demande sans cesse croissante et le souci de fournir une certaine qualitĂ© de service, obligent les fournisseurs Ă  investir d’importants capitaux afin de multiplier leurs offres d’hĂ©bergement dans plusieurs zones gĂ©ographiques. Avec ce dĂ©ploiement Ă  grande Ă©chelle d’énormes data centers, leur utilisation Ă  outrance, l’augmentation des coĂ»ts d’opĂ©ration et de l’énergie Ă©lectrique, les dĂ©penses d’exploitation ont rapidement dĂ©passĂ© les investissements. De ce fait, plusieurs auteurs se sont penchĂ©s sur le problĂšme de placement des charges dans un environnement Cloud et ont dĂ©veloppĂ© des outils d’aide aux prises de dĂ©cision, basĂ©s concomitamment sur l’accroissement des profits, une meilleure correspondance entre les besoins essentiels du client et l’infrastructure disponible, et la maximisation de l’efficacitĂ© et de l’utilisation des ressources. Bien que le Cloud Computing offre une rĂ©ponse favorable au problĂšme de calcul et de stockage des informations, son adoption Ă  grande Ă©chelle est freinĂ©e par les inquiĂ©tudes soulevĂ©es par sa signature Ă©cologique. En effet, l’utilisation excessive des data centers, de mĂȘme que leur gestion et leur entretien, requiĂšrent une Ă©nergie Ă©lectrique accrue se traduisant par une empreinte carbone de plus en plus importante, accĂ©lĂ©rant ainsi le rĂ©chauffement climatique. Ainsi, au moment d’opter pour une solution Cloud, certains usagers questionnent l’impact environnemental d’un tel choix. Dans ce contexte, afin de favoriser l’expansion du Cloud, les gĂ©ants de l’informatique n’ont d’autre choix que de confĂ©rer une dimension “vert” Ă  leur infrastructure physique. Ceci se traduit par des techniques d’assignation des charges visant Ă  rĂ©duire l’empreinte carbone des data centers afin de faire du Cloud Computing un succĂšs tant technologique qu’écologique. Plusieurs Ă©tudes portant sur la rĂ©duction de l’empreinte carbone d’un unique data center, ont Ă©tĂ© rĂ©cemment effectuĂ©es en considĂ©rant les techniques d’optimisation de l’énergie consommĂ©e. Toutefois, dans le contexte d’un Intercloud, oĂč diffĂ©rents data centers sont gĂ©ographiquement distribuĂ©s et alimentĂ©s par des sources d’énergie renouvelables ou non, la consommation Ă©nergĂ©tique totale ne saurait reflĂ©ter l’empreinte carbone dudit environnement. En ce sens, des recherches plus poussĂ©es ont portĂ© sur l’optimisation de l’impact environnemental d’un InterCloud oĂč l’hĂ©tĂ©rogĂ©nĂ©itĂ© de l’infrastructure a Ă©tĂ© prise en compte. Cependant, seul le processus de placement des charges a Ă©tĂ© optimisĂ© sans aucune considĂ©ration pour l’amĂ©lioration de l’efficacitĂ© Ă©nergĂ©tique des data centers, pour la rĂ©duction de la consommation des ressources rĂ©seau, ou encore pour les exigences des clients en matiĂšre de performance des applications et de sĂ©curitĂ© des donnĂ©es. À cet effet, cette thĂšse propose un cadre de planification des applications visant Ă  minimiser l’empreinte carbone dans un environnement InterCloud. GĂ©nĂ©ralement, le problĂšme est traitĂ© de maniĂšre globale, en combinant le choix de l’emplacement des applications et le routage du trafic associĂ© au problĂšme de gestion du systĂšme de refroidissement dans les diffĂ©rents data centers. Divers aspects, comme la puissance des Ă©quipements de calcul, la consommation des ressources rĂ©seau et l’efficacitĂ© Ă©nergĂ©tique seront simultanĂ©ment optimisĂ©s, sous la contrainte des exigences des clients. Le travail a Ă©tĂ© rĂ©alisĂ© en trois phases. Dans le premier volet du travail, un modĂšle d’optimisation du placement des applications simples, Ă  VM unique, a Ă©tĂ© dĂ©veloppĂ© afin de rĂ©duire l’impact Ă©cologique d’un ensemble de data centers. Le modĂšle d’empreinte carbone proposĂ© amĂ©liore les approches de consommation Ă©nergĂ©tique dĂ©jĂ  existantes en combinant l’optimisation du placement des VMs au mĂ©canisme d’accroissement de l’efficacitĂ© Ă©nergĂ©tique des data centers. Ce dernier processus consiste Ă  dĂ©terminer, pour chaque data center actif, la valeur optimale de tempĂ©rature Ă  fournir par le systĂšme de refroidissement, de maniĂšre Ă  trouver un compromis entre les gains Ă©nergĂ©tiques, associĂ©s au cooling, et l’augmentation de la puissance des ventilateurs des serveurs, face Ă  un accroissement de la tempĂ©rature ambiante. Afin d’ajouter un certain rĂ©alisme au modĂšle, les exigences des clients, en termes de performances des applications hĂ©bergĂ©es, ou encore en rapport avec les notions de sĂ©curitĂ© et de redondance, ont Ă©galement Ă©tĂ© considĂ©rĂ©es. Une analyse de la monotonie et de la convexitĂ© du modĂšle non linĂ©aire rĂ©sultant a Ă©tĂ© effectuĂ©e afin de souligner l’importance entourant la dĂ©termination d’une valeur optimale de tempĂ©rature. Par la suite, le problĂšme a Ă©tĂ© transformĂ© en un modĂšle linĂ©aire et rĂ©solu de maniĂšre optimale avec un solveur mathĂ©matique, Ă  l’aide des techniques de programmation linĂ©aire en nombres entiers. Afin de mettre en Ă©vidence la pertinence du modĂšle d’optimisation proposĂ© en termes de coĂ»t d’empreinte carbone, une analyse de la structure du coĂ»t et de l’impact de la charge a Ă©tĂ© rĂ©alisĂ©e. Dans le but de mieux apprĂ©cier les rĂ©sultats, une version simplifiĂ©e du modĂšle, exempte de toute exigence du client, a alors Ă©tĂ© considĂ©rĂ©e. Ce mĂȘme modĂšle simplifiĂ© a Ă©galement Ă©tĂ© comparĂ© Ă  diffĂ©rentes techniques visant Ă  optimiser l’empreinte carbone autant au sein d’un unique data center qu’à l’échelle d’un environnement InterCloud. Les rĂ©sultats ont dĂ©montrĂ© que le modĂšle proposĂ© permet de rĂ©duire jusqu’à 65% le coĂ»t d’empreinte carbone. De plus, afin de souligner l’efficacitĂ© du modĂšle proposĂ© Ă  rĂ©aliser un placement des VMs tout en respectant les contraintes de sĂ©curitĂ© et de performances, le modĂšle simplifiĂ© a Ă©tĂ© comparĂ© au modĂšle intĂ©grant les exigences des clients. Bien que le modĂšle sans contraintes gĂ©nĂšre, en gĂ©nĂ©ral des coĂ»ts d’empreinte carbone infĂ©rieurs Ă  celui du modĂšle complet, il demeure moins intĂ©ressant Ă  considĂ©rer, car le gain d’empreinte carbone rĂ©sultant du processus de consolidation aveugle ne permet pas de contrebalancer le pourcentage de violation des contraintes. Ces rĂ©sultats ont Ă©galement permis de dĂ©montrer les bonnes performances du modĂšle complet comparĂ© Ă  sa variante simplifiĂ©e, dans le sens que le premier permet parfois d’obtenir des configurations de coĂ»t identique au modĂšle simplifiĂ©, en s’assurant, de surcroĂźt, du respect des exigences des utilisateurs. Le mĂ©canisme de placement des VMs est un problĂšme complexe Ă  rĂ©soudre. En raison de la nature NP-complet du problĂšme, le temps de calcul croĂźt de maniĂšre exponentielle en fonction des entrĂ©es et seules les instances de petite taille, mĂȘme dans le cas du modĂšle simplifiĂ©, ont pu ĂȘtre rĂ©solues avec la mĂ©thode exacte. Afin de pallier ce problĂšme, nous proposons, dans la seconde Ă©tape de notre travail, une mĂ©thode de rĂ©solution, basĂ©e sur les mĂ©taheuristiques, dans le but d’obtenir des solutions de qualitĂ© en un temps polynomial pour des instances de grande taille. La mĂ©thode de rĂ©solution proposĂ©e dans cet article est basĂ©e sur l’heuristique de Recherche Locale ItĂ©rĂ©e ou Iterated Local Search (ILS), qui implĂ©mente une descente comme mĂ©canisme de recherche locale et, suite Ă  l’arrĂȘt prĂ©maturĂ© du processus de descente, effectue des sauts dans l’espace des solutions afin de relancer l’exploration Ă  partir d’une nouvelle configuration. Aussi, afin d’accĂ©lĂ©rer le processus d’évaluation d’une configuration, des fonctions de gains, traduisant la diffĂ©rence entre le coĂ»t de la solution actuelle et celui du voisin considĂ©rĂ©, ont Ă©tĂ© dĂ©terminĂ©es. Divers mĂ©canismes de perturbations ont Ă©galement Ă©tĂ© implĂ©mentĂ©s afin d’éviter le piĂšge des optima locaux. De maniĂšre gĂ©nĂ©rale, les rĂ©sultats prĂ©sentĂ©s sont de deux types : la paramĂ©trisation de la mĂ©thode et l’évaluation des performances de l’algorithme. La phase de paramĂ©trisation a permis de dĂ©terminer les mĂ©canismes Ă  implĂ©menter Ă  chaque Ă©tape de l’algorithme ainsi que la valeur idĂ©ale des paramĂštres clĂ©s. Par la suite, les performances de l’algorithme ont d’abord Ă©tĂ© comparĂ©es Ă  celles obtenues avec la mĂ©thode exacte dĂ©finie au premier volet. Les rĂ©sultats dĂ©montrent que les solutions gĂ©nĂ©rĂ©es par la mĂ©thode proposĂ©e sont en moyenne Ă  environ 0.2% de la solution optimale, avec un Ă©cart maximal de 2.6% et un temps d’exĂ©cution moyen infĂ©rieur Ă  3 secondes. Afin d’analyser les performances gĂ©nĂ©rales de la mĂ©thode proposĂ©e, cette derniĂšre a Ă©tĂ© exĂ©cutĂ©e sur diffĂ©rentes tailles d’instances du modĂšle et les rĂ©sultats obtenus ont Ă©tĂ© Ă©valuĂ©s par rapport Ă  ceux dĂ©coulant de l’implĂ©mentation de trois mĂ©thodes approchĂ©es retrouvĂ©es dans la littĂ©rature. Les rĂ©sultats ont pu dĂ©montrer que l’heuristique proposĂ©e permet d’établir un bon compromis entre la qualitĂ© de la solution et le temps d’exĂ©cution, et peut engendrer une Ă©conomie de coĂ»t de carbone pouvant s’élever jusqu’à 34%. Par ailleurs, des applications de plus en plus complexes, s’étendant sur plusieurs VMs, se font de plus en plus hĂ©berger dans le Cloud. Elles introduisent des trafics inter-VMs, sollicitant ainsi les ressources rĂ©seau afin de faire transiter l’information d’une machine virtuelle ou Virtual Machine (VM) Ă  une autre. Or, comme la consommation Ă©nergĂ©tique des ressources rĂ©seau reprĂ©sente environ le quart de la puissance totale d’un data center, il en rĂ©sulte alors que l’impact Ă©nergĂ©tique de ces Ă©quipements ne saurait ĂȘtre nĂ©gligĂ© plus longtemps, lorsque vient le temps de dĂ©cider de l’emplacement des VMs afin de rĂ©duire l’empreinte Ă©cologique de plusieurs data centers. Dans ce contexte, la derniĂšre phase de notre travail propose une extension du modĂšle dĂ©veloppĂ© Ă  la premiĂšre Ă©tape, oĂč l’optimisation du placement des VMs est combinĂ©e au mĂ©canisme d’amĂ©lioration de l’efficacitĂ© Ă©nergĂ©tique et au routage du trafic. De plus, le processus de routage du trafic Ă©tant Ă©galement NP-complet, la combinaison de ce dernier au mĂ©canisme de placement des VMs rĂ©sulte en un problĂšme encore plus difficile. En ce sens, nous avons Ă©galement proposĂ© une approche de rĂ©solution basĂ©e sur la combinaison de deux mĂ©taheuristiques, soit la Recherche Locale ItĂ©rĂ©e (ILS) et la Recherche Tabou (Tabu Search (TS)). De maniĂšre gĂ©nĂ©rale, la mĂ©thode dĂ©veloppĂ©e implĂ©mente l’algorithme ILS oĂč le mĂ©canisme de recherche locale est une adaptation de l’heuristique TS. Cette hybridation permet de tirer profit des avantages des deux mĂ©thodes : d’une part, des mĂ©canismes de mĂ©moire Ă  court et long terme afin d’éviter les cycles et les optima locaux, et d’autre part, des opĂ©rateurs de perturbation qui relancent l’exploration Ă  partir d’une nouvelle configuration de dĂ©part. Dans la phase d’expĂ©rimentation, autant le modĂšle global que la mĂ©thode de rĂ©solution proposĂ©s ont Ă©tĂ© Ă©valuĂ©s. Le modĂšle global a Ă©tĂ© implĂ©mentĂ© en AMPL/CPLEX en utilisant les techniques de programmation linĂ©aire en nombres entiers et a Ă©tĂ© Ă©valuĂ© par rapport Ă  d’autres modĂšles de rĂ©fĂ©rence optimisant un unique objectif Ă  la fois. Comme nous nous y attendions, le modĂšle proposĂ© permet d’obtenir de meilleures configurations en termes de coĂ»t d’empreinte carbone, avec un gain pouvant s’élever jusqu’à environ 900% pour les instances considĂ©rĂ©es. Toutefois, cette optimisation se fait au prix d’un temps de calcul, en moyenne, relativement plus Ă©levĂ©, en raison de la complexitĂ© du modĂšle proposĂ©. Cependant, l’économie en carbone rĂ©alisĂ©e Ă©tant substantiellement plus importante comparĂ©e aux Ă©carts en temps de calcul observĂ©s, les rĂ©sultats ont pu dĂ©montrer la grande efficacitĂ© du modĂšle proposĂ© par rapport aux modĂšles rĂ©alisant une optimisation mono-objectif. La mĂ©thode de rĂ©solution approchĂ©e proposĂ©e a Ă©tĂ© implĂ©mentĂ©e en C++ et des expĂ©riences prĂ©liminaires nous ont permis de dĂ©gager les valeurs optimales des paramĂštres clĂ©s de la mĂ©thode, dont la plupart sont liĂ©es Ă  la taille du problĂšme. L’efficacitĂ© de la mĂ©thode, en termes de compromis entre coĂ»t d’empreinte carbone et temps d’exĂ©cution, a d’abord Ă©tĂ© comparĂ©e par rapport aux valeurs de borne infĂ©rieure, pour les instances de petite taille. Les rĂ©sultats montrent que l’algorithme dĂ©veloppĂ© est en mesure de trouver des solutions, en moyenne, Ă  moins de 3% de la borne infĂ©rieure en un temps polynomial, contrairement Ă  une croissance exponentielle du temps de calcul pour la mĂ©thode exacte. Pour les plus grandes instances, une comparaison avec diffĂ©rentes mĂ©thodes de rĂ©fĂ©rence a pu dĂ©montrer que l’approche proposĂ©e est toujours en mesure de trouver les configurations de coĂ»t minimal en un temps rĂ©duit, soulignant ainsi les bonnes performances de l’heuristique dĂ©veloppĂ©e et la justesse au niveau du choix des paramĂštres de simulation qui y sont associĂ©s. Ces expĂ©riences ont dĂ©montrĂ©, au regard des rĂ©sultats obtenus, que le travail rĂ©alisĂ© permettra d’offrir, aux fournisseurs de Cloud, des outils efficaces de planification des applications Ă  l’échelle de leurs data centers, afin de mieux faire face aux inquiĂ©tudes soulevĂ©es quant Ă  l’impact Ă©cologique du Cloud Computing sur le bien-ĂȘtre de la planĂšte.----------ABSTRACT The last decade or so has seen a rapid rise in cloud computing usage, which has led to the dematerialization of data centers. The higher computing power and storage, combined with a greater usage ïŹ‚exibility, have promoted the outsourcing of data to remote servers, allowing users to overcome the burden of traditional IT tools, while having access to a wider range of online services that are charged on based on usage. Particularly, in the case of an infrastructure service model, the client is given access to a physical infrastructure where he can rent physical servers to run their applications, which are encapsulated in VMs. However, the emergence of cloud service and its wide adoption impose new challenges on infrastructure providers. They have to optimize the underlying existing infrastructure by identifying eïŹƒcient mechanisms for assigning user requests to servers and data centers, while satisfying performance and security constraints, as imposed by the clients. Faced with an increasing demand, providers have to invest signiïŹcant capital in order to increase their hosting oïŹ€ers in several geographic areas, to provide the required Quality of Service (QoS). The increased use of data centers also has a huge bearing on the operating costs and energy consumption, as operating expenses have quickly exceeded the investment. Therefore, several authors have been tackling the placement of loads in a cloud environment by developing tools to aid in the decision-making. Most of the proposed solutions are guided by ïŹnancial aspects to increase proïŹts by determining the best mapping between the basic needs of the client and the available infrastructure, in order to meet the QoS constraints while maximizing the eïŹƒciency and the use of resources. However, while cloud computing represents a great opportunity for both individuals and businesses, its widespread adoption is slowed by concerns regarding its global ecological impact. The excessive use of data centers, as well as their management and maintenance, require huge amounts of electric power, thus accelerating the global warming process. Therefore, before choosing a cloud solution, some users will take into consideration that environmental impact. This, in turn, forces cloud providers to consider the "green" aspect of their infrastructure by developing new ways of assigning loads that reduce the carbon footprint of their data centers in order for cloud computing to be both a technological and an ecological success. Several works have recently been published that aim to reduce the environmental impact of clouds. The ïŹrst ones have focused on reducing the carbon footprint of a single data center by optimizing the consumed energy. However, in the context of an InterCloud environment composed of diïŹ€erent data centers that are geographically distributed and powered by renewable energy sources or not, the total energy consumed cannot reïŹ‚ect the carbon footprint of that said environment. That’s why subsequent research has been focusing on optimizing the environmental impact of an InterCloud where the heterogeneity of the infrastructure is taken into account. However, only the VM placement process has been optimized with no consideration to improving data center energy eïŹƒciency, network power consumption or customer requirements, as far as application performance and data security are concerned. To this end, this thesis proposes a framework for assigning applications to an InterCloud with the view of minimizing the carbon footprint of such a computing environment. In order to address this issue, the problem is treated holistically, jointly optimizing the VM placement process, the traïŹƒc routing and a cooling management technique that considers the dynamic behavior of the IT fans. Various aspects, such the processing power, the network resource consumption and the energy eïŹƒciency, will be simultaneously optimized, while satisfying customer requirements. The work is carried out in three phases. First, we propose an optimization model for placing standalone VMs, in order to reduce the environmental impact of a set of data centers. The carbon footprint of the proposed model improves the energy consumption of existing approaches by combining both the optimization of the VM placement process and the energy eïŹƒciency of data centers. This latter process determines, for each active data center, the optimal temperature to be provided by the cooling system so as to ïŹnd a compromise between the energy gains associated with the cooling and the increased power consumption of the server fans, at high temperatures. In order to add some realism to the model, customer requirements are also considered, in terms of application performance, security and redundancy. An analysis of the monotony and the convexity of the resulting nonlinear model was conducted to highlight the importance surrounding the determination of the optimal temperature value. Subsequently, the problem is transformed into a linear model and solved optimally with a mathematical solver, using integer linear programming. To demonstrate the relevance of the proposed optimization model in terms of carbon footprint, an analysis of the cost structure and the impact of the load is carried out. In order to better highlight the results, a simpliïŹed version of the model, free from any client requirements, is also considered. This same simpliïŹed model is also compared with diïŹ€erent other techniques that optimize the carbon footprint both within a single data center and across an InterCloud environment. The results demonstrate that the proposed model can yield savings of up to 65%, in terms of carbon footprint cost. In addition, to highlight the eïŹ€ectiveness of the proposed model when placing VMs while satisfying clients and performance constraints, the simpliïŹed model is compared with the global model that incorporates customer requirements. Although the model without constraints usually generates smaller carbon footprint costs, its result is not as interesting as it may seem, because these savings do not oïŹ€set the cost of violating constraints. These results also demonstrate the good performance of the global model compared to its simpliïŹed variant, in the sense that the ïŹrst sometimes provides conïŹgurations identical to the simpliïŹed cost model, while ensuring that user requirements are met. Placing VMs is a complex problem to solve. Due to its NP-complete nature, the computing time grows exponentially in the length of the inputs. Even with the simpliïŹed model, only small instances can be solved with the exact method. In order to overcome this problem, we propose, in the second stage of our work, a resolution method based on metaheuristics in order to obtain good solutions for large instances in a polynomial time. The method proposed in this article is based on the ILS heuristic that implements a descent as a local search mechanism and, following the early termination of the descent, performs jumps in the solution space to restart the algorithm from a new conïŹguration. Furthermore, in order to speed up the evaluation of a conïŹguration, gain functions that reïŹ‚ect the cost diïŹ€erence between the current solution and the considered neighbor, are determined. Various perturbation mechanisms are also implemented to avoid the trap of local optima. In general, the presented results are of two types: the parametrization of the method and the performance evaluation of the proposed algorithm. The parametrization phase helps determine the mechanisms to implement for each step of the algorithm as well as the ideal value of each

    SynthÚse et études des propriétés catalytiques d'acides de Lewis dérivés des familles principales 13 et 15

    Get PDF
    Nous nous sommes intĂ©ressĂ©s Ă  l'Ă©tude des propriĂ©tĂ©s catalytiques d'acides de Lewis dĂ©rivĂ©s des familles principales 13 et 15 tels le gallium et le bismuth. Nous avons, d'une part, mis en Ă©vidence l'utilisation efficace du trifluoromĂ©thanesulfonate (triflate) de gallium(III) [Ga(OTf)₃] comme catalyseur de la rĂ©action de Mukaiyama aldol. Notre travail a d'abord compris l'Ă©tude de la rĂ©action de l'Ă©ther d'enol silylĂ© dĂ©rivĂ© de la propiophĂ©none avec un composĂ© carbonylĂ© en prĂ©sence de Ga(OTf)₃ comme acide de Lewis. Nous avons dĂ©veloppĂ© une mĂ©thode diastĂ©rĂ©osĂ©lective de synthĂšse de ß-hydroxycĂ©tones utilisant des quantitĂ©s catalytiques (aussi basses que 0,1 mol %) de Ga(OTf)₃ et une variĂ©tĂ© d'aldĂ©hydes, d'Ă©thers d'Ă©nols silylĂ©s et d'acĂ©tals de cĂ©tĂšnes, dans des conditions trĂšs douces. Plusieurs expĂ©riences de contrĂŽle effectuĂ©es ont dĂ©montrĂ© que la vĂ©ritable espĂšce catalytique de notre systĂšme rĂ©actionnel est l'acide triflique (HOTf) provenant de l'hydrolyse du Ga(OTf)₃. Des expĂ©riences avec diffĂ©rentes Ă©ponges Ă  protons ont Ă©tĂ© rĂ©alisĂ©es dans ce sens. La rĂ©action de Mukaiyama aldol catalysĂ©e par le Ga(OTf)₃ ou le HOTf n'est pas connue dans la littĂ©rature. L'utilisation du sel de gallium comme source d'acide triflique offre une solution alternative trĂšs avantageuse puisque le HOTf est trĂšs corrosif et difficile Ă  manipuler. Cette rĂ©action de Mukaiyama aldol s'inscrit particuliĂšrement dans un contexte de chimie respectueuse de l'environnement. Ga(OTf)₃ est une poudre blanche peu toxique, de manipulation facile et recyclable. D'autre part, nous nous sommes intĂ©ressĂ©s Ă  la synthĂšse de complexes hĂ©tĂ©robimĂ©talliques du Bi(III). Les complexes hĂ©tĂ©robimĂ©talliques analogues au Bi(III) ne sont pas connus dans la littĂ©rature. Par consĂ©quent, nous avons dĂ©veloppĂ© une mĂ©thode pour la synthĂšse d'une nouvelle famille de complexes de Bi(III). Via cette mĂ©thode, nous avons obtenu le (R)-Bi-sodium-binol, le seul complexe de Bi(III) synthĂ©tisĂ© jusqu'Ă  maintenant. Des analyses par diffraction des rayons X ont corroborĂ© que le complexe obtenu Ă©tait isostructural aux complexes analogues des lanthanides connus dans la littĂ©rature. Nous avons effectuĂ© plusieurs essais catalytiques avec le complexe (R)-BiNaB. Nous avons d'abord Ă©tudiĂ© la rĂ©action de Henry (addition d'un nitroalcane sur un composĂ© carbonylĂ©). Le benzaldĂ©hyde et le nitromĂ©thane ont rĂ©agi en prĂ©sence de (R)-BiNaB pour conduire au nitroaldol avec un bon rendement (72%) malgrĂ© l'absence d'Ă©nantiosĂ©lectivitĂ©. La rĂ©action d'ouverture d'Ă©poxydes a ensuite Ă©tĂ© explorĂ©e avec l'utilisation du 4-mĂ©thoxyphĂ©nol et d'aniline comme nuclĂ©ophiles

    Gallium(III) triflate catalyzed diastereoselective mukaiyama aldol reaction by using low catalyst loadings

    Get PDF
    A mild method for the diastereoselective Mukaiyama aldol reaction is reported. By using a low loading of the gallium(III) triflate catalyst (down to 0.01 mol-%), the transformation proceeds efficiently to afford the corresponding ß-hydroxy ketones in yields up to 92¿%. To the best of our knowledge, this is the first report of a metal triflate acting as a safe, bench-stable, and slow-releasing source of triflic acid for the Mukaiyama aldol reaction.Keywords : Gallium / Aldol reactions / Lewis acids / C–C bond formation / Galliu

    Cloud engineering is search based software engineering too

    Get PDF
    Many of the problems posed by the migration of computation to cloud platforms can be formulated and solved using techniques associated with Search Based Software Engineering (SBSE). Much of cloud software engineering involves problems of optimisation: performance, allocation, assignment and the dynamic balancing of resources to achieve pragmatic trade-offs between many competing technical and business objectives. SBSE is concerned with the application of computational search and optimisation to solve precisely these kinds of software engineering challenges. Interest in both cloud computing and SBSE has grown rapidly in the past five years, yet there has been little work on SBSE as a means of addressing cloud computing challenges. Like many computationally demanding activities, SBSE has the potential to benefit from the cloud; ‘SBSE in the cloud’. However, this paper focuses, instead, of the ways in which SBSE can benefit cloud computing. It thus develops the theme of ‘SBSE for the cloud’, formulating cloud computing challenges in ways that can be addressed using SBSE

    Alteraciones articulares asociadas a los bisfosfonatos

    No full text
    Conocer si los bisfosfonatos se asocian con alteraciones musculoesqueléticas. 1. Conocer la fuerza de la asociación entre la exposición a bisfosfonatos y la aparición de alteraciones musculoesqueléticas. 2. Conocer la influencia de ciertos factores pronósticos en la aparición de alteraciones musculoesqueléticas asociadas a bisfosfonatos.Departamento de Anatomía y Radiologí

    Performance-aware virtual machine allocation approach in an intercloud environment

    No full text

    On the Carbon Footprint Optimization in an InterCloud Environment

    No full text
    corecore