117 research outputs found
Effets des paramètres opérationnels sur l'uniformité du mélange dans les mélangeurs à rubans
Les comprimés pharmaceutiques sont produits en comprimant un mélange de poudres sur une presse. Un mélange peu homogène de poudres pharmaceutiques pourrait aboutir à des comprimés de poids et de composition non-uniformes. Dans le but de préparer un mélange pharmaceutique, Merck utilise des mélangeurs à rubans dans lesquels une vis rotative effectue le mélange dans un contenant en forme de U. Le but de cette étude est d'évaluer l'effet des paramètres opérationnels sur la qualité du mélange, aussi appelée l'uniformité du mélange. Dans un mélangeur à rubans à l'échelle de laboratoire, des mélanges composés de cellulose microcristalline (MCC) blanche et bleue ont été effectués. La qualité du mélange a été évaluée en utilisant une approche statistique sous plusieurs conditions opératoires comme le profil de chargement, le degré de remplissage, la vitesse de la vis du mélangeur et le temps de mélange. Le mélangeur a été périodiquement arrêté pour extraire des «carottes» dans plusieurs positions. Les échantillons ont été analysés en utilisant une technique calorimétrique pour en déterminer la concentration de MCC bleue. Le volume du mélangeur a été divisé en régions tridimensionnelle s dont les concentrations ont été comparées. L'uniformité du mélange correspond à une répartition équitable de la MCC bleue au travers du volume du mélangeur et est basée sur un critère de fin de mélange provenant des normes USP. Le contenu du mélangeur était uniquement uniforme degrés de remplissage. A haute vitesse rotative de aux hauts la vis, le mélange n'a jamais été uniforme. Il a finalement été démontré qu'en variant les conditions de chargement du mélangeur. le mélange axial est plus lent que celui radial. Suite au profil de remplissage du mélangeur est le paramètre qui influence le plus le procédé de mélange de poudres. A bas degré de remplissage dans les régions où la quantité de poudre est moindre, il semble que l'inégalité de la surface du lit du mélangeur cause une mauvaise qualité de mélange. A haut degré de remplissage et à vitesse élevée de la vis rotative, la poudre située dans les coins de la surface du lit (où elle est normalement soulevée) demeure relativement non mélangée. Les conditions optimales de mélange sont atteintes avec un profil de chargement en couches, ce qui favorise le mélange radial. De plus, le mélange était plus uniforme à haut degré de remplissage du mélangeur et basse vitesse de la vis rotative du mélangeur testés.Abstract: Incomplete mixing of a pharmaceutical blend could result in tablets of non-uniform content. While various blenders are used in the pharmaceutical industry, this particular project focuses on the performance of ribbon blenders. Ribbon blenders consist of a rotating impeller installed within a U-shaped tank. The overall purpose of the study was that of evaluating the effect of ribbon blender operational parameters on the product mixture quality. Mix quality or blend uniformity limits are determined by regulatory bodies. These limits served as targets for blending end-points. In a laboratory-scaled ribbon-blender, powder mixtures composed of white and blue microcrystalline cellulose (MCC) were blended. Blend uniformity was evaluated using a statistical approach under various operating conditions such as loading patterns, blender fill heights, impeller rotational speeds and mixing times."--Résumé abrégé par UMI
Approximate stochastic dynamic programming for hydroelectric production planning
This paper presents a novel approach for approximate stochastic dynamic programming (ASDP) over a continuous state space when the optimization phase has a near-convex structure. The approach entails a simplicial partitioning of the state space. Bounds on the true value function are used to refine the partition. We also provide analytic formulae for the computation of the expectation of the value function in the “uni-basin” case where natural inflows are strongly correlated. The approach is experimented on several configurations of hydro-energy systems. It is also tested against actual industrial data
Gestion d'un ensemble d'installations hydroélectriques soumis à une contrainte de demande
RÉSUMÉ
Cette thèse présente une nouvelle approche pour solutionner un problème de gestion d’un ensemble d’installations hydroélectriques dont l’objectif est de maximiser la différence entre les revenus des ventes et les coûts des achats d’électricité et ceci tout en satisfaisant à la demande. La technique de solution proposée est basée sur la méthode des trajectoires optimales développée par Turgeon [1]. Le but de cette méthode est de déterminer un ensemble de niveaux de références à chaque période et ce pour chaque réservoir. Ces niveaux sont dit optimaux si l’espérance de la production est maximisée lorsque les réservoirs se situent sur ces niveaux. Bien que cette méthode soit applicable quelque soit le nombre de réservoirs, elle ne permet pas de solutionner un problème avec demande. La quantité d’énergie produite maximisant l’espérance de la production ne maximisera pas nécessairement la différence entre les revenus et les coûts. Ceci est particulièrement vrai durant l’hiver où les apports naturels sont faibles et la demande est forte. Afin de modifier cette méthode, nous avons donc estimé la quantité optimale d’énergie à produire pour chaque période à l’aide de la programmation dynamique stochastique. Le problème à résoudre est un problème à un réservoir qui est obtenu par l’agrégation des contenus énergétiques de l’ensemble des réservoirs du système. La règle de gestion « agrégée » donne la quantité d’énergie cible devant être produite en fonction de l’énergie potentielle stockée et des apports énergétiques prévus. Pour déterminer de quel réservoir l’eau doit être soutirée (ou emmagasinée) pour atteindre la cible, les valeurs marginales de l’eau stockée dans les réservoirs ont été estimées avec la méthode des trajectoires. La méthode a été appliquée et comparée à la programmation dynamique pour des problèmes de 2 et 3 réservoirs. La méthode a aussi été appliquée à des problèmes de grande dimension afin de montrer que la modification apportée n’affecte pas les deux principales qualités de la méthode qui sont son efficacité et sa rapidité.----------ABSTRACT
This thesis presents a method for determining a weekly operating policy of a hydropower system subject to a demand. The objective function is to maximize the difference between the revenues due to the surplus of energy and the cost of the energy bought to meet the demand. The method is based on the Optimal Reservoir Trajectory (ORT) approach developed by Turgeon [1]. The task of the ORT is to find a set of trajectories that maximize the expected production of energy. The aim of the operating policy of the ORT is to follow these trajectories as close as possible. Consequently, this operating policy does not necessarily maximize the objective function in each period. It can be advantageous to reduce the production and buy energy to prevent future shortage or increase the production to sell the surplus of energy. We tackle the problem of calculating the optimal amount of energy that should be produced in each period by solving a small-scale stochastic dynamic problem. In this problem, the objective is to maximize the objective function for the whole system represented by an aggregated model. The feedback policy of this dynamic problem gives the energy target that the system should reach in each period. We identify afterwards the reservoirs for which the release should be increased (or reduced) to reach this target by means of an estimation of marginal values of the water stored in the reservoirs. These values indicate the impact of operating the reservoirs below or above the optimal trajectories. The method is compared to Stochastic Dynamic Programming for systems of two and three reservoirs. We also show, for a seven reservoirs system, that the CPU time is not affected by this modification when compared to the original ORT method. Thus, a large-scale problem can be solved even when there is a demand to satisfy
Évaluation à long terme de l'impact de différents scénarios de l'approche triade sur la structure des classes d'âge, les patrons de paysage et la récolte de la matière ligneuse en forêt boréale mixte
Depuis 15 ans, l'approche de la TRIADE, qui vise une division du territoire en trois aires d'utilisation a été proposée comme une alternative qui tend vers un aménagement durable de la forêt. De ce fait, l'objectif de la présente étude était de mieux comprendre les effets à long terme de différentes proportions allouées pour chacune des zones (conservation, aménagement écosystémique et intensif) sur la biodiversité et la récolte de la matière ligneuse en forêt boréale mixte. L'impact de six scénarios d'aménagement a été évalué par rapport à un scénario de perturbations naturelles en fonction de cinq indices de paysage ainsi que de la structure des classes d'âge et des volumes récoltés. Pour ce faire, un modèle spatialement explicite à l'échelle du paysage a été utilisé pour simuler un territoire de 390000 ha en Mauricie, au Québec pour une période de 490 ans. Les résultats obtenus indiquent que le pourcentage de vieilles forêts (100 ans ou plus) était principalement influencé par la proportion occupée par la zone d'aménagement écosystémique. De plus, tous les scénarios d'aménagement mènent à une augmentation importante de la fragmentation de la forêt. En comparaison avec le scénario de statu quo, tous les scénarios TRIADE présentent une baisse de volume à court terme. À long terme, les volumes varient selon les décennies, mais certains scénarios montrent des gains face au statu quo. De façon générale, les résultats confirment que les changements de patrons à l'échelle du paysage sont un processus très long et que la TRIADE est une option qui doit être considérée pour atteindre un aménagement durable de la forêt boréale mixte. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : TRIADE, Zonage fonctionnel, Aménagement durable de la forêt, Fragmentation, Forêt boréale mixte
Optimisation multi-objective des problèmes combinatoires : application à la génération des horaires d'examens finaux
Les problèmes d'optimisation combinatoire discrète (POCD) sont des problèmes très difficiles à résoudre. La nature discrète des variables forme un espace non dérivable qui rendent inutiles les techniques basées sur le gradient. Le problème de la production des horaires est représentatif d'une famille de POCD. Il renferme un ensemble d'objectifs conflictuels, un ensemble de contraintes non linéaires et un nombre de combinaisons potentielles très élevé. De plus, un certain nombre d'institutions académiques produisent encore des horaires d'une manière manuelle ou semi-automatique. L'automatisation peut donc éliminer les aspects déplaisants de cette tâche. Ce travail porte sur l'optimisation combinatoire par algorithmes évolutifs et, plus précisément, sur les problèmes de création d'horaires des examens finaux (PCHE). Dans un premier temps, les POCD mono-critère et multi-critères sont décrits d'une manière formelle afin d'en établir les principales caractéristiques. Les méthodes qui ont été proposées pour la résolution d'un PCHE, tels que le recuit simulé, la fouille Tabou et les algorithmes génétiques ont fait l'objet d'une revue de la littérature. Afin de faire un lien avec les méthodes de résolutions multi-critères, il sera prouvé qu'un PCHE est lui aussi un POCD multi-critères. Jusqu'à maintenant, ce sont principalement les modèles mono-critères qui sont utilisés lors de la résolution de ce type de problème. Ainsi, l'étude qui a été entreprise dans ce travail s'est concentrée sur les différentes techniques d'optimisation multi-critères envisagables pour la résolution d'un PCHE. Parmi les algorithmes évolutifs multi-critères les plus populaires, ceux de la famille NSGA de Deb et du SPEA de Zitzler ont été susceptibles d'obtenir de bons résultats. Ces techniques, vues en détail dans ce travail, ont été implantées sur un problème de création des horaires d'examens finaux. Suite à une première série d'expérimentations, les algorithmes NSGA-II et SPEA-II se sont montrés inappropriés pour la résolution d'un PCHE à cause de la gestion des contraintes et à la diversité des solutions. L'ensemble des problèmes rencontrés lors de l'utilisation de ces algorithmes a permis la conception d'une nouvelle approche hybride. Cet algorithme évolutif hybride possède une structure semblable à celle de l'algorithme SPEA-II de Zitzler. La différence majeure est le remplacement de l'opérateur de croisement par deux fouilles Tabou. La première fouille est appliquée afin de réduire les violations de contraintes alors que la deuxième fouille Tabou permet l'optimisation de l'étalement temporel des examens des élèves. Les résultats obtenus avec l'ensemble des bases de données publiques ont démontré qu'en moyenne l'algorithme développé fonctionne très bien et présente un bon potentiel pour la réalisation de travaux futurs
Tadoussac : sentinelle ornithologique de la forêt boréale au parc national du Saguenay
Les suivis démographiques d'espèces animales réalisés dans des sites stratégiques permettent de détecter les cas problématiques en matière de gestion et de conservation de la faune. L'Observatoire d'oiseaux de Tadoussac, situé dans le parc national du Saguenay, est une organisation ornithologique qui recueille, depuis 1993, des données sur les oiseaux de proie et les passereaux de la forêt boréale, particulièrement sur des espèces en difficulté. On présente ici cinq séries de données, obtenues à l'Observatoire d'oiseaux de Tadoussac, qui illustrent les tendances démographiques de quelques représentants de l'avifaune québécoise et qui mettent en évidence certains cycles de population
Scenario tree modeling for stochastic short-term hydropower operations planning
The authors investigate the complexity needed in the structure of the scenario trees to maximize energy production in a rolling-horizon framework. Three comparisons, applied to the stochastic short-term unit commitment and loading problem are conducted. The first one involves generating a set of scenario trees built from inflow forecast data over a rolling-horizon. The second replaces the entire set of scenario trees by the median scenario. The third replaces the set of trees by scenario fans. The method used to build scenario trees, based on minimization of the nested distance, requires three parameters: number of stages, number of child nodes at each stage, and aggregation of the period covered by each stage. The authors formulate the question of finding the best values of these parameters as a blackbox optimization problem that maximizes the energy production over the rolling-horizon. Numerical experiments on three hydropower plants in series suggest that using a set of scenario trees is preferable to using the median scenario, but using a fan of scenarios yields a comparable solution with less computational effort
Short-term unit commitment and loading problem
This paper presents a new method for solving the short-term unit commitment and loading problem of a hydropower system. Dynamic programming is used to compute maximum power output generated by a power plant. This information is then used as input of a two-phase optimization process. The first phase solves the relaxation of a nonlinear mixed-integer program in order to obtain the water discharge, reservoir volume and optimal number of units working at each period in the planning horizon. The second stage solves a linear integer problem to determine which combination of turbines to use at each period. The goal is to maximize total power produced over all periods of the planning horizon which consists of a week divided in hourly periods. Start-up of turbines are penalized. Numerical experiments are conducted on thirty different test cases for two Rio Tinto Alcan power plants with five turbines each
Comparing different forest zoning options for landscape-scale management of boreal forest: Possible benefits of the TRIAD
Forest management has been criticised in the last 20 years for its negative impact on the native species, structures and functions of the forest. Of many possible alternatives proposed to minimize these effects, the functional zoning (or TRIAD) approach is gaining popularity in North America. The goal of this approach is to minimize the negative environmental impacts of forestry while maintain timber supply by dividing the forest into three broad land-use zones: (1) conservation, (2) ecosystemmanagement, and (3) wood production. In this study, we used a spatially explicit landscape model to simulate the effects of fire and six different forest management scenarios on a boreal mixedwood forest management unit in\ud
central Quebec. Themanagement scenarios examined included the current practices scenario, a scenario proposed by the provincial government, and four TRIAD scenarios varying in the amount of forest allocated to each of the three zones. For each scenario, we examined the harvest volume, percentage oldgrowth forest or old forest managed to favour old-growth attributes, and effective mesh size of forest patches by 20-year age classes. Withmore area set aside for conservation and high-retention partial cut harvesting techniques designed to maintain the attributes of old-growth stands, all TRIAD scenarios resulted in higher percentages of stands with old-growth attributes than the current practices scenario and the government proposed scenario, and two of the four TRIAD scenarios also resulted in higher harvest volume over the long term. All forest management scenarios resulted in significantly lower effective mesh size than the fire-only scenario, but this difference was not as pronounced for the four TRIAD scenarios as for the current practice and government proposed scenarios. We conclude that the\ud
TRIAD approach has the potential to minimize some of the negative impacts of forestry on the landscape, while maintaining timber supply over the long term
Qualitative method validation and uncertainty evaluation via the binary output: I – Validation guidelines and theoretical foundations
Qualitative methods have an important place in forensic toxicology, filling central needs in, amongst others, screening and analyses linked to per se legislation. Nevertheless, bioanalytical method validation guidelines either do not discuss this type of method, or describe method validation procedures ill adapted to qualitative methods. The output of qualitative methods are typically categorical, binary results such as “presence”/“absence” or “above cut-off”/“below cut-off”. Since the goal of any method validation is to demonstrate fitness for use under production conditions, guidelines should evaluate performance by relying on the discrete results, instead of the continuous measurements obtained (e.g. peak height, area ratio).
We have developed a tentative validation guideline for decision point qualitative methods by modeling measurements and derived binary results behaviour, based on the literature and experimental results. This preliminary guideline was applied to an LC-MS/MS method for 40 analytes, each with a defined cut-off concentration. The standard deviation of measurements at cut-off ( ) was estimated based on 10 spiked samples. Analytes were binned according to their %RSD (8.00%, 16.5%, 25.0%). Validation parameters calculated from the analysis of 30 samples spiked at and (false negative rate, false positive rate, selectivity rate, sensitivity rate and reliability rate) showed a surprisingly high failure rate. Overall, 13 out of the 40 analytes were not considered validated. Subsequent examination found that this was attributable to an appreciable shift in the standard deviation of the area ratio between different batches of samples analyzed. Keeping this behaviour in mind when setting the validation concentrations, the developed guideline can be used to validate qualitative decision point methods, relying on binary results for performance evaluation and taking into account measurement uncertainty. An application of this method validation scheme is presented in the accompanying paper (II – Application to a multi-analyte LC-MS/MS method for oral fluid)
- …