15 research outputs found

    Новий підхід до очищення суднових лляльних вод

    Get PDF
    Биковець, Н. П. Новий підхід до очищення суднових лляльних вод = A new approach to ship bilge waters cleaning / Н. П. Биковець // Зб. наук. пр. НУК. – Миколаїв : НУК, 2019. – № 3 (477). – С. 70–75.Анотація. У зв’язку з вимогами головного міжнародного документа МАРПОЛ-73/78 необхідно передбачати заходи зі скорочення та відвертання забруднення морського середовища. Згідно із зазначеним документом, забороняється скидання шкідливих речовин, які перевозять на судах. На судні у процесі його експлуатації утворюються лляльні води. Це складні води, які містять нафтопродукти різних видів, механічні домішки органічного та неорганічного походження. Залежно від водотоннажності, типу та віку судна, технічного стану устаткування утворюється різна кількість лляльних вод. Ці води потребують очищення. У статті висвітлені питання, пов’язані з використанням різних методів очистки суднових лляльних вод. Розглянуті найбільш поширені методи очищення. Вказані переваги та недоліки даних методів. З аналізу опублікованих робіт встановлено, що механічні методи очистки дозволяють провести лише попередній етап очистки. Для більш глибокої очистки необхідно застосовувати фізико-хімічні, хімічні, біологічні або комбіновані методи. Визначено, що найбільш поширені методи фізико-хімічного очищення лляльних вод. До складу лляльних вод входять поверхнево-активні речовини, які призводять до утворення стійких емульсій, що важко розділити. Утворена емульсія призводить до зниження ефективності процесу очистки. Розглянуто принцип дії установок вакуумного випарювання. Їхня робота базується на фізичному принципі кипіння та конденсації парів рідин. Процес вакуумного випарювання дає можливість відділення нелетких з’єднань. Установки вакуумного випарювання дозволяють ефективно вирішувати проблеми водоочистки в різних галузях промисловості. Вони є економічними та малогабаритними. Використання установок даного типу призводить до зниження енерговитрат до 75 %. У статті пропонується метод обробки лляльних вод за допомогою випарювання. Для застосування установки вакуумного випарювання в технології очищення суднових лляльних вод до принципової схеми діючого обладнання внесені незначні зміни. Представлений метод обробки лляльних вод дозволить зруйнувати стійкі емульсії під впливом температури. У результаті даного методу обробки утворюється зневоднена емульсія та дистильована вода, яку, за потреби, можна використати вдруге. Також отримуємо екологічні й економічні переваги. Зниження витрат на утилізацію відходів можливе аж до 90 %.Abstract. In accordance with the requirements of the main international document MARPOL-73/78, measures should be taken to reduce and prevent pollution of the marine environment. According to the above mentioned document, it is prohibited to discharge harmful substances that are transported by ships. During the operation of the vessel, bilge waters are formed. These are complex waters containing oil products of various kinds, mechanical impurities of organic and inorganic origin. Depending on the tonnage, type and age of the vessel, the technical condition of the equipment, different amounts of bilge waters are formed. These waters need purification. This article deals with ship bilge waters cleaning methods. The most common cleaning methods are considered. The advantages and disadvantages of these methods are indicated. The analysis of the published works show, that the mechanical methods of cleaning allow only to conduct the previous stage of cleaning. Physicochemical, chemical, biological or combined methods should be applied for the deeper cleaning. The methods of the physicochemical cleaning of bilge waters are most widespread. They contain superficially active substances, which cause formation of stable emulsions that is difficult to divide. Formed emulsion is the result in the decrease of efficiency of cleaning process. The principle of operation of vacuum evaporation units is considered. Their work is based on the physical principle of boiling and condensation of liquid vapors. The process of vacuum evaporation makes it possible to separate nonvolatile compounds. Vacuum evaporation units allow efficient solution of water treatment problems in various industries. They are economical and small in size. Applying of these units leads to reducing of energy consumption by up to 75 %. The article proposes a method of treating bilge water by evaporation. Using of vacuum evaporators in technology of bilge water cleaning, their operating principles must be slightly modified. The presented method of processing bilge water will destroy the stable emulsions under the influence of temperature. The result of described method is the formation of dehydrated emulsion and distilled water. If necessary, the distilled water can be reused. We also get environmental and economic benefits. Waste management costs can be reduced by up to 90 %

    How to Enable Uncertainty Estimation in Proximal Policy Optimization

    Full text link
    While deep reinforcement learning (RL) agents have showcased strong results across many domains, a major concern is their inherent opaqueness and the safety of such systems in real-world use cases. To overcome these issues, we need agents that can quantify their uncertainty and detect out-of-distribution (OOD) states. Existing uncertainty estimation techniques, like Monte-Carlo Dropout or Deep Ensembles, have not seen widespread adoption in on-policy deep RL. We posit that this is due to two reasons: concepts like uncertainty and OOD states are not well defined compared to supervised learning, especially for on-policy RL methods. Secondly, available implementations and comparative studies for uncertainty estimation methods in RL have been limited. To overcome the first gap, we propose definitions of uncertainty and OOD for Actor-Critic RL algorithms, namely, proximal policy optimization (PPO), and present possible applicable measures. In particular, we discuss the concepts of value and policy uncertainty. The second point is addressed by implementing different uncertainty estimation methods and comparing them across a number of environments. The OOD detection performance is evaluated via a custom evaluation benchmark of in-distribution (ID) and OOD states for various RL environments. We identify a trade-off between reward and OOD detection performance. To overcome this, we formulate a Pareto optimization problem in which we simultaneously optimize for reward and OOD detection performance. We show experimentally that the recently proposed method of Masksembles strikes a favourable balance among the survey methods, enabling high-quality uncertainty estimation and OOD detection while matching the performance of original RL agents

    Directions of implementation of the state personnel policy

    Get PDF
    В роботі визначено зміст поняття «державна кадрова політика» та окреслино основні напрями реалізації ефективної державної кадрової політики. Для досягнення поставленої мети використано методи збору і узагальнення інформації. У процесі дослідження застосовано логічний метод, що дало змогу проаналізувати наукові праці у галузі державної кадрової політики. Основою дослідження є статті вітчизняних вчених, результати соціологічних досліджень, які проводились в Україні різними інституціями; довідкова література тощо. В роботі досліджено основні напрямами механізму реалізації ефективної державної кадрової політики на основі думки багатьох вчених та практиків. Сформульовано поняття про кадрову політику та напрями її реалізації. Визначено завдання кадрового забезпечення. Окреслено принципи відбору змісту підвищення кваліфікації керівних кадрів, фактори формування кадрової політики. Визначено, що реалізація державної кадрової політики має три рівні. На основі аналізу здійснення кадрової політики в галузі публічного управління виділено недоліки і проблеми кадрової політики у сфері публічної служби.Purpose. Define the meaning of the concept of «state personnel policy» and outline the main directions of implementation of effective state personnel policy. Method. To achieve this goal, methods of collecting and summarizing information were used. In the course of the research a logical method was used, which made it possible to analyze scientific works in the field of state personnel policy. Comparative, graphical methods are also used. The research is based on articles by domestic scientists, the results of sociological research conducted in Ukraine by various institutions; reference literature, etc. Results. The conclusion about the main directions of the mechanism of realization of effective state personnel policy on the basis of opinion of many scientists and practitioners is made. The concept of personnel policy and directions of its implementation is formulated. The task of staffing is defined. The principles of selection of the content of advanced training of managerial personnel, factors of formation of personnel policy are outlined. It is determined that the implementation of the state personnel policy has three levels. Based on the analysis of the implementation of personnel policy in the field of public administration, the shortcomings and problems of personnel policy in the field of public service are named. Scientific novelty. Modernized approaches to the implementation of state personnel policy are identified. Practical importance. Is to use the developed methods of developing effective personnel policy in practice. In work on the developed task, essence, principles of personnel policy how to help to reveal shortcomings at the analysis of the state personnel policy. Clear recommendations of personnel policy are developed. The main qualities of specialists in admission to public service are determined

    Inverse Reinforcement Learning via Matching of Optimality Profiles

    No full text
    The goal of inverse reinforcement learning (IRL) is to infer a reward function that explains the behavior of an agent performing a task. The assumption that most approaches make is that the demonstrated behavior is near-optimal. In many real-world scenarios, however, examples of truly optimal behavior are scarce, and it is desirable to effectively leverage sets of demonstrations of suboptimal or heterogeneous performance, which are easier to obtain. We propose an algorithm that learns a reward function from such demonstrations together with a weak supervision signal in the form of a distribution over rewards collected during the demonstrations (or, more generally, a distribution over cumulative discounted future rewards). We view such distributions, which we also refer to as optimality profiles, as summaries of the degree of optimality of the demonstrations that may, for example, reflect the opinion of a human expert. Given an optimality profile and a small amount of additional supervision, our algorithm fits a reward function, modeled as a neural network, by essentially minimizing the Wasserstein distance between the corresponding induced distribution and the optimality profile. We show that our method is capable of learning reward functions such that policies trained to optimize them outperform the demonstrations used for fitting the reward functions

    VISITOR: Visual Interactive State Sequence Exploration for Reinforcement Learning

    No full text
    Understanding the behavior of deep reinforcement learning agents is a crucial requirement throughout their development. Existing work has addressed the identification of observable behavioral patterns in state sequences or analysis of isolated internal representations; however, the overall decision-making of deep-learning RL agents remains opaque. To tackle this, we present VISITOR, a visual analytics system enabling the analysis of entire state sequences, the diagnosis of singular predictions, and the comparison between agents. A sequence embedding view enables the multiscale analysis of state sequences, utilizing custom embedding techniques for a stable spatialization of the observations and internal states. We provide multiple layers: (1) a state space embedding, highlighting different groups of states inside the state-action sequences, (2) a trajectory view, emphasizing decision points, (3) a network activation mapping, visualizing the relationship between observations and network activations, (4) a transition embedding, enabling the analysis of state-to-state transitions. The embedding view is accompanied by an interactive reward view that captures the temporal development of metrics, which can be linked directly to states in the embedding. Lastly, a model list allows for the quick comparison of models across multiple metrics. Annotations can be exported to communicate results to different audiences. Our two-stage evaluation with eight experts confirms the effectiveness in identifying states of interest, comparing the quality of policies, and reasoning about the internal decision-making processes.ISSN:1467-8659ISSN:0167-705
    corecore