13 research outputs found

    A simulation model for the procedure of psychiatric patients\u27 diversion at william r. sharpe, jr. hospital using flocking algorithm for input modeling

    Get PDF
    The high rate of civil commitment in West Virginia indicates that the bureau of mental health in the state has been inefficient and unproductive at facilitating the procedures of mental health system delivery, to the point that the two state hospitals of West Virginia are often at their full capacity and incapable of admitting any new cases. This inadequacy at managing psychiatric emergencies causes frequent diversion of civil committed patients from the state psychiatric hospitals to other community psychiatric units, and ultimately costs the state an un-budgeted {dollar}4 million annually.;The main objective of this research is to contribute to the improvement of the mental healthcare system in West Virginia for psychiatric patients, as well as employees and all the other involved parties which benefit. This is done by optimizing capacity-related decisions at William R. Sharpe, Jr. Hospital, one of the main assigned centers for psychiatric issues in the state.;In order to achieve this outcome, this work intends to first model the arrival process of different psychiatric patients to William R. Sharpe, Jr. Hospital based on data-driven simulation for complex multi-dimensional time series, by applying a flocking algorithm to the available dataset. Including the scheme of simulating patient arrivals, a simulation model is developed to model the patients\u27 arrivals, stay, and departures at the hospital. Sensitivity analysis has been performed to investigate the impacts of various variables such as the capacity of the hospital, the number of patient arrivals of a particular category, etc

    Domain-specific risk assessment using integrated simulation: A case study of an onshore wind project

    Get PDF
    Although many quantitative risk assessment models have been proposed in literature, their use in construction practice remain limited due to a lack of domain-specific models, tools, and application examples. This is especially true in wind farm construction, where the state-of-the-art integrated Monte Carlo simulation and critical path method (MCS-CPM) risk assessment approach has yet to be demonstrated. The present case study is the first reported application of the MCS-CPM method for risk assessment in wind farm construction and is the first case study to consider correlations between cost and schedule impacts of risk factors using copulas. MCS-CPM provided reasonable risk assessment results for a wind farm project, and its use in practice is recommended. Aimed at facilitating the practical application of quantitative risk assessment methods, this case study provides a much-needed analytical generalization of MCS-CPM, offering application examples, discussion of expected results, and recommendations to wind farm construction practitioners

    Improving the efficiency of forest fuel supply chains

    Get PDF
    Forest biomass has gained much interest as a resource for renewable energy production world-wide. In Sweden, easily accessible secondary forest fuels, such as by-products from the conventional forest industry, are today already fully utilised. There is still potential for expansion by greater utilisation of primary forest fuels, which consist of biomass previously left in the forest after logging, e.g. tree stumps and logging residues. However, to increase the volumes of these fuels, more cost-efficient supply systems must be developed to overcome strong price competition from other fuels. Since forest fuels are low-value goods, the profit margins are tight, resulting in low acceptance for inefficiency. Storage, comminution and transport are all required to deliver a product with acceptable quality when needed by the end-user. However, there are many ways to organise the supply chain, including use of different machines, strategies and forms of work organisation, which together result in numerous possible systems. This thesis assessed the efficiency in forest fuel supply chains and sought to provide decision support on how, where and when biomass should be managed and handled to deliver a high-value fuel with low input of resources. Finding more efficient ways to organise the supply chain can lead to increased amounts of primary forest fuels being brought to market at a profit. For this, good decision support on which system to use in different situations and the consequences of different choices is needed. The methodology used in this thesis was discrete-event simulation and models of different supply chain alternatives were developed. The results indicated that there is no such thing as a perfect system, but that each system can have its own niche. A hot system with a high degree of machine dependency must have a proper balance in machine capacity to be efficient. For transport and comminution, ensuring high utilisation of the comminution unit is key to increased cost-efficiency. There is a strong link between quality parameters and supply chain activities, which ideally should be planned with respect to present quality. It is possible to tailor fuel deliveries concerning quality by delivering the right biomass at the right time

    Competitive advantage in manufacturing through the discrete-event simulation application

    Get PDF
    Orientador: Gilberto Francisco Martha de SouzaDissertação (mestrado profissional) - Universidade Estadual de Campinas, Faculdade de Engenharia MecânicaResumo: Esse trabalho busca, através da administração estratégica da manufatura, estabelecer as prioridades competitivas e, utilizando a ferramenta de simulação de evento discreto, implementá-las. A simulação é uma ferramenta poderosa, pois se executa experimentos virtualmente, diminuindo os riscos de implementação de soluções pouco testadas e alcançando, na maioria das vezes, a melhor solução, além da possibilidade inerente de avaliar sistemas complexos e considerar seu comportamento dinâmico. Apesar das vantagens da ferramenta de simulação, na manufatura a mesma ainda não é uma ferramenta comumente estabelecida no mercado. Nesse trabalho, além da simulação abordam-se também os requisitos e as restrições de um projeto em simulação de evento discreto. Foi elaborado um estudo de caso em uma empresa fabricante de motores diesel, onde foi realizado um mapeamento da manufatura identificando a estratégia de negócio e a prioridade competitiva, caracterizando-se respectivamente por diferenciação e flexibilidade, para cumprir à necessidade do aumento de capacidade das linhas de usinagem. Definiu-se então uma linha de usinagem para aplicar a ferramenta de simulação. Dentro do modelo de simulação, verificou-se a influência das variáveis de troca de ferramenta e quebra de máquina na capacidade de produção da linha. O software utilizado para a construção do modelo de simulação foi o Automod e a execução dos experimentos foi realizada no software AutStat. Os resultados obtidos demonstraram que houve um aumento da capacidade de produção, apenas quando alterado as variáveis de quebra de máquina das operações determinadas como críticas. Atingindo o ganho de 5% necessário para atender o volume de produção previsto. Como o modelo de simulação está validado e nesse trabalho não foram esgotadas todas as alternativas de melhoria, ainda é possível realizar outros experimentos para obtenção dos resultados ainda melhores. A ferramenta de simulação de evento discreto mostrou-se eficiente ao realizar experimentos sem o comprometimento dos recursos alocados na linha. Também se observou que para obter um resultado satisfatório deve-se possuir na empresa uma estrutura para execução do projeto sem deixar o processo de desenvolvimento morosoAbstract: This thesis aims through the manufacturing strategic management to establish the competitive priorities and using discrete event simulation tool to implement them. The simulation is a powerful tool because it executes experiments virtually, reducing implementation risks and achieving, in most cases, the best solution, besides the inherent possibility to evaluate complex systems and consider their dynamic behavior. Despite of these advantages, the manufacturing simulation is not a usual tool in the market, therefore in this work, the discrete event simulation requirements and constraints were analyzed. A case study was elaborated in a diesel engine manufacturer company, wherein was done a manufacturing mapping to identify the business strategy and competitive priorities, characterized respectively by differentiation and flexibility, to perform the increased capacity of machining lines. Then, it was defined a machining line to apply the simulation tool. The simulation model has been designed to check the influence of machining tools change and downtime machine variables in line production capacity. The software used to build the simulation model was Automod and experiments execution was done by AutoStat software. The results showed an increase in production capacity, only, when the downtime machine variables of critical operations were changed. Achieving gain 5% needed to attend the foreseen production volume. As the simulation model is validated and not all improvement alternatives were exhausted, it is still possible to realize other experiments to obtain even better results. The discrete-event simulation tool presented to be efficient when performing experiments without compromising the resources allocated at the line. Then, it was noted that to obtain a satisfactory result, the company should have a structure to execute the simulation project without a lengthy development processMestradoManufaturaMestre em Engenharia Automobilistic

    Lean thinking na indústria dos serviços: estudo de caso

    Get PDF
    Dissertação de natureza científica para obtenção do grau de Mestre em Engenharia Mecânica.Nos dias de hoje, a manutenção do equilíbrio entre a satisfação do cliente e a eficiência dos processos, representa um grande desafio para as organizações. As constantes mudanças no mercado, muitas vezes a nível global, de origem intrínseca ou extrínseca às áreas de negócio, aumentam o grau de exigência dos clientes, pelo que a relação simbiótica entre a sua satisfação e o modus operandi das empresas deverá estar assente numa base sustentável que permita cumprir prazos, inovar e consequentemente diferenciarem-se da concorrência. A voz do cliente é fundamental, razão pela qual se procuram implementar estratégias de melhoria de processos, que visem entregar o melhor produto e/ou serviço. Neste enquadramento, destaca-se o pensamento Lean, cujas ferramentas e métodos permitem que as organizações criem valor acrescentado para os seus clientes, com utilização de menos recursos e eliminação de desperdícios ao longo da cadeia produtiva, permitindo que as empresas se mantenham focalizadas num regime de trabalho direcionado para a melhoria contínua. A presente dissertação surge na sequência da identificação de oportunidades de melhoria e desperdícios a nível do desempenho da oficina do Departamento de Colisão da Carclasse de Lisboa, tendo como objetivo a redução do retrabalho, aumento da eficiência dos processos produtivos e reformulação do controlo de qualidade. Neste sentido, recorreu-se à filosofia Lean e às ferramentas associadas à mesma (Kaizen, 5S, Value Stream Mapping e Gestão Visual), que em conjunto com o levantamento e análise de dados, e modelos de simulação computacional, permitiram identificar e quantificar as oportunidades de melhoria no estado atual da oficina. Através da metodologia utilizada, foi possível concluir que no processo produtivo atual existem dois desperdícios críticos: Retrabalho e Espera. Através da simulação das propostas de melhoria, registou-se uma redução do tempo de valor não acrescentado e do retrabalho, pelo que, os objetivos da dissertação foram cumpridos.Nowadays, maintaining the balance between customer satisfaction and process efficiency represents a major challenge for organizations. The constant changes in the market, often globally, of intrinsic or extrinsic origin to the business areas, increase the degree of demand of customers, so the symbiotic relationship between their satisfaction and the modus operandi of companies should be based on a sustainable basis that allows to meet deadlines, innovate and consequently differentiate themselves from competition. The voice of the client is fundamental, which is why we seek to implement process improvement strategies that aim to deliver the best product and/or service. In this context, lean thinking stands out, whose tools and methods allow organizations to create added value for their customers, using fewer resources and eliminating waste throughout the production chain, allowing companies to stay focused on a work regime aimed at continuous improvement. This dissertation follows the identification of opportunities for improvement and process waste, in terms of the performance of the workshop of the Collision Department of Carclasse Lisboa, with the objective of reducing rework, increasing the efficiency of production processes and reformulation of quality control. In this sense, lean philosophy and tools associated with it (Kaizen, 5S, Value Stream Mapping and Visual Management) were used, which together with data collection and analysis, and computer simulation models, allowed to identify and quantify the opportunities for improvement in the current state of the workshop. Through the methodology used, it was possible to conclude that in the current production process there are two critical wastes: Rework and Wait. With the simulation of the proposals for improvement, there was a reduction in of non-value added time and rework, so the objectives of the dissertation were met.N/

    Redes adversárias generativas: uma alternativa para modelagem de dados de entrada em projetos de simulação

    Get PDF
    In general, stochastic simulation consists of input data and logic, the former being the basic source of uncertainty in a simulation model. For this reason, data modeling is an essential step in the development of stochastic simulation projects. Many advances have been observed in recent years in simulation software and in data collection tools. However, the methods for input data modeling have remained largely unchanged for over 30 years. In their daily lives, modelers face difficulties related to the choice of input data models, mainly due to the challenge of modeling non Independent and Identically Distributed Data (IID) data, which requires specific tools not offered by simulation software and their data modeling packages. For this reason, few studies consider elements of complexity such as heterogeneities, dependencies, and autocorrelations, underestimating the uncertainty of the stochastic system. Given the new developments in Artificial Intelligence, it is possible to seek synergies to solve this problem. The present study aims to evaluate the results of the application of Generative Adversarial Networks (GANs) for input data modeling. Such networks constitute one of the most recent architectures of artificial neural networks, being able to learn complex distributions and, therefore, generate synthetic samples with the same behavior as real data. Therefore, this thesis proposes a method for Input Data Modeling based on GANs (MDE-GANs) and implements it through the Python language. Considering a series of theoretical and real study objects, the results are evaluated in terms of representation quality of the input models and comparisons are made with traditional modeling methods. As a main conclusion, it was possible to identify that the application of MDE-GANs allows obtaining input data models with strong accuracy, surpassing the results of traditional methods in cases of non-IID data. Thus, the present thesis contributes by offering a new alternative for input data modeling, capable of overcoming some of the challenges faced by modelers.De forma geral, a simulação estocástica consiste em dados de entrada e lógicas, sendo os primeiros as fontes básicas de incerteza em um modelo de simulação. Por essa razão, a modelagem de dados é uma etapa essencial no desenvolvimento de projetos na área. Muitos avanços foram observados nos últimos anos nos programas de simulação e em ferramentas para coleta. Porém, os métodos para modelagem de dados permanecem praticamente inalterados há mais de 30 anos. Em seu dia a dia, praticantes de simulação enfrentam dificuldades relacionadas à escolha de Modelos de Dados de Entrada (MDEs), principalmente devido ao desafio da modelagem de dados não Independentes e Identicamente Distribuídos (IID), o que requer ferramentas específicas e não oferecidas por programas de simulação e seus pacotes de estatísticos. Por essa razão, poucos estudos consideram elementos de complexidade como heterogeneidades, dependências e autocorrelações, subestimando a incerteza do sistema estocástico. Diante dos novos desenvolvimentos na área de Inteligência Artificial, é possível buscar sinergias para resolução desse problema. O presente estudo tem como objetivo avaliar os resultados da aplicação de Redes Adversárias Generativas, ou Generative Adversarial Networks (GANs) para obtenção de MDEs. Tais redes constituem uma das mais recentes arquiteturas de redes neurais artificiais, sendo capazes de aprender distribuições complexas e, com isso, gerar amostras sintéticas com o mesmo comportamento dos dados reais. Para tanto, esta tese propõe um método para Modelagem de Dados de Entrada baseado em GANs (MDEGANs) e o implementa por meio da linguagem Python. Considerando uma série de objetos de estudo teóricos e reais, são avaliados os resultados em termos de qualidade de representação dos MDEs e realizadas comparações com métodos tradicionais. Como principal conclusão, foi possível identificar que a aplicação de MDE-GANs permite obter MDEs com forte acurácia, superando os resultados dos métodos tradicionais nos casos de dados não IID. Com isso, a presente tese contribui ao oferecer uma nova alternativa para a área, capaz de contornar alguns dos desafios enfrentados por modeladores

    Monitoramento de modelos de simulação utilizados como gêmeos digitais: uma abordagem baseada em aprendizado de máquina e carta de controle

    Get PDF
    The use of simulation models as Digital Twins (DTs) has been standing out in recent years and represents a revolution in decision-making in production processes, being a key solution in the context of the so-called Industry 4.0. In this sense, we highlight increasingly faster and more efficient decisions from the mirroring of the behavior of physical systems through sensors, intelligent equipment, management systems and databases. The models used as DTs are updated periodically, in real or near real time according to physical changes, and provide guidelines or commands for decision making. On the other hand, despite the great applicability of this approach, challenges related to the validity of simulation models over time stand out, since traditional validation approaches do not consider the periodic update of the model. Ensuring the validity of DTs is essential, since it usually involves decisions of great impact for production systems. In addition, although it is a field of research with great importance for both researchers and professionals, we noted that there is still a gap in terms of methods aimed at monitoring the validity of DTs. Therefore, in order to contribute to the literature and fill this gap, the present work proposes an approach based on the periodic evaluation of simulation models used as DTs through Machine Learning and control chart. We suggest a monitoring tool based on the K-Nearest Neighbors (K-NN) classifier, combined with the p control chart, in order to periodically assess the validity of DT models. Initially, the proposed approach was tested in several theoretical cases in order to evaluate the functioning of the tool in situations where the physical environment differs significantly from the virtual one, a fact that would represent a possible case where the DT is not valid. In this case, data corresponding to the physical and digital environments were emulated considering standardized probability distributions. Furthermore, the tool was also implemented in two real objects of study, acting as a supplement to make DTs more robust and reliable. In this case, DTs already implemented and in the operational phase were adopted. The first object of study refers to a model that supports operational planning decisions in a medium-sized company of a clothing industry, whose processes are mostly manual. The second object of study refers to a DT implemented in an automated production cell that operates in near real time, allowing the evaluation of the main process parameters. The tool proved to be capable of monitoring the functioning of both DTs and identifying possible special causes that could compromise its results and, consequently, its validity. Finally, the broad applicability of the tool is highlighted, which can be used in different approaches of DT, including simulation models with different characteristics of connection, integration, and complexity. In this case, the proposed approach operates independently of the characteristics of the DTs, including models that operate in real or near real time, considering automated or manual physical systems and covers systems with different levels of complexity.O uso de modelos de simulação como Gêmeos Digitais (GD) vem ganhando destaque nos últimos anos e representa uma revolução na tomada de decisão em processos produtivos, sendo uma solução chave no contexto da chamada Indústria 4.0. Neste sentido, nota-se decisões cada vez mais rápidas e eficientes a partir do espelhamento do comportamento dos sistemas físicos por meio de sensores, equipamentos inteligentes, sistemas de gestão e bases de dados. Os modelos utilizados como GD são atualizados periodicamente, em tempo real ou quase real e de acordo com as mudanças físicas, e fornecem orientações ou comandos para a tomada de decisões. Por outro lado, apesar da grande aplicabilidade dessa abordagem, destacam-se desafios relacionados à validade dos modelos de simulação ao longo do tempo, uma vez que as abordagens tradicionais de validação não consideram a atualização periódica do modelo. Garantir a validade dos GDs é vital, uma vez que tal utilização costuma envolver decisões de grande impacto para os sistemas produtivos em geral. Além disso, embora seja um campo de pesquisa com grande importância tanto para pesquisadores quanto para profissionais da área, nota-se que há ainda uma lacuna quanto a métodos visando o monitoramento da validade dos GDs. Dessa forma, de modo a contribuir com a literatura e preencher tal lacuna existente, o presente trabalho propõe uma abordagem baseada na avaliação periódica dos modelos de simulação utilizados como GDs por meio de Aprendizado de Máquina e carta de controle. Sugere-se uma ferramenta de monitoramento baseada no classificador K-Nearest Neighbors (K-NN), combinado com a carta de controle p, visando avaliar periodicamente a validade dos modelos de GDs. Inicialmente, a abordagem proposta foi testada em diversos casos teóricos de forma a se avaliar o funcionamento da ferramenta em situações onde o ambiente físico difere significativamente do virtual, fato que representaria um possível caso onde o GD não é válido. Neste caso, foram emulados dados correspondentes aos ambientes físico e virtual considerando distribuições de probabilidade padronizadas. Além disso, a ferramenta também foi implementada em dois objetos de estudo reais, atuando como um suplemento visando tornar os GDs mais robustos e confiáveis. Neste caso, foram adotados GDs já implementados e em fase operacional. O primeiro objeto de estudo refere-se a um modelo que apoia decisões de planejamento operacional em uma empresa de médio porte do ramo de confecções, cujos processos são majoritariamente manuais. Já o segundo objeto de estudo refere-se a um GD implementado em uma célula de produção automatizada e que opera próximo de tempo real, permitindo a avaliação dos principais parâmetros do processo. A ferramenta se mostrou capaz de monitorar o funcionamento de ambos os GDs e identificar possíveis causas especiais que podem comprometer seus resultados e, consequentemente, sua validade. Por fim, destaca-se a ampla aplicabilidade da ferramenta, que pode ser utilizada em diferentes abordagens de GD, incluindo modelos de simulação com diferentes características de conexão, integração e complexidade. Neste caso, a abordagem proposta opera independentemente das características dos GDs, ou seja, contempla modelos que operam em tempo real ou quase real, considerando sistemas físicos automatizados ou manuais e abrange sistemas com diferentes níveis de complexidade

    Input Uncertainty and Data Collection Problems in Stochastic Simulation

    Get PDF
    Stochastic simulation is an important tool within the field of operational research. It allows for the behaviour of random real-world systems to be analysed, evaluated, and optimised. It is critical to understand the uncertainty and error in outcomes from simulation experiments, to ensure that decisions are made with appropriate levels of confidence. Frequently, input models that actuate stochastic simulations are estimated using samples of real-world data. This introduces a source of uncertainty into the simulation model which propagates through to output measures, causing an error known as input uncertainty. Input uncertainty depends on the samples of data that are collected and used to estimate the input models for the simulation. In this thesis, we consider problems relating to input uncertainty and data collection in the field of stochastic simulation. Firstly, we propose an algorithm that guides the data collection procedure for a simulation experiment in a manner that minimises input uncertainty. Reducing the uncertainty around the simulation response allows for improved insights to be inferred from simulation results. Secondly, we outline an approach for comparing data collection strategies in terms of the input uncertainty passed to outputs in simulations of viral loads. This represents a different type of data collection problem to the ones usually studied in simulation experiments. Thirdly, we adapt two techniques for quantifying input uncertainty to consider a quantile of the simulation outputs, rather than the mean. Quantiles are regularly used to provide alternative information regarding the simulation outputs relative to the mean, therefore it is equally important to understand the uncertainty of such measures. Finally, we begin to investigate how input uncertainty impacts predictive models fit to simulation data. This relates to the field of simulation analytics, a novel and emergent area of research where the problem of input uncertainty has not previously been examined

    Simulação de uma linha de produção com elevada variabilidade: uma abordagem Teoria das Restrições/DBR

    Get PDF
    A exigente corrida pela satisfação do cliente conduziu as organizações a uma generalizada aplicação de metodologias de melhoria contínua. Não obstante, frequentemente as expectativas não são correspondidas, levando ao insucesso destas aplicações. Para solucionar o problema vários autores defendem uma integração entre a Teoria das Restrições, Lean e Seis Sigma, denominada TLS. Ao invés de atacar, simultaneamente, todos os problemas do sistema, as equipas de melhoria devem focar-se nos elementos que impedem a organização de atingir o seu propósito. Nesta integração a Teoria das Restrições fornece o foco na restrição, ao passo que o Lean e Seis Sigma facultam as ferramentas necessárias à implementação da melhoria, através da redução de desperdícios e variação nos pontos de alavancagem do sistema. Na sua aplicação aos sistemas produtivos, o Drum-Buffer-Rope (DBR) é um mecanismo fundamental para lidar com a variabilidade e potenciar o Throughput do sistema. A presente dissertação é baseada na linha de produção da Fábrica de Transformadores Siemens do Sabugo. Recorreu-se à simulação para construir um modelo da linha de produção, identificar as restrições do sistema, verificar o impacto que a variabilidade tem no mesmo, dimensionar os seus recursos e simular as potenciais melhorias da aplicação do DBR. Para obter uma representação fiel do sistema real foi imprescindível observar o sistema, recolher dados correspondentes ao input no modelo e desenvolver uma análise criteriosa dos mesmos. Em linhas com elevada variabilidade decorrente de uma produção por encomenda, a análise do input ganha maior importância. Para tal foi proposta uma metodologia recorrendo a métodos de inferência estatística. Os resultados do estudo indicam as melhorias obtidas com a introdução do DBR na linha de produção e validam a simulação como poderosa ferramenta no apoio à tomada de decisão
    corecore