21 research outputs found

    Otimização multiobjetivo por estimadores robustos multivariados

    Get PDF
    As organizações focam em determinar condições ideais de operação com o intuito de garantir a qualidade de seus processos e serviços, uma vez que os processos industriais podem exibir um elevado grau de variabilidade. Neste contexto, o uso de estimadores robustos torna-se uma alternativa adequada para modelar os dados experimentais; sendo que o termo robusto descreve a capacidade que um estimador tem em superar as influências exercidas pelos valores discrepantes. Encontrar uma combinação de estimadores de centralidade e dispersão que seja capaz de modelar dados suscetíveis à variabilidade é um desafio a ser explorado. Desse modo, este presente trabalho, com o auxílio da Análise de Componentes Principais (ACP), visa à obtenção de respostas transformadas em escores de componentes que explicarão a estrutura de variância-covariância a partir de combinações lineares das varáveis originais. Em consequência, o objetivo geral é o de validar um algoritmo de otimização multiobjetivo baseado no agrupamento de respostas correlacionadas e modeladas por estimadores robustos. Com o auxílio do método da Interseção Normal à Fronteira, é proposta uma otimização multiobjetivo para funções obtidas pelo Erro Quadrático Médio Multivariado (EQMM) que combina técnicas da Metodologia de Superfície de Resposta com a ACP, visando obter soluções Pareto-ótimas. O objeto de estudo definido para a aplicação desta proposta é o processo de torneamento do aço de corte fácil ABNT/SAE 12L14 composto por um arranjo cruzando onde 12 condições de ruído são consideradas para a obtenção da variável de resposta que é a rugosidade superficial (Ra). O resultado ótimo é definido pelo tomador de decisão fuzzy e para provar a eficiência da resposta encontrada, experimentos de confirmação foram realizados. Em um nível de confiança de 95%, o valor ótimo pertence aos intervalos de confiança multivariados apenas para o Modelo B, no qual a mediana e o MAD são considerados e, confirmando assim, qual par de estimadores atinge a solução em um cenário de projeto robusto de parâmetro. Através da pesquisa proposta, o modelo desenvolvido pode ser utilizado em indústrias para determinação de parâmetros de usinagem para obtenção de alta qualidade com consumo mínimo de energia e, consequentemente, máxima produtividade

    Elipses de confiança para soluções pareto-ótimas multivariada

    Get PDF
    This study presents a non-linear bi-objective optimization method for correlated responses of Robust parameter design optimization (RPD) using Normal Boundary Intersection (NBI) method. Even in capable region for multiple and conflicting objectives optimization Pareto frontiers could be formed by indistinguishable points which may require a highly confirmatory sample sizes to verify non-dominance. Taking advantage of uniformly spread Pareto-frontiers, some propositions are established to treat a trade-off between mean and variance. In this approach, Response Surface Methodology (RSM) is applied for modeling the quality characteristics of process, using propagation of error to extract the implicit variance. Moreover, in order to avoid correlated variables on subsequent optimization, Factor Analysis rotated by Equimax is applied replacing original data by factor scores regressions. In contemplation of distinguishing Pareto-solutions are formed (1-α) confidence ellipse region for centrality and dispersion of every solution, which variability is quantified by variance covariance matrix. These ellipses are especially important to understand the stochastic nature of Pareto-optimal solutions obtained when NBI is used coupled with RSM. As a key result, this study conceives the Fuzzy decision-maker, which is a smart Pareto filter based on Fuzzy logic, combining confidence ellipses volume (variability) and Mahalanobis distance (mean shift) as a quality indicator. This approach becomes possible to synchronously minimize accuracy and precision. The adequacy of the proposal is illustrated with two real cases of hardened steel turning process, optimizing cost and tool life. The quality of practical results motivates us to suggest the method may be extended to applications on similar manufacturing processes problems.Este trabalho apresenta um método de otimização bi-objetivo não linear para respostas correlacionadas de otimização de projeto de parâmetros robustas (RPD), usando o método da Intersecção Normal à Fronteira (NBI). Mesmo em uma região capaz para otimização de objetivos múltiplos e conflitantes as fronteiras de Pareto podem ser formadas por pontos indistinguíveis entre si o que podem exigir grandes quantidades de amostras de confirmação para se verificar a não dominância dessas soluções. Tomando como vantagem as fronteiras de Pareto uniformemente distribuídas, algumas proposições são estabelecidas para tratar a compensação entre média e variância. Nesta abordagem, a Metodologia de Superfícies de Respostas (RSM) é aplicada para modelar as características de qualidade do Processo, usando a propagação do erro (POE) para se extrair a variância implícita. Além disso, para se evitar variáveis correlacionadas na otimização subsequente, a Análise Fatorial rotacionada por Equimax é aplicada substituindo os dados originais por regressões de escores fatoriais. Na contemplação de distinguir Soluções de Pareto são formadas (1-α) regiões elipses de confiança para centralidade e dispersão de cada solução, cuja variabilidade é quantificada pela matriz de variância-covariância. Essas elipses são especialmente importantes para entender a natureza estocástica das soluções Pareto-ótimas obtidas quando o NBI é usado juntamente com o RSM. Como resultado chave, este estudo concebe o tomador de decisão Fuzzy, que é um filtro de Pareto inteligente baseado na lógica Fuzzy, combinando volume de elipses de confiança (variabilidade) e distância de Mahalanobis (deslocamento médio) como um indicador de qualidade. Esta abordagem torna possível minimizar sincronizadamente exatidão e precisão. A adequação da proposta é ilustrada com dois casos reais de processo de torneamento de aços endurecidos, otimizando custo e vida útil da ferramenta. A qualidade dos resultados práticos sugere que o método pode ser estendido para aplicações em problemas de processos de fabricação semelhantes

    Fronteiras Equiespaçadas de Pareto para funções Objetivo Correlacionadas.

    Get PDF
    O Método da Interseção Normal à Fronteira (NBI) é normalmente usado para gerar pontos equidistantes e uniformes na geração da fronteira de Pareto para problemas de otimização multiobjetivo não-lineares, oferecendo um conjunto de soluções ótimas. Estendendo-se a aplicação deste método ao Projeto de Parâmetro Robusto Multiobjetivo (MRPD) modelado por uma matriz combinada, o NBI pode ser muito útil para descobrir o melhor conjunto de variáveis controláveis capazes de minimizar o efeito das variáveis de ruído. No entanto, quando as diversas funções objetivo são correlacionadas o método NBI falha ao produzir resultados irreais e fronteiras não convexas que, influenciado pela atuação dos pesos, tenta separar as funções objetivo correlacionadas. Este inconveniente pode ser contornado se a Fronteira de Pareto for gerada a partir de funções não correlacionadas representadas pelos escores de componentes principais. Assim, acoplando o método NBI à Análise de Componentes Principais (PCA). Para os dados experimentais obtidos com matrizes combinadas, este trabalho apresenta uma abordagem capaz de tornar o processo menos sensível à variabilidade provocada por variáveis de ruído, enquanto identifica o conjunto de pontos ótimos numa fronteira de Pareto uniformemente distribuída. A aplicabilidade do método é ilustrada com a otimização de um processo de fresamento do aço AISI 1045. A confirmação da eficiência do método se dá após a fase de otimização, no qual três pontos da fronteira foram escolhidos para execução dos experimentos de confirmação. O planejamento, por meio de um Taguchi L9, indicou a necessidade de 27 experimentos para testar uma diferença de magnitude de 0,2 mm para Ra e 1,8 mm para Rt com um poder (1-β) de 82%, considerando-se, para cada resposta, nove condições de ruído. Os resultados dos experimentos de confirmação se localizaram dentro dos intervalos de confiança estabelecidos para médias e variâncias, respectivamente, o que demonstra a capacidade do método NBI-PCA de mitigar a influência das variáveis de ruído em processos de respostas múltiplas para qualquer peso desejado

    Otimização de um processo de usinagem a laser pelo método NBI-GRA.

    Get PDF
    O processo de usinagem a laser (LBM) apresenta ampla aplicabilidade na indústria, nos mais diversos setores, como automobilístico, aeronáutico e eletrônico. As principais vantagens da LBM sobre as tecnologias convencionais de usinagem são a remoção de material sem contato, a peça é usinada com elevada precisão e não há desgaste de ferramenta. A LBM apresenta diversas características de qualidade e múltiplas grandezas correlacionadas, a análise dessas características pode ser melhor abordada utilizando-se técnicas multivariadas. Entretanto não existem muitos estudos sobre como os fatores de entrada influenciam essa tecnologia de fabricação. Desta forma, o presente trabalho tem como propósito o desenvolvimento do método NBI-GRA com restrições multivariadas para problemas de otimização multiobjetivo, com funções objetivo e restrições correlacionadas. Este método permite que processos de resposta correlacionadas sejam otimizados simultaneamente aplicando-se o Método de Interseção Normal à Fronteira (NBI) e em seguida a Análise Relacional Grey (GRA). Para testar a adequação da proposta, um arranjo L16 de Taguchi com 3 variáveis de entrada (x) e 8 respostas (Y) foi desenvolvido para otimizar o processo de usinagem a laser da liga de alumínio AA1050. Resultados preliminares indicam que o método contribuiu para a formação de fronteiras equiespaçadas e sem inversão dos sinais de correlação das respostas originais, conduzindo todas as respostas para valores próximos aos seus alvos, sem desrespeitar as restrições pré-estabelecidas. Do ponto de vista prático, as soluções encontradas promoveram excelentes níveis de qualidade para as peças usinadas e com alta produtividade

    Aprimoramento do poder discriminatório de funções elipsoidais modificadas por cargas fatoriais rotacionadas na formação otimizada de agrupamentos

    Get PDF
    The technological advent provided the rise of data collection in companies, governments and various industrial segments. In this respect, techniques that seek to perform groupings and discrimination of clusters are widely used in datasets with multiple variables, bringing the need to use specific tools, which contemplate the existing variance-covariance structure. Based on this, this work presents a proposal to improve the discriminatory power of confidence regions in the formation and estimation of optimal clusters, using multivariate and experimental techniques to extract information in an optimized way in correlated datasets. Factor analysis was used as the exploratory multivariate method, tuning the rotation for factor loads through the mixture design, and agglutinating the total variance explained functions by the mean square error afterwards. The optimization of this step is performed through the sequential quadratic programming algorithm. Knowing the optimal scores, a multilevel factorial design is formed to contemplate all combinations of the linkage methods and the types of analysis, seeking to find the parameter that presents the least variability, generating confidence ellipses with better discrimination between groups. A strategy to analyze the levels of agreement and the inversions existence in the formation of clusters is proposed using the Kappa and Kendall indicators. Motivated by the need for strategies to classify substations in the face of voltage sag phenomena, which cause faults in the distribution of electricity, the method was applied to a set of real data, representing the power quality indexes of substations located in southeastern Brazil. Optimum values were found in the factor loads rotation and the parameterization “Wardanalysis of covariance” was defined as the ideal strategies to create the clusters in this dataset. Thus, low variability clusters and precise confidence ellipses were generated to estimate the voltage sag patterns, promoting a better discriminatory power in the clusters’ classification through the regions of confidence. The confirmatory analysis inferred that the “Ward” linkage proved to be the most robust method for this dataset, even under the influence of disturbances in the original data.Agência 1O advento tecnológico proporcionou a ascensão da coleta de dados em empresas, governos e diversos segmentos industriais. Nesse aspecto, técnicas que buscam realizar agrupamentos e discriminação de conglomerados são amplamente empregadas em dados que apresentam múltiplas variáveis, trazendo a necessidade de se utilizar ferramentas específicas, que contemplem a estrutura de variância-covariância existente. Com base nisso, esse trabalho apresenta uma proposta para aprimorar o poder discriminatório de regiões de confiança na formação e estimação de agrupamentos ótimos, utilizando técnicas multivariadas e experimentais para extrair informações de maneira otimizada em conjuntos de dados correlacionados. Como método multivariado exploratório, utilizou-se a análise fatorial, calibrando a rotação de cargas fatoriais através do arranjo de misturas e, em seguida, aglutinando as funções de variância total explicada pelo erro quadrático médio. A otimização dessa etapa é realizada através do algoritmo de programação quadrática sequencial. Conhecendo os escores ótimos, um arranjo fatorial multinível é formado para contemplar todas as combinações dos métodos de ligação e os tipos de análise, buscando encontrar a combinação de parâmetros que apresente a menor variabilidade e que, consequentemente, gere elipses de confiança com melhor discriminação entre os grupos. Uma estratégia para analisar os níveis de concordância e a existência de inversões na formação de clusters é proposta utilizando os indicadores de Kappa e Kendall. Motivado pela necessidade de estratégias para classificar subestações diante de fenômenos de afundamento de tensão, que causam quedas na distribuição de energia elétrica, o método foi aplicado em um conjunto de dados reais, representando os índices de qualidade de energia elétrica de subestações localizadas no sudeste do Brasil. Foram encontrados valores ótimos na rotação das cargas fatoriais e definiu-se a parametrização “Ward e análise de covariância” como as estratégias ideais para criar os clusters nesse conjunto de dados. Assim, gerou-se conglomerados de baixa variabilidade e elipses de confiança precisas para estimar os padrões de afundamentos de tensão, promovendo um melhor poder discriminatório na classificação dos clusters através das regiões de confiança. A análise confirmatória inferiu que o método de ligação “Ward” se mostrou o mais robusto para esse conjunto, mesmo sob influência de perturbações no conjunto original

    Capacidade de previsão de soluções pareto ótimas

    Get PDF
    Response Surface Methodology is an effective framework for performing modelling and optimization of industrial processes. The Central Composite Design is the most popular experimental design for response surface analyses given its good statistical properties, such as decreasing prediction variance in the design center, where it is expected to find the stationary points of the regression models. However, the common practice of reducing center points in response surface studies may damage this property. Moreover, stationary and optimum points are rarely the same in manufacturing processes, for several reasons, such as saddle-shaped models, convexity incompatible with optimization direction, conflicting responses, and distinct convexities. This means that even when the number of center points is appropriate, the optimal solutions will lie in regions with larger prediction variance. Considering that, in this paper, we advocate that the prediction variance should also be considered into multiobjective optimization problems. To do this, we propose a multi-criteria optimization strategy based on capability ratios, wherein (1) the prediction variance is taken as the natural variability of the model and (2) the differences of expected values to nadir solutions are taken as the allowed variability. Factor Analysis with rotated scores is adopted for the grouping of correlated variables. Normal Boundary Intersection method is formulated for performing the optimization of capability ratios and obtaining the Pareto frontiers. To illustrate the feasibility of the proposed approach, two case studies are presented: (1) the turning of AISI H13 steel with wiper CC650 tool and (2) the end milling of the UNS S32205 duplex stainless steel, both processes without cutting fluids. The results have supported that the proposed approach was able to find a set of optimal solutions with satisfactory prediction capabilities for all responses of interest. In the first case, this occurred even with a reduced number of center points, a saddle-shaped function and a convex function, with conflicting objectives. In the second case, similar results were observed for six correlated responses, with conflicting objectives and rotated factors modeled by saddles.A Metodologia de Superfície de Resposta consiste em uma estrutura eficaz para conduzir a modelagem e a otimização de processos industriais. O arranjo composto central é o arranjo experimental mais popular para análises de superfície de resposta, devido a suas boas propriedades estatísticas, como variância de previsão reduzida no centro do arranjo, onde se esperam encontrar os pontos estacionários dos modelos de regressão. No entanto, a prática comum de reduzir os pontos centrais nos estudos de superfície de resposta pode comprometer essa propriedade. Além disso, os pontos estacionários e de ótimo raramente são coincidentes em processos de fabricação, por várias razões, como modelos em formato de sela, convexidade incompatível com o sentido de otimização, respostas conflitantes e convexidades distintas. Isso significa que, mesmo quando o número de pontos centrais for apropriado, as soluções ótimas estarão em regiões com maior variância de previsão. Considerando esse cenário, neste estudo, admite-se que a variância de previsão também deva ser considerada nos problemas de otimização multiobjetivo. Para isso, propõe-se uma estratégia de otimização multi-critério com base em razões de capacidade, na qual (1) a variância de previsão é tomada como variabilidade natural do modelo e (2) as diferenças dos valores esperados aos pontos de nadir são tomadas como variabilidades permitidas. A Análise Fatorial com escores rotacionados é adotada para o agrupamento de variáveis correlacionadas. O método de Interseção Normal à Fronteira é adotado para a condução da otimização das razões de capacidade e para a obtenção das fronteiras de Pareto. Para ilustrar a viabilidade da abordagem proposta, apresentam-se dois estudos de caso: (1) do torneamento do aço ABNT H13 com ferramenta wiper CC650 e (2) do fresamento de topo do aço inoxidável duplex UNS S32205, ambos processos sem fluido de corte. Os resultados sustentaram que, em ambos os casos, a abordagem proposta foi capaz de encontrar um conjunto de soluções ótimas com capacidades de previsão satisfatórias para todas as respostas de interesse. No primeiro caso, isso se deu mesmo com número reduzido de pontos centrais, uma função em formato de sela e uma função convexa, com objetivos conflitantes. No segundo caso, resultados semelhantes foram observados para seis respostas correlacionadas, com objetivos conflitantes e fatores rotacionados modelados por selas

    Particle Swarm Optimization

    Get PDF
    Particle swarm optimization (PSO) is a population based stochastic optimization technique influenced by the social behavior of bird flocking or fish schooling.PSO shares many similarities with evolutionary computation techniques such as Genetic Algorithms (GA). The system is initialized with a population of random solutions and searches for optima by updating generations. However, unlike GA, PSO has no evolution operators such as crossover and mutation. In PSO, the potential solutions, called particles, fly through the problem space by following the current optimum particles. This book represents the contributions of the top researchers in this field and will serve as a valuable tool for professionals in this interdisciplinary field

    The impact of macroeconomic leading indicators on inventory management

    Get PDF
    Forecasting tactical sales is important for long term decisions such as procurement and informing lower level inventory management decisions. Macroeconomic indicators have been shown to improve the forecast accuracy at tactical level, as these indicators can provide early warnings of changing markets while at the same time tactical sales are sufficiently aggregated to facilitate the identification of useful leading indicators. Past research has shown that we can achieve significant gains by incorporating such information. However, at lower levels, that inventory decisions are taken, this is often not feasible due to the level of noise in the data. To take advantage of macroeconomic leading indicators at this level we need to translate the tactical forecasts into operational level ones. In this research we investigate how to best assimilate top level forecasts that incorporate such exogenous information with bottom level (at Stock Keeping Unit level) extrapolative forecasts. The aim is to demonstrate whether incorporating these variables has a positive impact on bottom level planning and eventually inventory levels. We construct appropriate hierarchies of sales and use that structure to reconcile the forecasts, and in turn the different available information, across levels. We are interested both at the point forecast and the prediction intervals, as the latter inform safety stock decisions. Therefore the contribution of this research is twofold. We investigate the usefulness of macroeconomic leading indicators for SKU level forecasts and alternative ways to estimate the variance of hierarchically reconciled forecasts. We provide evidence using a real case study

    A Polyhedral Study of Mixed 0-1 Set

    Get PDF
    We consider a variant of the well-known single node fixed charge network flow set with constant capacities. This set arises from the relaxation of more general mixed integer sets such as lot-sizing problems with multiple suppliers. We provide a complete polyhedral characterization of the convex hull of the given set
    corecore