21 research outputs found
Otimização multiobjetivo por estimadores robustos multivariados
As organizações focam em determinar condições ideais de operação com o intuito de garantir a qualidade de seus processos e serviços, uma vez que os processos industriais podem exibir um elevado grau de variabilidade. Neste contexto, o uso de estimadores robustos torna-se uma alternativa adequada para modelar os dados experimentais; sendo que o termo robusto descreve a capacidade que um estimador tem em superar as influências exercidas pelos valores discrepantes. Encontrar uma combinação de estimadores de centralidade e dispersão que seja capaz de modelar dados suscetíveis à variabilidade é um desafio a ser explorado. Desse modo, este presente trabalho, com o auxílio da Análise de Componentes Principais (ACP), visa à obtenção de respostas transformadas em escores de componentes que explicarão a estrutura de variância-covariância a partir de combinações lineares das varáveis originais. Em consequência, o objetivo geral é o de validar um algoritmo de otimização multiobjetivo baseado no agrupamento de respostas correlacionadas e modeladas por estimadores robustos. Com o auxílio do método da Interseção Normal à Fronteira, é proposta uma otimização multiobjetivo para funções obtidas pelo Erro Quadrático Médio Multivariado (EQMM) que combina técnicas da Metodologia de Superfície de Resposta com a ACP, visando obter soluções Pareto-ótimas. O objeto de estudo definido para a aplicação desta proposta é o processo de torneamento do aço de corte fácil ABNT/SAE 12L14 composto por um arranjo cruzando onde 12 condições de ruído são consideradas para a obtenção da variável de resposta que é a rugosidade superficial (Ra). O resultado ótimo é definido pelo tomador de decisão fuzzy e para provar a eficiência da resposta encontrada, experimentos de confirmação foram realizados. Em um nível de confiança de 95%, o valor ótimo pertence aos intervalos de confiança multivariados apenas para o Modelo B, no qual a mediana e o MAD são considerados e, confirmando assim, qual par de estimadores atinge a solução em um cenário de projeto robusto de parâmetro. Através da pesquisa proposta, o modelo desenvolvido pode ser utilizado em indústrias para determinação de parâmetros de usinagem para obtenção de alta qualidade com consumo mínimo de energia e, consequentemente, máxima produtividade
Elipses de confiança para soluções pareto-ótimas multivariada
This study presents a non-linear bi-objective optimization method for correlated responses of
Robust parameter design optimization (RPD) using Normal Boundary Intersection (NBI)
method. Even in capable region for multiple and conflicting objectives optimization Pareto frontiers could be formed by indistinguishable points which may require a highly
confirmatory sample sizes to verify non-dominance. Taking advantage of uniformly spread
Pareto-frontiers, some propositions are established to treat a trade-off between mean and
variance. In this approach, Response Surface Methodology (RSM) is applied for modeling the
quality characteristics of process, using propagation of error to extract the implicit variance.
Moreover, in order to avoid correlated variables on subsequent optimization, Factor Analysis
rotated by Equimax is applied replacing original data by factor scores regressions. In
contemplation of distinguishing Pareto-solutions are formed (1-α) confidence ellipse region
for centrality and dispersion of every solution, which variability is quantified by variance covariance matrix. These ellipses are especially important to understand the stochastic nature
of Pareto-optimal solutions obtained when NBI is used coupled with RSM. As a key result,
this study conceives the Fuzzy decision-maker, which is a smart Pareto filter based on Fuzzy
logic, combining confidence ellipses volume (variability) and Mahalanobis distance (mean
shift) as a quality indicator. This approach becomes possible to synchronously minimize
accuracy and precision. The adequacy of the proposal is illustrated with two real cases of
hardened steel turning process, optimizing cost and tool life. The quality of practical results
motivates us to suggest the method may be extended to applications on similar manufacturing
processes problems.Este trabalho apresenta um método de otimização bi-objetivo não linear para respostas
correlacionadas de otimização de projeto de parâmetros robustas (RPD), usando o método da
Intersecção Normal à Fronteira (NBI). Mesmo em uma região capaz para otimização de
objetivos múltiplos e conflitantes as fronteiras de Pareto podem ser formadas por pontos
indistinguíveis entre si o que podem exigir grandes quantidades de amostras de confirmação
para se verificar a não dominância dessas soluções. Tomando como vantagem as fronteiras de
Pareto uniformemente distribuídas, algumas proposições são estabelecidas para tratar a
compensação entre média e variância. Nesta abordagem, a Metodologia de Superfícies de
Respostas (RSM) é aplicada para modelar as características de qualidade do Processo, usando
a propagação do erro (POE) para se extrair a variância implícita. Além disso, para se evitar
variáveis correlacionadas na otimização subsequente, a Análise Fatorial rotacionada por
Equimax é aplicada substituindo os dados originais por regressões de escores fatoriais. Na
contemplação de distinguir Soluções de Pareto são formadas (1-α) regiões elipses de
confiança para centralidade e dispersão de cada solução, cuja variabilidade é quantificada pela
matriz de variância-covariância. Essas elipses são especialmente importantes para entender a
natureza estocástica das soluções Pareto-ótimas obtidas quando o NBI é usado juntamente
com o RSM. Como resultado chave, este estudo concebe o tomador de decisão Fuzzy, que é
um filtro de Pareto inteligente baseado na lógica Fuzzy, combinando volume de elipses de
confiança (variabilidade) e distância de Mahalanobis (deslocamento médio) como um
indicador de qualidade. Esta abordagem torna possível minimizar sincronizadamente exatidão
e precisão. A adequação da proposta é ilustrada com dois casos reais de processo de
torneamento de aços endurecidos, otimizando custo e vida útil da ferramenta. A qualidade dos
resultados práticos sugere que o método pode ser estendido para aplicações em problemas de
processos de fabricação semelhantes
Fronteiras Equiespaçadas de Pareto para funções Objetivo Correlacionadas.
O Método da Interseção Normal à Fronteira (NBI) é normalmente usado para gerar pontos equidistantes e uniformes na geração da fronteira de Pareto para problemas de otimização multiobjetivo não-lineares, oferecendo um conjunto de soluções ótimas. Estendendo-se a aplicação deste método ao Projeto de Parâmetro Robusto Multiobjetivo (MRPD) modelado por uma matriz combinada, o NBI pode ser muito útil para descobrir o melhor conjunto de variáveis controláveis capazes de minimizar o efeito das variáveis de ruído. No entanto, quando as diversas funções objetivo são correlacionadas o método NBI falha ao produzir resultados irreais e fronteiras não convexas que, influenciado pela atuação dos pesos, tenta separar as funções objetivo correlacionadas. Este inconveniente pode ser contornado se a Fronteira de Pareto for gerada a partir de funções não correlacionadas representadas pelos escores de componentes principais. Assim, acoplando o método NBI à Análise de Componentes Principais (PCA). Para os dados experimentais obtidos com matrizes combinadas, este trabalho apresenta uma abordagem capaz de tornar o processo menos sensível à variabilidade provocada por variáveis de ruído, enquanto identifica o conjunto de pontos ótimos numa fronteira de Pareto uniformemente distribuída. A aplicabilidade do método é ilustrada com a otimização de um processo de fresamento do aço AISI 1045. A confirmação da eficiência do método se dá após a fase de otimização, no qual três pontos da fronteira foram escolhidos para execução dos experimentos de confirmação. O planejamento, por meio de um Taguchi L9, indicou a necessidade de 27 experimentos para testar uma diferença de magnitude de 0,2 mm para Ra e 1,8 mm para Rt com um poder (1-β) de 82%, considerando-se, para cada resposta, nove condições de ruído. Os resultados dos experimentos de confirmação se localizaram dentro dos intervalos de confiança estabelecidos para médias e variâncias, respectivamente, o que demonstra a capacidade do método NBI-PCA de mitigar a influência das variáveis de ruído em processos de respostas múltiplas para qualquer peso desejado
Otimização de um processo de usinagem a laser pelo método NBI-GRA.
O processo de usinagem a laser (LBM) apresenta ampla aplicabilidade na indústria, nos mais diversos setores, como automobilístico, aeronáutico e eletrônico. As principais vantagens da LBM sobre as tecnologias convencionais de usinagem são a remoção de material sem contato, a peça é usinada com elevada precisão e não há desgaste de ferramenta. A LBM apresenta diversas características de qualidade e múltiplas grandezas correlacionadas, a análise dessas características pode ser melhor abordada utilizando-se técnicas multivariadas. Entretanto não existem muitos estudos sobre como os fatores de entrada influenciam essa tecnologia de fabricação. Desta forma, o presente trabalho tem como propósito o desenvolvimento do método NBI-GRA com restrições multivariadas para problemas de otimização multiobjetivo, com funções objetivo e restrições correlacionadas. Este método permite que processos de resposta correlacionadas sejam otimizados simultaneamente aplicando-se o Método de Interseção Normal à Fronteira (NBI) e em seguida a Análise Relacional Grey (GRA). Para testar a adequação da proposta, um arranjo L16 de Taguchi com 3 variáveis de entrada (x) e 8 respostas (Y) foi desenvolvido para otimizar o processo de usinagem a laser da liga de alumínio AA1050. Resultados preliminares indicam que o método contribuiu para a formação de fronteiras equiespaçadas e sem inversão dos sinais de correlação das respostas originais, conduzindo todas as respostas para valores próximos aos seus alvos, sem desrespeitar as restrições pré-estabelecidas. Do ponto de vista prático, as soluções encontradas promoveram excelentes níveis de qualidade para as peças usinadas e com alta produtividade
Aprimoramento do poder discriminatório de funções elipsoidais modificadas por cargas fatoriais rotacionadas na formação otimizada de agrupamentos
The technological advent provided the rise of data collection in companies, governments
and various industrial segments. In this respect, techniques that seek to perform groupings and
discrimination of clusters are widely used in datasets with multiple variables, bringing the need
to use specific tools, which contemplate the existing variance-covariance structure. Based on
this, this work presents a proposal to improve the discriminatory power of confidence regions
in the formation and estimation of optimal clusters, using multivariate and experimental
techniques to extract information in an optimized way in correlated datasets. Factor analysis
was used as the exploratory multivariate method, tuning the rotation for factor loads through
the mixture design, and agglutinating the total variance explained functions by the mean square
error afterwards. The optimization of this step is performed through the sequential quadratic
programming algorithm. Knowing the optimal scores, a multilevel factorial design is formed to
contemplate all combinations of the linkage methods and the types of analysis, seeking to find
the parameter that presents the least variability, generating confidence ellipses with better
discrimination between groups. A strategy to analyze the levels of agreement and the inversions
existence in the formation of clusters is proposed using the Kappa and Kendall indicators.
Motivated by the need for strategies to classify substations in the face of voltage sag
phenomena, which cause faults in the distribution of electricity, the method was applied to a set
of real data, representing the power quality indexes of substations located in southeastern
Brazil. Optimum values were found in the factor loads rotation and the parameterization “Wardanalysis of covariance” was defined as the ideal strategies to create the clusters in this dataset.
Thus, low variability clusters and precise confidence ellipses were generated to estimate the
voltage sag patterns, promoting a better discriminatory power in the clusters’ classification
through the regions of confidence. The confirmatory analysis inferred that the “Ward” linkage
proved to be the most robust method for this dataset, even under the influence of disturbances
in the original data.Agência 1O advento tecnológico proporcionou a ascensão da coleta de dados em empresas,
governos e diversos segmentos industriais. Nesse aspecto, técnicas que buscam realizar
agrupamentos e discriminação de conglomerados são amplamente empregadas em dados que
apresentam múltiplas variáveis, trazendo a necessidade de se utilizar ferramentas específicas,
que contemplem a estrutura de variância-covariância existente. Com base nisso, esse trabalho
apresenta uma proposta para aprimorar o poder discriminatório de regiões de confiança na
formação e estimação de agrupamentos ótimos, utilizando técnicas multivariadas e
experimentais para extrair informações de maneira otimizada em conjuntos de dados
correlacionados. Como método multivariado exploratório, utilizou-se a análise fatorial,
calibrando a rotação de cargas fatoriais através do arranjo de misturas e, em seguida,
aglutinando as funções de variância total explicada pelo erro quadrático médio. A otimização
dessa etapa é realizada através do algoritmo de programação quadrática sequencial.
Conhecendo os escores ótimos, um arranjo fatorial multinível é formado para contemplar todas
as combinações dos métodos de ligação e os tipos de análise, buscando encontrar a combinação
de parâmetros que apresente a menor variabilidade e que, consequentemente, gere elipses de
confiança com melhor discriminação entre os grupos. Uma estratégia para analisar os níveis de
concordância e a existência de inversões na formação de clusters é proposta utilizando os
indicadores de Kappa e Kendall. Motivado pela necessidade de estratégias para classificar
subestações diante de fenômenos de afundamento de tensão, que causam quedas na distribuição
de energia elétrica, o método foi aplicado em um conjunto de dados reais, representando os
índices de qualidade de energia elétrica de subestações localizadas no sudeste do Brasil. Foram
encontrados valores ótimos na rotação das cargas fatoriais e definiu-se a parametrização “Ward
e análise de covariância” como as estratégias ideais para criar os clusters nesse conjunto de
dados. Assim, gerou-se conglomerados de baixa variabilidade e elipses de confiança precisas
para estimar os padrões de afundamentos de tensão, promovendo um melhor poder
discriminatório na classificação dos clusters através das regiões de confiança. A análise
confirmatória inferiu que o método de ligação “Ward” se mostrou o mais robusto para esse
conjunto, mesmo sob influência de perturbações no conjunto original
Capacidade de previsão de soluções pareto ótimas
Response Surface Methodology is an effective framework for performing modelling and optimization
of industrial processes. The Central Composite Design is the most popular experimental design for
response surface analyses given its good statistical properties, such as decreasing prediction variance
in the design center, where it is expected to find the stationary points of the regression models.
However, the common practice of reducing center points in response surface studies may damage this
property. Moreover, stationary and optimum points are rarely the same in manufacturing processes,
for several reasons, such as saddle-shaped models, convexity incompatible with optimization
direction, conflicting responses, and distinct convexities. This means that even when the number of
center points is appropriate, the optimal solutions will lie in regions with larger prediction variance.
Considering that, in this paper, we advocate that the prediction variance should also be considered
into multiobjective optimization problems. To do this, we propose a multi-criteria optimization
strategy based on capability ratios, wherein (1) the prediction variance is taken as the natural
variability of the model and (2) the differences of expected values to nadir solutions are taken as the
allowed variability. Factor Analysis with rotated scores is adopted for the grouping of correlated
variables. Normal Boundary Intersection method is formulated for performing the optimization of
capability ratios and obtaining the Pareto frontiers. To illustrate the feasibility of the proposed
approach, two case studies are presented: (1) the turning of AISI H13 steel with wiper CC650 tool
and (2) the end milling of the UNS S32205 duplex stainless steel, both processes without cutting
fluids. The results have supported that the proposed approach was able to find a set of optimal
solutions with satisfactory prediction capabilities for all responses of interest. In the first case, this
occurred even with a reduced number of center points, a saddle-shaped function and a convex
function, with conflicting objectives. In the second case, similar results were observed for six
correlated responses, with conflicting objectives and rotated factors modeled by saddles.A Metodologia de Superfície de Resposta consiste em uma estrutura eficaz para conduzir a
modelagem e a otimização de processos industriais. O arranjo composto central é o arranjo
experimental mais popular para análises de superfície de resposta, devido a suas boas
propriedades estatísticas, como variância de previsão reduzida no centro do arranjo, onde se
esperam encontrar os pontos estacionários dos modelos de regressão. No entanto, a prática
comum de reduzir os pontos centrais nos estudos de superfície de resposta pode comprometer
essa propriedade. Além disso, os pontos estacionários e de ótimo raramente são coincidentes
em processos de fabricação, por várias razões, como modelos em formato de sela, convexidade
incompatível com o sentido de otimização, respostas conflitantes e convexidades distintas. Isso
significa que, mesmo quando o número de pontos centrais for apropriado, as soluções ótimas
estarão em regiões com maior variância de previsão. Considerando esse cenário, neste estudo,
admite-se que a variância de previsão também deva ser considerada nos problemas de
otimização multiobjetivo. Para isso, propõe-se uma estratégia de otimização multi-critério com
base em razões de capacidade, na qual (1) a variância de previsão é tomada como variabilidade
natural do modelo e (2) as diferenças dos valores esperados aos pontos de nadir são tomadas
como variabilidades permitidas. A Análise Fatorial com escores rotacionados é adotada para o
agrupamento de variáveis correlacionadas. O método de Interseção Normal à Fronteira é
adotado para a condução da otimização das razões de capacidade e para a obtenção das
fronteiras de Pareto. Para ilustrar a viabilidade da abordagem proposta, apresentam-se dois
estudos de caso: (1) do torneamento do aço ABNT H13 com ferramenta wiper CC650 e (2) do
fresamento de topo do aço inoxidável duplex UNS S32205, ambos processos sem fluido de
corte. Os resultados sustentaram que, em ambos os casos, a abordagem proposta foi capaz de
encontrar um conjunto de soluções ótimas com capacidades de previsão satisfatórias para todas
as respostas de interesse. No primeiro caso, isso se deu mesmo com número reduzido de pontos
centrais, uma função em formato de sela e uma função convexa, com objetivos conflitantes. No
segundo caso, resultados semelhantes foram observados para seis respostas correlacionadas,
com objetivos conflitantes e fatores rotacionados modelados por selas
Particle Swarm Optimization
Particle swarm optimization (PSO) is a population based stochastic optimization technique influenced by the social behavior of bird flocking or fish schooling.PSO shares many similarities with evolutionary computation techniques such as Genetic Algorithms (GA). The system is initialized with a population of random solutions and searches for optima by updating generations. However, unlike GA, PSO has no evolution operators such as crossover and mutation. In PSO, the potential solutions, called particles, fly through the problem space by following the current optimum particles. This book represents the contributions of the top researchers in this field and will serve as a valuable tool for professionals in this interdisciplinary field
The impact of macroeconomic leading indicators on inventory management
Forecasting tactical sales is important for long term decisions such as procurement and informing lower level inventory management decisions. Macroeconomic indicators have been shown to improve the forecast accuracy at tactical level, as these indicators can provide early warnings of changing markets while at the same time tactical sales are sufficiently aggregated to facilitate the identification of useful leading indicators. Past research has shown that we can achieve significant gains by incorporating such information. However, at lower levels, that inventory decisions are taken, this is often not feasible due to the level of noise in the data. To take advantage of macroeconomic leading indicators at this level we need to translate the tactical forecasts into operational level ones. In this research we investigate how to best assimilate top level forecasts that incorporate such exogenous information with bottom level (at Stock Keeping Unit level) extrapolative forecasts. The aim is to demonstrate whether incorporating these variables has a positive impact on bottom level planning and eventually inventory levels. We construct appropriate hierarchies of sales and use that structure to reconcile the forecasts, and in turn the different available information, across levels. We are interested both at the point forecast and the prediction intervals, as the latter inform safety stock decisions. Therefore the contribution of this research is twofold. We investigate the usefulness of macroeconomic leading indicators for SKU level forecasts and alternative ways to estimate the variance of hierarchically reconciled forecasts. We provide evidence using a real case study
A Polyhedral Study of Mixed 0-1 Set
We consider a variant of the well-known single node fixed charge network flow set with constant capacities. This set arises from the relaxation of more general mixed integer sets such as lot-sizing problems with multiple suppliers. We provide a complete polyhedral characterization of the convex hull of the given set