3 research outputs found

    Um novo algoritmo para encontrar a constituência mais favorável na análise de dados pela envolvente

    Get PDF
    DEA é uma técnica de programação matemática apresentada em 1978 por Charnes, Cooper e Rhodes, focado principalmente na avaliação da eficiência de organizações com finalidades não-lucrativas. Ao construir um modelo de DEA, uma decisão principal é a escolha dos “inputs” e dos “outputs” para o estudo. O modelo de DEA não é adequado para estudos com julgamentos díspares sobre a preferência dos atributos. Isto é superado pelo trabalho de Bougnol e de Dula onde um modelo novo é introduzido mas com tempos de processamento muito elevados. Um algoritmo novo mais rápido é apresentado por meio de um modelo de programação linear binário misto resolvido pelo algoritmo de corte e ramificação. Os testes das vantagens computacionais desta formulação nova foram executados em dados multivariados normais gerados pelo programa “Distribution View” de J. Coelho.DEA is a mathematical programming technique presented in 1978 by Charnes, Cooper and Rhodes, which focused mainly on the efficiency assessment of not-for-profit organizations. When constructing a DEA model, a major decision is the choice of inputs and outputs for the study. The CCR DEA model is not suited for studies with constituencies with dissonant judgments about the desirability of the attributes. This problem is overcome by the work of Bougnol and Dula, in which a new model is introduced but with long processing times. A faster new formulation is presented by means of a Mixed Binary Linear Programming Model. Tests concerning the computational advantages of this formulation were carried out on multivariate random normal generated by the Distribution View Software from J. Coelho.peerreviewe

    Anchor points in DEA

    Get PDF
    Abstract. Anchor points play an important role in DEA theory and application. They define the transition from the efficient frontier to the "free-disposability" portion of the boundary. Our objective is to use the geometrical properties of anchor points to design and test an algorithm for their identification. We focus on the variable returns to scale production possibility set; our results do not depend on any particular DEA LP formulation, primal/dual form or orientation. Tests on real and synthetic data lead to unexpected insights into their role in the geometry of the DEA production possibility set

    Issues of universal feasibiliy and multplier adjustment in data envelopment analysis (DEA) with an application

    Get PDF
    O objectivo desta tese é o estudo dos casos de ausência de soluções admissíveis e desenvolvimento de modelos que contornem esse inconveniente que surge nos modelos de determinação de eficiência. Na prática esse problema só se põe nos modelos com rendimentos de escala variáveis (Variable Returns to Scale), o vulgo modelo BCC. São expostas várias soluções para esse problema, que passam quer pela relaxação da restrição da convexidade, conduzindo a um modelo novo e original – O Modelo Homotético; quer pela relaxação da restrição da não negatividade conduzindo a problemas de decomposição facial, bem como soluções baseadas em técnicas de regressão e simulação e ainda pela introdução de Unidades Organizacionais fictícias. Dadas as boas propriedades do modelo de Bougnol e Dulá, no que respeita quer à invariância (referente à escala, ou à origem dos eixos) quer à admissibilidade, esse modelo foi alvo de uma formulação completamente nova baseada em programação linear binária mista, obtendo-se resultados muito mais rápidos que os usuais que chegavam a usar dias de CPU. Outro objectivo proposto que também foi conseguido foi a implementação de um sistema original de ajuste dos pesos por técnicas não lineares de Programação por Metas. Esse sistema articula-se com o primeiro problema, o da ausência de soluções admissíveis, e mostra-se com um caso de aplicação prática a resolução desse problema pelas técnicas de ajuste de pesos. ### /ABSTRACT - The aim of this thesis is to study Universal Feasibility and to develop a new Multiplier Adjustment in Data Envelopment Analysis. Infeasibility in Data Envelopment Analysis appears after the introduction of the deleted domain or superefficiency technique by Banker et al. in 1989, but this technique was really put to use by Andersen and Petersen in 1993. This technique, especially in the variable returns to scale models, originated unfeasible programs. It is an interesting field of research to study under which conditions such problems arise, and find some solution for it. Relaxation of the convexity constraint leads to a new original model, the homothetic one. By relaxing the non-negativity constraint one delves in programs of facial decomposition. Solutions by simulation and regression are studied, as well as the inclusion of artificial points. In the spirit of universal feasibility, Bougnol and Dulá developed a new model in 2001 that has very good properties concerning invariance (scale and translation invariance) and feasibility; it had a drawback of being demanding in time and computation. In order to solve this problem an original faster mixed integer linear formulation was developed. The problem of unfeasibility is related to unboundness in its dual, so a properly tuned scheme of weight restrictions can fix that problem. This is accomplished as a subproduct of the new weight adjustment technique. Finally, the removal of unfeasibility by this new weight adjustment scheme is demonstrated in real data
    corecore