4 research outputs found

    Popular Ensemble Methods: An Empirical Study

    Full text link
    An ensemble consists of a set of individually trained classifiers (such as neural networks or decision trees) whose predictions are combined when classifying novel instances. Previous research has shown that an ensemble is often more accurate than any of the single classifiers in the ensemble. Bagging (Breiman, 1996c) and Boosting (Freund and Shapire, 1996; Shapire, 1990) are two relatively new but popular methods for producing ensembles. In this paper we evaluate these methods on 23 data sets using both neural networks and decision trees as our classification algorithm. Our results clearly indicate a number of conclusions. First, while Bagging is almost always more accurate than a single classifier, it is sometimes much less accurate than Boosting. On the other hand, Boosting can create ensembles that are less accurate than a single classifier -- especially when using neural networks. Analysis indicates that the performance of the Boosting methods is dependent on the characteristics of the data set being examined. In fact, further results show that Boosting ensembles may overfit noisy data sets, thus decreasing its performance. Finally, consistent with previous studies, our work suggests that most of the gain in an ensemble's performance comes in the first few classifiers combined; however, relatively large gains can be seen up to 25 classifiers when Boosting decision trees

    Towards Comprehensive Foundations of Computational Intelligence

    Full text link
    Abstract. Although computational intelligence (CI) covers a vast variety of different methods it still lacks an integrative theory. Several proposals for CI foundations are discussed: computing and cognition as compression, meta-learning as search in the space of data models, (dis)similarity based methods providing a framework for such meta-learning, and a more general approach based on chains of transformations. Many useful transformations that extract information from features are discussed. Heterogeneous adaptive systems are presented as particular example of transformation-based systems, and the goal of learning is redefined to facilitate creation of simpler data models. The need to understand data structures leads to techniques for logical and prototype-based rule extraction, and to generation of multiple alternative models, while the need to increase predictive power of adaptive models leads to committees of competent models. Learning from partial observations is a natural extension towards reasoning based on perceptions, and an approach to intuitive solving of such problems is presented. Throughout the paper neurocognitive inspirations are frequently used and are especially important in modeling of the higher cognitive functions. Promising directions such as liquid and laminar computing are identified and many open problems presented.

    Combinaci贸n de clasificadores mediante el m茅todo boosting. Una aplicaci贸n a la predicci贸n del fracaso empresarial en Espa帽a

    Get PDF
    El trabajo que se presenta est谩 estructurado en tres partes. La primera parte comprende del cap铆tulo i al cap铆tulo IV. Tras exponer algunos aspectos generales de los problemas de clasificaci贸n, se analizan algunos de los m茅todos de clasificaci贸n individuales m谩s utilizados en la actualidad, destacando sus principales ventajas e inconvenientes. En la segunda parte (cap铆tulos V al VII) se analizan algunos aspectos relacionados con el comportamiento y las propiedades de los clasificadores individuales. En concreto, se plantean las dificultades que pueden surgir debido al uso de los clasificadores individuales, como son la precisi贸n y la estabilidad de los mismos. A continuaci贸n, en el capitulo vi, se aborda el estudio de la combinaci贸n de clasificadores prestando especial atenci贸n al m茅todo boosting. Adem谩s, se recoge una taxonom铆a de los m茅todos de combinaci贸n y se introducen tambi茅n el m茅todo bagging y el bosque aleatorio. Por 煤ltimo, se estudian los primeros algoritmos que han dado lugar al desarrollo posterior del m茅todo boosting. Tambi茅n se exponen algunas de las modificaciones que se han propuesto al algoritmo adaboost, incluyendo las que sirven para afrontar la existencia de m谩s de dos clases y, para acabar, se analiza cual debe ser el tama帽o adecuado de los arboles utilizados en la combinaci贸n. En la tercera parte (cap铆tulos 8-10) se proporciona una visi贸n general de la predicci贸n del fallo empresarial, sus antecedentes y estado actual. Adem谩s, se elaborara un listado con los ratios financieros que han resultado de mayor utilidad para el pron贸stico del fracaso. Tambi茅n se lleva a cabo una descripci贸n de la evoluci贸n que han seguido en Espa帽a las empresas fracasadas. El capitulo IX se centra en la aplicaci贸n pr谩ctica. Despu茅s de recoger brevemente algunas consideraciones te贸ricas sobre el tratamiento de la informaci贸n, se realiza un an谩lisis exploratorio de los datos. Adem谩s de catorce ratios financieros, se utilizan otras tres variables menos habituales que intentan recoger el tama帽o de la empresa, la actividad a la que se dedica y la forma jur铆dica que presenta. Se coteja el m茅todo boosting con los arboles de clasificaci贸n, tanto para el caso dicot贸mico, como cuando se distingue entre tres clases. A continuaci贸n se realiza una comparaci贸n, algo menos detallada, con otros cinco m茅todos de clasificaci贸n. Posteriormente, se examina la capacidad de los modelos establecidos anteriormente para predecir el fracaso empresarial cuando aumenta la distancia temporal al periodo en que se hace efectivo el fallo. Finalmente, se concluye que boosting mejora los resultados de los arboles de clasificaci贸n individuales. Entre las principales aportaciones de este trabajo destacan el uso de una t茅cnica novedosa, el m茅todo boosting y la consideraci贸n de un concepto de fracaso empresarial m谩s amplio del habitual
    corecore