60,468 research outputs found

    An adaptive neuro fuzzy inference system to model the uniaxial compressive strength of cemented hydraulic backfill

    Get PDF
    Purpose. The purpose of this paper is to develop the models for predicting the uniaxial compressive strength (UCS) of cemented hydraulic backfill (CHB), a widely used technique for filling underground voids created by mining operations as it provides the high strength required for safe and economical working environment and allows the use of waste rock from mining operations as well as tailings from mineral processing plants as ingredients. Methods. In this study, different modelling techniques such as conventional linear, nonlinear multiple regression and one of the evolving soft computing methods, adaptive neuro fuzzy inference system (ANFIS), were used for the prediction of UCS, the main criterion used to design backfill recipe. Findings. Statistical performance indices used to evaluate the efficiency of the developed models indicated that the ANFIS model can effectively be implemented for designing CHB with desired UCS. As proved by the performance indicators ANFIS model gives more compatible results with the expert opinion and current literature than conventional modelling techniques. Originality. In order to construct the models a very large database, containing more than 1600 UCS test results, was used. In addition to widely used conventional regression based modelling techniques, one of the evolving soft computing methods, ANFIS was employed. Numerical examples showing the implementation of constructed models were provided. Practical implementation. As proved by the statistical performance indicators, the developed models can be used for a reliable prediction of the UCS of CHB. However, more accurate results can be achieved by expanding the database and by constructing improved models using the algorithm presented in this paper.Мета. Побудова моделей для прогнозування межі міцності при одноосьовому стисканні цементної гідравлічної закладки для заповнення вироблених просторів шахт. Методика. Для досягнення поставленої мети були використані різні методи моделювання: лінійна та нелінійна множинна регресія, а також порівняно недавно став популярним метод програмування – адаптивне нейронечітке логічне виведення (ANFIS). За їх допомогою було спрогнозовано зміну міцності на одноосьове стискання, що є ключовим показником для визначення складу закладної суміші. Для побудови моделей використана значна база даних, яка включає результати більш ніж 1600 випробувань на одноосьове стискання. Лабораторними дослідженнями також визначалися властивості закладних матеріалів і суміші. Результати. Модель ANFIS дала найкращу продуктивність з урахуванням статистичних показників ефективності, таких як середня абсолютна процентна похибка і змінний обліковий запис. Статистичні показники продуктивності, які використовуються для оцінки ефективності розроблених моделей, свідчать, що моделювання за допомогою ANFIS дозволяє отримати результати, які більше відповідають експертній оцінці та даним з сучасної літератури, ніж інформація, отримана за допомогою традиційного моделювання. Встановлено, що на відміну від регресивного моделювання, ANFIS не вимагає заздалегідь визначених математичних рівнянь для взаємозв’язку між вхідними та вихідними змінними і використовує наданий набір даних для ефективного визначення структури моделі. Наукова новизна. Вперше для прогнозування міцності при одноосьовому стисканні були використані не лише традиційні способи моделювання, засновані на регресії, а й інноваційний метод програмування – адаптивне нейронечітке логічне виведення ANFIS. У статті наведені чисельні приклади впровадження нових побудованих моделей. Практична значимість. Статистичні індикатори продуктивності показали, що розроблені моделі можуть бути використані для надійного прогнозування міцності при одноосьовому стисканні й оптимальної рецептури закладної суміші. Однак, щоб отримати більш точні результати, необхідно мати більш широку базу даних і створити більш досконалі моделі на основі алгоритму, запропонованому в даній статті.Цель. Построение моделей для прогнозирования предела прочности при одноосном сжатии цементной гидравлической закладки для заполнения выработанных пространств шахт. Методика. Для достижения поставленной цели были использованы различные методы моделирования: линейная и нелинейная множественная регрессия, а также сравнительно недавно ставший популярным метод программирования – адаптивный нейронечеткий логический вывод (ANFIS). С их помощью было спрогнозировано изменение прочности на одноосное сжатие, что является ключевым показателем для определения состава закладочной смеси. Для построения моделей использована обширная база данных, которая включает результаты более чем 1600 испытаний на одноосное сжатие. Лабораторными исследованиями также определялись свойства закладочных материалов и смеси. Результаты. Модель ANFIS дала наилучшую производительность с учетом статистических показателей эффективности, таких как средняя абсолютная процентная погрешность и переменная учетная запись. Статистические показатели производительности, используемые для оценки эффективности разработанных моделей, свидетельствуют, что моделирование с помощью ANFIS позволяет получить результаты, которые более соответствуют экспертной оценке и данным из современной литературы, чем информация, полученная при помощи традиционного моделирования. Установлено, что в отличие от регрессионного моделирования, ANFIS не требует заранее определенных математических уравнений для взаимосвязи между входными и выходными переменными и использует предоставленный набор данных для эффективного определения структуры модели. Научная новизна. Впервые для прогнозирования прочности при одноосном сжатии были использованы не только традиционные способы моделирования, основанные на регрессии, но и инновационный метод программирования – адаптивный нейронечеткий логический вывод ANFIS. В статье приведены численные примеры внедрения новых построенных моделей. Практическая значимость. Статистические индикаторы производительности показали, что разработанные модели могут быть использованы для надежного прогнозирования прочности при одноосном сжатии и оптимальной рецептуры закладочной смеси. Однако, чтобы получить более точные результаты, необходимо иметь более широкую базу данных и создать более совершенные модели на основе алгоритма, предложенного в данной статье.The authors thank the staff and the managers of Jinfeng underground gold mine for their helps and cooperation during field and laboratory studies. The company is also acknowledged for the permission to use and publish the data

    Learning and Designing Stochastic Processes from Logical Constraints

    Get PDF
    Stochastic processes offer a flexible mathematical formalism to model and reason about systems. Most analysis tools, however, start from the premises that models are fully specified, so that any parameters controlling the system's dynamics must be known exactly. As this is seldom the case, many methods have been devised over the last decade to infer (learn) such parameters from observations of the state of the system. In this paper, we depart from this approach by assuming that our observations are {\it qualitative} properties encoded as satisfaction of linear temporal logic formulae, as opposed to quantitative observations of the state of the system. An important feature of this approach is that it unifies naturally the system identification and the system design problems, where the properties, instead of observations, represent requirements to be satisfied. We develop a principled statistical estimation procedure based on maximising the likelihood of the system's parameters, using recent ideas from statistical machine learning. We demonstrate the efficacy and broad applicability of our method on a range of simple but non-trivial examples, including rumour spreading in social networks and hybrid models of gene regulation

    Considerate Approaches to Achieving Sufficiency for ABC model selection

    Full text link
    For nearly any challenging scientific problem evaluation of the likelihood is problematic if not impossible. Approximate Bayesian computation (ABC) allows us to employ the whole Bayesian formalism to problems where we can use simulations from a model, but cannot evaluate the likelihood directly. When summary statistics of real and simulated data are compared --- rather than the data directly --- information is lost, unless the summary statistics are sufficient. Here we employ an information-theoretical framework that can be used to construct (approximately) sufficient statistics by combining different statistics until the loss of information is minimized. Such sufficient sets of statistics are constructed for both parameter estimation and model selection problems. We apply our approach to a range of illustrative and real-world model selection problems

    Posterior mean and variance approximation for regression and time series problems

    Get PDF
    This paper develops a methodology for approximating the posterior first two moments of the posterior distribution in Bayesian inference. Partially specified probability models that are defined only by specifying means and variances, are constructed based upon second-order conditional independence in order to facilitate posterior updating and prediction of required distributional quantities. Such models are formulated particularly for multivariate regression and time series analysis with unknown observational variance-covariance components. The similarities and differences of these models with the Bayes linear approach are established. Several subclasses of important models, including regression and time series models with errors following multivariate t, inverted multivariate t and Wishart distributions, are discussed in detail. Two numerical examples consisting of simulated data and of US investment and change in inventory data illustrate the proposed methodology

    Monetary Policy Analysis in Real-Time. Vintage Combination from a Real-Time Dataset.

    Get PDF
    This paper provides a general strategy for analyzing monetary policy in real time which accounts for data uncertainty without explicitly modelling the revision process. The strategy makes use of all the data available from a real-time data matrix and averages model estimates across all data releases. Using standard forecasting and policy models to analyze monetary authorities’ reaction functions, we show that this simple method can improve forecasting performance and provide reliable estimates of the policy model coefficients associated with small central bank losses, in particular during periods of high macroeconomic uncertainty.monetary policy, Taylor rule, real-time data, great moderation, forecasting
    corecore