15 research outputs found

    Application of simulation techniques for modelling uncertainty associated with gold mineralisation

    Get PDF
    The current research investigates applicability of stochastic approach to simulation of gold distribution to assess uncertainty of the associated mineralisation and proposes a practical workflow to be used in future for similar problems. Two different techniques are explored in the research: Direct Sampling multi-point simulation algorithm is used for generating realisations of lithologies hosting the gold mineralisation, Sequential Gaussian Simulation is applied to generate multiple realisations of gold within them. A number of parameters in the Direct Sampling algorithm are investigated to arrive at good reproducibility of the patterns found in the training image. The findings arrived at are aimed to help when undertaking simulation in future and choosing appropriate parameters. The resulting realisations are analysed for assessment of combined uncertainty in the lithology and gold mineralisation. Different assessment criteria are demonstrated to visualise and analyse uncertainty. Block scaling to a panel size resolution is carried out to compare the results of the stochastic modelling to a kriged model and assess global uncertainty which stems from this analysis. A practical workflow has been reached as a result of the research. The approach confirms usefulness of the simulation in the estimation of uncertainty and provides some practical considerations in usage of Direct Sampling method which can be applied to other MPS algorithms with further improvements

    Improved Conditioning to Hard, Soft and Dynamic Data In Multiple-Point Geostatistical Simulation

    Get PDF
    RÉSUMÉ Dans cette dissertation, nous présentons trois méthodes visant à corriger autant de problèmes observés dans les simulations géostatistiques basées sur des statistiques multipoint (MPS). Le premier problème est le conditionnement aux données exactes (hard data) des algorithmes MPS par morceaux (patch-based). Le second problème est l’utilisation efficace de données auxiliaires (soft data) dans le MPS. Le dernier problème est la calibration des réalisations de faciès par MPS à des données dynamiques. Bien que le premier problème soit particulier au MPS par morceaux les deux autres sont communs à toutes les variantes de MPS ainsi qu’aux autres méthodes de modélisation des faciès. Dans une simulation MPS de variables catégoriques les données exactes trouvées dans le voisinage de recherche du point à simuler souvent ne correspondent à aucun des patrons disponibles dans l’image d’entrainement (TI). La solution habituellement utilisée est alors d’ignorer les points du voisinage les plus éloignés jusqu’à ce que le patron soit retrouvé dans la TI. Nous proposons plutôt l’utilisation de TI alternatives (ATI) permettant d’enrichir la base de données des patrons. Les ATIs sont obtenues par simulation non-conditionnelle (MPS par morceaux) à partir de la TI originale (OTI). Parmi toutes les ATI générées, certaines seulement sont sélectionnées en fonction des structures observées et des statistiques présentes dans ces ATI par rapport aux statistiques et aux structures des OTI. On vérifie également que chaque ATI apporte suffisamment de patrons présents dans les données exactes observées. Les ATIs qui ne sont pas assez riches en patrons observés ou qui ne sont pas statistiquement similaires à l’OTI, ou qui ont un contenu structurel différent de l’OTI sont rejetées. Les ATIs sélectionnées et l’OTI sont ensuite transmises à la boucle principale de simulation. Le nombre et la taille des ATIs sélectionnées peuvent être aussi grands que souhaité pourvu que les temps de calcul demeurent réalistes. Nous avons testé l’approche sur plusieurs TI différentes, catégoriques et continues, en 2D et en 3D. Nos résultats montrent que l’utilisation des ATIs améliore le conditionnement aux données exactes, améliore la reproduction de la texture des TI et permet de simuler sur de grandes grilles même à partir de petites OTI----------ABSTRACT In this dissertation, we present three methodologies to correct three problems observed in geostatistical simulations based on multiple-point statistics or MPS. The first problem is the conditioning to hard data of patch-based algorithms. The second problem is the efficient use of auxiliary data in patch-based MPS. The last is the calibration of facies realizations to dynamic data. The first problem is particular to patch-based MPS while the second and third are common between not only MPS approaches but also other facies modeling methods. In an MPS simulation of categorical variables, hard data found within the search neighbour-hood of simulation point often do not match exactly any of the patterns available in TI. One common solution to this problem is to drop out farther nodes until a matching pattern is found in TI. We propose instead using Alternative TIs (ATI) to enrich the pattern database. ATIs are mainly unconditional patch-based simulations based on original TI (OTI). Among the ATIs generated, some are selected based on the structures observed and their statistical features (histogram and variogram) compared with those of OTI. Their pattern databases are examined for the frequency of matching patterns with existing hard data configurations in simulation grid. ATIs that are not rich enough (as measured by number of matches for the hard data), not statistically similar to OTI, or with different structural content from OTI are discarded. The selected ATIs and OTI then are passed onto the main simulation loop. ATIs can be considered of any size and number as long as they are not computationally prohibitive for MPS simulation. We have tested the idea over several 2D and 3D TIs for categorical and continuous variables. Our test results show that using ATIs enhances the conditioning capa-bilities, improves the texture reproduction, and allows simulating over large grids even using much smaller OTIs

    Simultaneous estimation of both geologic and reservoir state variables within an ensemble-based multiple-point statistic framework

    Full text link
    “The final publication is available at Springer via http://dx.doi.org/10.1007/s11004-013-9504-z"The first three authors gratefully acknowledge the financial support by US Department of Energy through project DE-FE0004962. The fourth author acknowledges the financial support by Spanish Ministry of Science and Innovation through project CGL2011-23295. The authors also wish to thank the guest editors, Philippe Renard and Gregoire Mariethoz, as well as three anonymous reviewers for their comments, which substantially helped improving the final version of the manuscript.Li, L.; Srinivasan, S.; Zhou, H.; Gómez-Hernández, JJ. (2014). Simultaneous estimation of both geologic and reservoir state variables within an ensemble-based multiple-point statistic framework. Mathematical Geosciences. 46(5):597-623. https://doi.org/10.1007/s11004-013-9504-zS597623465Aanonsen S, Nævdal G, Oliver D, Reynolds A, Valles B (2009) The ensemble Kalman filter in reservoir engineering—a review. SPE J 14(3):393–412Abdollahifard MJ, Faez K (2013) Stochastic simulation of patterns using Bayesian pattern modeling. Comput Geosci 17(1):99–116Alcolea A, Renard P (2010) Blocking moving window algorithm: conditioning multiple-point simulations to hydrogeological data. Water Resour Res 46:W08511Arpat GB (2005) Sequential simulation with patterns. PhD thesis, Stanford UniversityCaers J (2002) Geostatistical history matching under training-image based geological model constraints. In: SPE annual technical conference and exhibition, SPE 77429Caers J (2003) Efficient gradual deformation using a streamline-based proxy method. J Pet Sci Eng 39(1–2):57–83Chen Y, Zhang D (2006) Data assimilation for transient flow in geologic formations via ensemble Kalman filter. Adv Water Resour 29(8):1107–1122Evensen G (2003) The ensemble Kalman filter: theoretical formulation and practical implementation. Ocean Dyn 53(4):343–367Fu J, Gómez-Hernández JJ (2009) A blocking Markov chain Monte Carlo method for inverse stochastic hydrogeological modeling. Math Geosci 41(2):105–128Gómez-Hernández JJ, Sahuquillo A, Capilla JE (1997) Stochastic simulation of transmissivity fields conditional to both transmissivity and piezometric data. 1. Theory. J Hydrol 203(1–4):162–174Gu Y, Oliver D (2006) The ensemble Kalman filter for continuous updating of reservoir simulation models. J Energy Resour Technol 128(1):79–87Guardiano F, Srivastava R (1993) Multivariate geostatistics: beyond bivariate moments. In: Soares A (ed) Geostatistics-Troia. Kluwer Academic, Dordrecht, pp 133–144Hamill T, Whitaker J, Snyder C (2001) Distance-dependent filtering of background error covariance estimates in an ensemble Kalman filter. Mon Weather Rev 129:2776–2790Harbaugh AW, Banta ER, Hill MC, McDonald MG (2000) MODFLOW-2000, the US Geological Survey modular ground-water model. US Geological Survey, Branch of Information Services, Reston, VA, Denver, COHe J, Sarma P, Durlofsky LJ (2013) Reduced-order flow modeling and geological parameterization for ensemble-based data assimilation. Comput Geosci 55:54–69Hendricks Franssen H, Kinzelbach W (2008) Real-time groundwater flow modeling with the ensemble Kalman filter: joint estimation of states and parameters and the filter inbreeding problem. Water Resour Res 44(9):W09408Hoffman BT, Caers J (2005) Regional probability perturbations for history matching. J Pet Sci Eng 46(1–2):53–71Hu LY, Chugunova T (2008) Multiple-point geostatistics for modeling subsurface heterogeneity: a comprehensive review. Water Resour Res 44(11):W11413Hu LY, Zhao Y, Liu Y, Scheepens C, Bouchard A (2012) Updating multipoint simulatings using the ensemble Kalman filter. Comput Geosci 51:7–15Huang Y, Srinivasan S (2012) Efficient conditional simulation of spatial patterns using a pattern-growth algorithm. Geostatistics Oslo 2012:209–220Jafarpour B, Khodabakhshi M (2011) A probability conditioning method (PCM) for nonlinear flow data integration into multipoint statistical facies simulation. Math Geosci 43(2):133–164Kashib T, Srinivasan S (2006) A probabilistic approach to integrating dynamic data in reservoir models. J Pet Sci Eng 50(3):241–257Li L, Zhou H, Hendricks Franssen HJ, Gómez-Hernández JJ (2012) Modeling transient groundwater flow by coupling ensemble Kalman filtering and upscaling. Water Resour Res 48(1):W01537Li L, Srinivadan S, Zhou H, Gómez-Hernández J (2013) A pilot point guided pattern matching approach to integrate dynamic data into geological model. Adv Water Resour. doi: 10.1016/j.advwatres.2013.10.008Mariethoz G, Renard P, Caers J (2010a) Bayesian inverse problem and optimization with iterative spatial resampling. Water Resour Res 46(11):W11530Mariethoz G, Renard P, Straubhaar J (2010b) The direct sampling method to perform multiple-point geostatistical simulaitons. Water Resour Res 46:W11536Meerschman E, Pirot G, Mariethoz G, Straubhaar J, Meirvenne M, Renard P (2013) A practical guide to performing multiple-point statistical simulations with the direct sampling algorithm. Comput Geosci 52:307–324Ramarao BS, LaVenue de AM, Marsily G, Marietta MG (1995) Pilot point methodology for automated calibration of an ensemble of conditionally simulated transmissivity fields. 1. Theory and computational experiments. Water Resour Res 31(3):475–493Rezaee H, Mariethoz G, Koneshloo M, Asghari O (2013) Multiple-point geostatistical simulation using the bunch-pasting direct sampling method. Comput Geosci 54:293–308Straubhaar J, Renard P, Mariethoz G, Froidevaux R, Besson O (2011) An improved parallel multiple-point algorithm using a list approach. Math Geosci 43(3):305–328Strebelle S (2002) Conditional simulation of complex geological structures using multiple-point statistics. Math Geol 34(1):1–21Sun AY, Morris AP, Mohanty S (2009) Sequential updating of multimodal hydrogeologic parameter fields using localization and clustering techniques. Water Resour Res 45(7):W07424Tahmasebi P, Hezarkhani A, Sahimi M (2012a) Multiple-point geostatistical modeling based on the cross-correlation functions. Comput Geosci 16(3):779–797Tahmasebi P, Sahimi M, Mariethoz G, Hezarkhani A (2012b) Accelerating geostatistical simulations using graphics processing units (GPU). Comput Geosci 46:51–59Wen X, Chen W (2006) Real-time reservoir model updating using ensemble Kalman filter with confirming option. SPE J 11(4):431–442Zhang T, Switzer P, Journel A (2006) Filter-based classification of training image patterns for spatial simulation. Math Geol 38(1):63–80Zhou H, Gómez-Hernández J, Hendricks Franssen H, Li L (2011) An approach to handling non-Gaussianity of parameters and state variables in ensemble Kalman filtering. Adv Water Resour 34(7):844–864Zhou H, Gómez-Hernández J, Li L (2012) A pattern-search-based inverse method. Water Resour Res 48(3):W0350

    Development of a Grade Control Technique Optimizing Dilution and Ore Loss Trade-off in Lateritic Bauxite Deposits

    Get PDF
    This thesis focusses on the development of new techniques to improve the resource estimation of laterite-type bauxite deposits. Contributions of the thesis include (1) a methodology to variogram-free modelling of the ore boundaries using multiple-point statistics, (2) an approach to automate the parameter tuning process for multiple-point statistical algorithms and (3) a grade control technique to minimise the economic losses due to dilution and ore loss

    ENHANCING INVERSE MODELING IN HYDROGEOLOGY WITH MODERN MACHINE LEARNING ALGORITHMS

    Get PDF
    Inverse estimation of spatially distributed parameter fields plays an important role in many scientific disciplines including hydrogeology, geophysics, earth science, environmental engineering, etc. Classic stochastic sampling approaches such as Markov Chain Monte Carlo (MCMC) and optimization approaches such as geostatistical approach (GA) can solve inverse problems with a modest number of unknowns. However, we may face challenges when it comes to large-scale, highly heterogeneous fields or fields with special characteristics, such as connected preferential paths. In this thesis, firstly, we develop a new data augmentation approach, i.e., fast conditional image quilting to synthesize realizations based on limited measurements; and this approach is later used to generate channelized training images to support the inverse modeling research study. Secondly, unlike MCMC and optimization approaches that require many forward model evaluations in each iteration, we develop two neural network inverse models on full dimensions (NNI) and principal components (NNPCI) to directly explore the inverse relationships between indirect measurements such as hydraulic heads and the underlying parameter fields such as hydraulic conductivity. We successfully apply our neural network models to large-scale hydraulic tomography experiments to estimate spatially distributed hydraulic conductivity. In particular, with the help of principal component analysis (PCA), the number of neurons in the last layer of NNPCI is the same as that of retained principal components, thus further accelerating the algorithm and making the system scalable regardless of large-scale unknown field parameters. NNI also demonstrates satisfactory inverse results on full dimensions for both Gaussian and non-Gaussian fields with channelized patterns. The major computational advantage for NNI and NNPCI is that the training data can be generated by independent forward model simulations that can be done efficiently using parallel computing. Finally, to account for errors from different sources, including input errors, model structure errors, model parameters errors, etc., we incorporate Bayesian theorem to the neural network models for uncertainty analysis. The system behaves more stably and consistently on varying spatial and temporal scales. The developed approaches are successfully validated with synthetic and field cases.Ph.D

    Modélisation multi-échelles de réservoir et calage d'historique de production

    Get PDF
    In this manuscript, we propose two multiscale algorithms for the simulation of geological reservoir models.The first algorithm is based on two-points statistics methods. It is based upon the sequential Gaussian simulation with a secondary variable. In our multiscale approach, the scale of the secondary variable is considered as a second scale of coarser resolution. It represents the trend or the average of the primary variable. In the context of history-matching, it can be shown that adjusting the properties of the geological model at the coarse scale is more effective than doing the same at the fine scale provided a suitable parameterization technique is used. Our method holds for both continuous and discrete variables. The second algorithm is rooted in texture synthesis techniques developed in computer graphics and modified to cope with reservoir simulation. This is a multipoint simulation algorithm. As such, it requires the use of a training image. It permits to simulates complex geological objects like channels or networks of fractures. However, as all multipoint algorithms, it requires significant computation times. We show how the introduction of an intermediate scale reduces the computation time and improves the reproduction of large structures. We also test two techniques to further reduce the computation time: the partial scan of the training image and the preliminary organization of the information extracted from this image.Dans cette thèse, nous proposons deux algorithmes multi-échelles pour la simulation de modèles géologiques de réservoir. Le premier algorithme relève des méthodes géostatistiques à deux points. Il s'agit d'une simulation séquentielle Gaussienne avec variable secondaire. Dans notre approche multi-échelle, la variable secondaire est supposée connue à une deuxième échelle, de résolution plus grossière. Elle représente alors la tendance ou moyenne de la variable principale. A partir d'une paramétrisation adéquate, on montre que le calage des propriétés du modèle géologique à l'échelle grossière est plus efficace que le calage de ces mêmes propriétés à l'échelle fine. Notre méthode est applicable aux variables continues et aux variables discrètes.Le deuxième algorithme est une adaptation d'un algorithme de synthèse de texture aux problèmes de réservoir. C'est un algorithme de simulation multipoints qui nécessite l'utilisation d'une image d'entrainement. Il permet de reproduire des objets géologiques de formes complexes comme des chenaux ou des réseaux de fractures. Comme tous les algorithmes multipoints, il requiert des temps de calcul important. Nous montrons alors comment l'introduction d'une échelle intermédiaire permet de diminuer ce temps de calcul et d'améliorer la reproduction des grandes structures. Nous testons deux techniques pour diminuer davantage encore le temps de calcul : le scan partiel de l'image d'entrainement ou l'organisation des informations extraites de cette même image

    Developing New High-Order Sequential Simulation Methods Based on Learning-Oriented Kernels

    Get PDF
    RÉSUMÉ: La quantification de l’incertitude joue un rôle essentiel dans la gestion du risque technique de l’exploitation durable des ressources naturelles. Les modèles de champs aléatoires sont utilisés pour modéliser les attributs naturels d’intérêt, parmi lesquels les attributs à différents endroits sont représentés comme des variables aléatoires comprenant une distribution de probabilité conjointe. Les statistiques spatiales, qui varient selon différents modèles de champs aléatoires, décrivent mathématiquement les structures spatiales. Les méthodes de simulation stochastique génèrent des réalisations multiples basées sur certains modèles de champs aléatoires afin de représenter les résultats possibles des attributs naturels considérés. Elles visent à reproduire les statistiques spatiales des données perçues, fournissant ainsi des outils utiles pour quantifier l’incertitude spatiale des attributs cibles. Dans le contexte des applications minières, la reproduction de structures spatiales, à partir des donnéeséchantillons, a un impact significatif sur la gestion des risques liés aux décisions de planification minière. Plus précisément, la valeur actualisée nette (VAN) d’un gisement minéral, compte tenu d’un calendrier de planification minière donné, dépend des revenus générés par les séquences d’extraction des matériaux souterrains, les flux de trésorerie étant actualisés en fonction des périodes d’exploitation. Les séquences d’extraction des matériaux, à leur tour, sont déterminées par la distribution spatiale des teneurs en métaux, en particulier la continuité spatiale des éléments métalliques enrichis. Les méthodes de simulation stochastique d’ordre élevé ne présupposent aucune distribution de probabilité spécifique sur les modèles de champs aléatoires, évitant ainsi les limites des modèles de champs aléatoires gaussiens traditionnels. De plus, ces méthodes tiennent compte des statistiques spatiales d’ordre élevé qui caractérisent les interactions statistiques entre les attributs aléatoires en de multiples endroits et elles ont donc l’avantage de reproduire des structures spatiales complexes. Par conséquent, cette thèse développe de nouvelles méthodes de simulation stochastique d’ordre élevé basées sur un cadre proposé d’apprentissage statistique et de noyaux orientés sur l’apprentissage, visant à faire progresser les aspects théoriques des méthodes de simulation stochastique ainsi que les aspects pratiques des décisions minières sous incertitude. Le paradigme général de la simulation séquentielle est adopté dans cette thèse afin de générer des réalisations à partir de modèles de champs aléatoires, ce qui décompose les distributions de probabilités conjointes en une séquence de distributions de probabilités conditionnelles. La méthode originale de simulation d’ordre élevé utilise la série d’expansions du polynôme de Legendre pour l’approximation des distributions de probabilités conjointes des champs aléatoires. Les coefficients de la série d’expansion du polynôme sont dérivés du calcul de ce que l’on appelle les cumulants spatiaux qui doivent être stockés dans une structure arborescente en mémoire et certains termes de la série du polynôme sont abandonnés compte tenu de la complexité du calcul. À titre de première contribution, un nouveau modèle de calcul de simulation d’ordre élevé est ici proposé, évitant le calcul explicite des cumulants spatiaux et le stockage des résultats calculés. Une fonction unifiée est dérivée comme une forme d’équivalence à la série d’expansions du polynôme de Legendre sans abandonner aucun terme, tout en simplifiant les calculs en temps polynomial. La méthode de simulation proposée conduit à un algorithme récursif de dérivation de la distribution de probabilités conditionnelles. À titre de deuxième contribution, une nouvelle fonction du noyau, ce qu’on appelle le noyau spatial du moment de Legendre, est proposée pour intégrer des statistiques spatiales d’ordre élevé des données originales dans le nouvel espace du noyau. Un cadre d’apprentissage statistique est proposé pour découvrir la distribution de probabilité cible du champ aléatoire en la faisant correspondre aux statistiques spatiales d’ordre élevé observées dans les données disponibles grâce à un algorithme à noyau. Le nouveau cadre d’apprentissage statistique pour la simulation d’ordre élevé a la capacité de généralisation nécessaire pour atténuer les conflits statistiques entre les données-échantillons et l’image d’entraînement, comme le confirment les études de cas avec des données synthétiques. Un gisement d’or tridimensionnel est réalisé pour montrer ses aspects pratiques dans une mine réelle, en démontrant la reproduction de statistiques spatiales d’ordre élevé à partir des données-échantillons de forage. Pour éviter l’impact d’éventuels conflits statistiques avec les données-échantillons en utilisant une image d’entraînement, une méthode de simulation d’ordre élevé sans image d’entraînement est développée en se basant sur le cadre d’apprentissage statistique ci-dessus. Une nouvelle approche d’agrégation de noyaux est proposée afin de permettre la découverte de données éparses. Les événements de données, comme les données de conditionnement, correspondent aux valeurs d’attribut associées aux modèles spatiaux de diverses configurations géométriques. L’agrégation de noyaux combine l’ensemble des éléments dans différents sousespaces du noyau pour l’inférence statistique, en utilisant efficacement les informations incomplètes des répliques qui correspondent partiellement au modèle spatial d’un événement de données spécifique. L’étude de cas montre une bonne reproduction des statistiques spatiales d’ordre élevé des données-échantillons sans utiliser les images d’entraînement. Notre dernière contribution vise à atteindre la distribution de probabilité cible des modèles de champs aléatoires en apprenant des informations spatiales d’ordre élevé provenant de différentes sources à différentes échelles. Plus précisément, l’agrégation de noyaux est proposée pour incorporer les statistiques spatiales d’ordre élevé à une échelle grossière à partir des données-échantillons et pour compléter les statistiques spatiales d’ordre élevé à petite échelle à partir de l’image d’entraînement. De plus, un logiciel est développé et décrit pour faciliter les applications. Des études de cas, dans un gisement d’or et avec un ensemble de données synthétique, sont menées respectivement afin de tester la méthode et le programme développé.----------ABSTRACT:Uncertainty quantification plays a vital role in managing the technical risk of the sustainable exploitation of natural resources. Random field models are utilized to model the natural attributes of interest, within which the attributes at different locations are represented as random variables comprising a joint probability distribution. Spatial statistics, varied with different random field models, mathematically describe the spatial patterns. Stochastic simulation methods generate multiple realizations based on certain random field models to represent the possible outcomes of natural attributes under consideration. They aim to reproduce spatial statistics of the perceived data, thus providing useful tools to quantify the spatial uncertainty of the target attributes. In the context of mining applications, reproducing spatial patterns from the sample data has a significant impact on managing the risks of mine planning decisions. Specifically, the net present value (NPV) regarding a certain mine planning schedule of a mineral deposit depends on the revenue generated by the extraction sequences of the underground materials, as the cash flows are discounted by the mining periods. The extraction sequences of the materials, in turn, are driven by the spatial distributions of metal grades, especially the spatial continuity of enriched metal elements. High-order stochastic simulation methods make no assumption of any specific probability distribution on the random field models, avoiding the limitation of traditional Gaussian random field models. In addition, the methods account for the high-order spatial statistics that characterize the statistical interactions among random attributes at multiple locations and thus have the advantage of reproducing complex spatial patterns. Therefore, this thesis develops new high-order stochastic simulation methods based on a proposed framework of statistical learning and learning-oriented kernels, aiming to advance the theoretical aspects of the stochastic simulation methods, as well as the practical aspects of mining decisions under uncertainty. The general paradigm of sequential simulation is adopted in this thesis to generate realizations from the random field models, which decomposes the joint probability distributions into a sequence of conditional probability distributions. The original high-order simulation method uses the Legendre polynomial expansion series for the approximation of the joint probability distributions of the random fields. The coefficients of the polynomial expansion series are derived from the computation of so-called spatial cumulants, which have to be stored in a tree structure in memory. In addition, some terms from the polynomial series are dropped considering the computational complexity. As a first contribution, a new computational model of high-order simulation is proposed herein,which avoids the explicit computation of spatial cumulants and the storage of the computed results. A unified function is derived as the equivalency form to the Legendre polynomial expansion series without dropping out any terms, while simplifying the computations to polynomial time. The proposed simulation method leads to a recursive algorithm of deriving the conditional probability distribution. As a second contribution, a new kernel function, the so-termed spatial Legendre moment kernel, is proposed to embed high-order spatial statistics of the original data into the new kernel space. A statistical learning framework is proposed to learn the target probability distribution of the random field by matching the expected high-order spatial statistics with regard to the target distribution to the observed high-order spatial statistics of the available data through a kernelized algorithm. The new statistical learning framework for high-order simulation has the generalization capacity to mitigate the statistical conflicts between the sample data and the training image, as confirmed by the case studies with a synthetic data set. Case study at a three-dimensional gold deposit shows the practical aspects of the proposed method in a real-life mine, demonstrating the reproduction of high-order spatial statistics from the drill-hole sample data. To avoid the impact of potential statistical conflicts with the sample data by using a training image, a training-image free high-order simulation method is developed based on the above statistical learning framework. A new concept of aggregated kernel statistics is proposed to enable sparse data learning. The data events, as the conditioning data, correspond to the attribute values associated with the so-called spatial templates of various geometric configurations. The aggregated kernel statistics combine the ensemble of the elements in different kernel subspaces for statistical inference, efficiently utilizing the incomplete information from the replicates, which partially match to the spatial template of a given data event. The case study shows an effective reproduction of the high-order spatial statistics of the sample data without using the TI. Our last contribution aims to achieve the target probability distributions of the random field models by learning high-order spatial information from different sources at multiple scales. Specifically, the aggregated kernel statistics is proposed to incorporate the high-order spatial statistics at coarse-scale from the sample data and to complement the high-order spatial statistics at fine-scale from the TI. In addition, a software is developed and described to facilitate the applications. Case studies with a synthetic data set and at a gold deposit are conducted respectively to test the method and the developed program

    Handbook of Mathematical Geosciences

    Get PDF
    This Open Access handbook published at the IAMG's 50th anniversary, presents a compilation of invited path-breaking research contributions by award-winning geoscientists who have been instrumental in shaping the IAMG. It contains 45 chapters that are categorized broadly into five parts (i) theory, (ii) general applications, (iii) exploration and resource estimation, (iv) reviews, and (v) reminiscences covering related topics like mathematical geosciences, mathematical morphology, geostatistics, fractals and multifractals, spatial statistics, multipoint geostatistics, compositional data analysis, informatics, geocomputation, numerical methods, and chaos theory in the geosciences
    corecore