2,526 research outputs found

    Advances and Applications of DSmT for Information Fusion. Collected Works, Volume 5

    Get PDF
    This fifth volume on Advances and Applications of DSmT for Information Fusion collects theoretical and applied contributions of researchers working in different fields of applications and in mathematics, and is available in open-access. The collected contributions of this volume have either been published or presented after disseminating the fourth volume in 2015 in international conferences, seminars, workshops and journals, or they are new. The contributions of each part of this volume are chronologically ordered. First Part of this book presents some theoretical advances on DSmT, dealing mainly with modified Proportional Conflict Redistribution Rules (PCR) of combination with degree of intersection, coarsening techniques, interval calculus for PCR thanks to set inversion via interval analysis (SIVIA), rough set classifiers, canonical decomposition of dichotomous belief functions, fast PCR fusion, fast inter-criteria analysis with PCR, and improved PCR5 and PCR6 rules preserving the (quasi-)neutrality of (quasi-)vacuous belief assignment in the fusion of sources of evidence with their Matlab codes. Because more applications of DSmT have emerged in the past years since the apparition of the fourth book of DSmT in 2015, the second part of this volume is about selected applications of DSmT mainly in building change detection, object recognition, quality of data association in tracking, perception in robotics, risk assessment for torrent protection and multi-criteria decision-making, multi-modal image fusion, coarsening techniques, recommender system, levee characterization and assessment, human heading perception, trust assessment, robotics, biometrics, failure detection, GPS systems, inter-criteria analysis, group decision, human activity recognition, storm prediction, data association for autonomous vehicles, identification of maritime vessels, fusion of support vector machines (SVM), Silx-Furtif RUST code library for information fusion including PCR rules, and network for ship classification. Finally, the third part presents interesting contributions related to belief functions in general published or presented along the years since 2015. These contributions are related with decision-making under uncertainty, belief approximations, probability transformations, new distances between belief functions, non-classical multi-criteria decision-making problems with belief functions, generalization of Bayes theorem, image processing, data association, entropy and cross-entropy measures, fuzzy evidence numbers, negator of belief mass, human activity recognition, information fusion for breast cancer therapy, imbalanced data classification, and hybrid techniques mixing deep learning with belief functions as well

    Beam scanning by liquid-crystal biasing in a modified SIW structure

    Get PDF
    A fixed-frequency beam-scanning 1D antenna based on Liquid Crystals (LCs) is designed for application in 2D scanning with lateral alignment. The 2D array environment imposes full decoupling of adjacent 1D antennas, which often conflicts with the LC requirement of DC biasing: the proposed design accommodates both. The LC medium is placed inside a Substrate Integrated Waveguide (SIW) modified to work as a Groove Gap Waveguide, with radiating slots etched on the upper broad wall, that radiates as a Leaky-Wave Antenna (LWA). This allows effective application of the DC bias voltage needed for tuning the LCs. At the same time, the RF field remains laterally confined, enabling the possibility to lay several antennas in parallel and achieve 2D beam scanning. The design is validated by simulation employing the actual properties of a commercial LC medium

    Data-driven deep-learning methods for the accelerated simulation of Eulerian fluid dynamics

    Get PDF
    Deep-learning (DL) methods for the fast inference of the temporal evolution of fluid-dynamics systems, based on the previous recognition of features underlying large sets of fluid-dynamics data, have been studied. Specifically, models based on convolution neural networks (CNNs) and graph neural networks (GNNs) were proposed and discussed. A U-Net, a popular fully-convolutional architecture, was trained to infer wave dynamics on liquid surfaces surrounded by walls, given as input the system state at previous time-points. A term for penalising the error of the spatial derivatives was added to the loss function, which resulted in a suppression of spurious oscillations and a more accurate location and length of the predicted wavefronts. This model proved to accurately generalise to complex wall geometries not seen during training. As opposed to the image data-structures processed by CNNs, graphs offer higher freedom on how data is organised and processed. This motivated the use of graphs to represent the state of fluid-dynamic systems discretised by unstructured sets of nodes, and GNNs to process such graphs. Graphs have enabled more accurate representations of curvilinear geometries and higher resolution placement exclusively in areas where physics is more challenging to resolve. Two novel GNN architectures were designed for fluid-dynamics inference: the MuS-GNN, a multi-scale GNN, and the REMuS-GNN, a rotation-equivariant multi-scale GNN. Both architectures work by repeatedly passing messages from each node to its nearest nodes in the graph. Additionally, lower-resolutions graphs, with a reduced number of nodes, are defined from the original graph, and messages are also passed from finer to coarser graphs and vice-versa. The low-resolution graphs allowed for efficiently capturing physics encompassing a range of lengthscales. Advection and fluid flow, modelled by the incompressible Navier-Stokes equations, were the two types of problems used to assess the proposed GNNs. Whereas a single-scale GNN was sufficient to achieve high generalisation accuracy in advection simulations, flow simulation highly benefited from an increasing number of low-resolution graphs. The generalisation and long-term accuracy of these simulations were further improved by the REMuS-GNN architecture, which processes the system state independently of the orientation of the coordinate system thanks to a rotation-invariant representation and carefully designed components. To the best of the author’s knowledge, the REMuS-GNN architecture was the first rotation-equivariant and multi-scale GNN. The simulations were accelerated between one (in a CPU) and three (in a GPU) orders of magnitude with respect to a CPU-based numerical solver. Additionally, the parallelisation of multi-scale GNNs resulted in a close-to-linear speedup with the number of CPU cores or GPUs.Open Acces

    A computational framework for crack propagation along contact interfaces and surfaces under load

    Get PDF
    We present the first implicit computational framework for simulating crack propagation along contact interfaces and surfaces under load in three-dimensional bodies, which is distinct from modelling the contact interaction associated with crack closure. We restrict ourselves to brittle fracture and frictionless contact and focus on numerical challenges associated with the coupling of unilateral constraints emerging from the Griffith’s criterion and the contact conditions. The formulation is based on the configurational mechanics framework and is solved using the finite element method. The approach utilises a monolithic Arbitrary Lagrangian–Eulerian formulation permitting simultaneous resolution of crack propagation and unilateral contact constraints. Contact is embedded in the model using the well-known mortar contact formulation. Evolving cracks are explicitly modelled as displacement discontinuities within the mesh. Heterogeneous approximation of arbitrary order is used to discretise spatial displacements, enabling -adaptive refinement around the crack front and the contact interfaces traversed by the crack. The result is a holistic approach which handles issues associated with thermodynamic consistency, numerical accuracy and robustness of the computational scheme. Several numerical examples are presented to verify the model formulation and implementation; they also highlight how contact pressure and load applied on surfaces traversed by cracks influence their propagation. The robustness of the approach is validated by comparison of our simulations with existing numerical results and an industrial experiment involving cracks of complex morphologies propagating along contact interfaces between multiple deformable bodies

    Surface-Based tools for Characterizing the Human Brain Cortical Morphology

    Get PDF
    Tesis por compendio de publicacionesThe cortex of the human brain is highly convoluted. These characteristic convolutions present advantages over lissencephalic brains. For instance, gyrification allows an expansion of cortical surface area without significantly increasing the cranial volume, thus facilitating the pass of the head through the birth channel. Studying the human brain’s cortical morphology and the processes leading to the cortical folds has been critical for an increased understanding of the pathological processes driving psychiatric disorders such as schizophrenia, bipolar disorders, autism, or major depression. Furthermore, charting the normal developmental changes in cortical morphology during adolescence or aging can be of great importance for detecting deviances that may be precursors for pathology. However, the exact mechanisms that push cortical folding remain largely unknown. The accurate characterization of the neurodevelopment processes is challenging. Multiple mechanisms co-occur at a molecular or cellular level and can only be studied through the analysis of ex-vivo samples, usually of animal models. Magnetic Resonance Imaging can partially fill the breach, allowing the portrayal of the macroscopic processes surfacing on in-vivo samples. Different metrics have been defined to measure cortical structure to describe the brain’s morphological changes and infer the associated microstructural events. Metrics such as cortical thickness, surface area, or cortical volume help establish a relation between the measured voxels on a magnetic resonance image and the underlying biological processes. However, the existing methods present limitations or room for improvement. Methods extracting the lines representing the gyral and sulcal morphology tend to over- or underestimate the total length. These lines can provide important information about how sulcal and gyral regions function differently due to their distinctive ontogenesis. Nevertheless, some methods label every small fold on the cortical surface as a sulcal fundus, thus losing the perspective of lines that travel through the deeper zones of a sulcal basin. On the other hand, some methods are too restrictive, labeling sulcal fundi only for a bunch of primary folds. To overcome this issue, we have proposed a Laplacian-collapse-based algorithm that can delineate the lines traversing the top regions of the gyri and the fundi of the sulci avoiding anastomotic sulci. For this, the cortex, represented as a 3D surface, is segmented into gyral and sulcal surfaces attending to the curvature and depth at every point of the mesh. Each resulting surface is spatially filtered, smoothing the boundaries. Then, a Laplacian-collapse-based algorithm is applied to obtain a thinned representation of the morphology of each structure. These thin curves are processed to detect where the extremities or endpoints lie. Finally, sulcal fundi and gyral crown lines are obtained by eroding the surfaces while preserving the structure topology and connectivity between the endpoints. The assessment of the presented algorithm showed that the labeled sulcal lines were close to the proposed ground truth length values while crossing through the deeper (and more curved) regions. The tool also obtained reproducibility scores better or similar to those of previous algorithms. A second limitation of the existing metrics concerns the measurement of sulcal width. This metric, understood as the physical distance between the points on opposite sulcal banks, can come in handy in detecting cortical flattening or complementing the information provided by cortical thickness, gyrification index, or such features. Nevertheless, existing methods only provided averaged measurements for different predefined sulcal regions, greatly restricting the possibilities of sulcal width and ignoring the intra-region variability. Regarding this, we developed a method that estimates the distance from each sulcal point in the cortex to its corresponding opposite, thus providing a per-vertex map of the physical sulcal distances. For this, the cortical surface is sampled at different depth levels, detecting the points where the sulcal banks change. The points corresponding to each sulcal wall are matched with the closest point on a different one. The distance between those points is the sulcal width. The algorithm was validated against a simulated sulcus that resembles a simple fold. Then the tool was used on a real dataset and compared against two widely-used sulcal width estimation methods, averaging the proposed algorithm’s values into the same region definition those reference tools use. The resulting values were similar for the proposed and the reference methods, thus demonstrating the algorithm’s accuracy. Finally, both algorithms were tested on a real aging population dataset to prove the methods’ potential in a use-case scenario. The main idea was to elucidate fine-grained morphological changes in the human cortex with aging by conducting three analyses: a comparison of the age-dependencies of cortical thickness in gyral and sulcal lines, an analysis of how the sulcal and gyral length changes with age, and a vertex-wise study of sulcal width and cortical thickness. These analyses showed a general flattening of the cortex with aging, with interesting findings such as a differential age-dependency of thickness thinning in the sulcal and gyral regions. By demonstrating that our method can detect this difference, our results can pave the way for future in vivo studies focusing on macro- and microscopic changes specific to gyri or sulci. Our method can generate new brain-based biomarkers specific to sulci and gyri, and these can be used on large samples to establish normative models to which patients can be compared. In parallel, the vertex-wise analyses show that sulcal width is very sensitive to changes during aging, independent of cortical thickness. This corroborates the concept of sulcal width as a metric that explains, in the least, the unique variance of morphology not fully captured by existing metrics. Our method allows for sulcal width vertex-wise analyses that were not possible previously, potentially changing our understanding of how changes in sulcal width shape cortical morphology. In conclusion, this thesis presents two new tools, open source and publicly available, for estimating cortical surface-based morphometrics. The methods have been validated and assessed against existing algorithms. They have also been tested on a real dataset, providing new, exciting insights into cortical morphology and showing their potential for defining innovative biomarkers.Programa de Doctorado en Ciencia y Tecnología Biomédica por la Universidad Carlos III de MadridPresidente: Juan Domingo Gispert López.- Secretario: Norberto Malpica González de Vega.- Vocal: Gemma Cristina Monté Rubi

    Drift-diffusion models for innovative semiconductor devices and their numerical solution

    Get PDF
    We present charge transport models for novel semiconductor devices which may include ionic species as well as their thermodynamically consistent finite volume discretization

    Samplet basis pursuit

    Full text link
    We consider kernel-based learning in samplet coordinates with l1-regularization. The application of an l1-regularization term enforces sparsity of the coefficients with respect to the samplet basis. Therefore, we call this approach samplet basis pursuit. Samplets are wavelet-type signed measures, which are tailored to scattered data. They provide similar properties as wavelets in terms of localization, multiresolution analysis, and data compression. The class of signals that can sparsely be represented in a samplet basis is considerably larger than the class of signals which exhibit a sparse representation in the single-scale basis. In particular, every signal that can be represented by the superposition of only a few features of the canonical feature map is also sparse in samplet coordinates. We propose the efficient solution of the problem under consideration by combining soft-shrinkage with the semi-smooth Newton method and compare the approach to the fast iterative shrinkage thresholding algorithm. We present numerical benchmarks as well as applications to surface reconstruction from noisy data and to the reconstruction of temperature data using a dictionary of multiple kernels

    Caractérisation minéralogique quantitative automatisée en microscopie optique et applications à l’étude de minerais dans le cadre d’une approche géométallurgique.

    Get PDF
    La caractérisation minéralogique est essentielle pour la caractérisation des différents produits d’un gisement (lithologie, minerai, stérile, résidu, etc.). Elle peut procurer énormément d’informations pertinentes pour les différents aspects de la mine (exploration, traitement minéral, gestion environnementale des rejets miniers). Cependant, la caractérisation minéralogique souffre aujourd’hui d’une réputation à la fois longue, fastidieuse et couteuse de la part de l’industrie minière. Cette industrie s’est ainsi vue progressivement abandonner l’approche minéralogique pour la caractérisation de leurs gisements. Avec les nouveaux défis technico-économiques apparaissant au sein des gisements (teneurs de plus en plus faibles, extraction de plus en plus profonde, gestion intégrée des rejets miniers et valorisation de nouveaux types de gisement), une nouvelle approche géométallurgique s’est alors développée dans l’industrie. Cette nouvelle vision de la mine consiste à intégrer les variabilités, notamment minéralogiques, des gisements afin de l’intégrer le plus en amont possible dans le développement du projet minier. Le but est de quitter l’approche en silo qu’effectue l’industrie pour permettre plus de communication entre les différents départements d’une mine (exploration, ingénierie, production, environnement) et ainsi permettre une optimisation technico-économique de l’exploitation tout en réduisant les risques techniques et opérationnels. Il s’avère que la caractérisation minéralogique est redevenue une caractérisation indispensable pour cette nouvelle vision géométallurgique de la mine, notamment parce qu’elle peut constituer un langage commun entre les différents départements de la mine. La caractérisation minéralogique permet effectivement de fournir des quantifications de paramètres, notamment de texture (comprenant la granulo-minéralogie, degré de libération/d’exposition et association), sur les différents produits de la mine qui constituent très souvent les variables critiques régissant la modélisation géométallurgique d’un gisement. La géométallurgie met ainsi en avant la pertinence des outils de caractérisations minéralogiques automatisées de type microscope électronique à balayage associé à la spectroscopie en énergie dispersive (MEB-EDS), comme le système QEMSCAN®. Cependant, ces outils, bien que récemment démocratisés, restent encore très dispendieux et contraignants pour l’industrie minière. De plus, ils nécessitent une expertise poussée pour leur utilisation au quotidien au sein de la mine. Par conséquent, la caractérisation minéralogique automatisée reste encore relativement anecdotique au sein des différentes opérations de développement d’une exploitation minière, alors qu’elle reste très souvent indispensable pour l’approche géométallurgique de la mine. Le microscope optique automatisée (MOA) représente quant à lui un outil alternatif plus accessible financièrement que les systèmes types MEB-EDS et permet une caractérisation des minéraux opaques très souvent valorisables (sulfures, oxydes, éléments natifs, alliages) moins contraignante, nécessitant une expertise moins poussée que son homologue électronique. C’est dans ce contexte que les travaux de cette présente thèse se sont développés. L’objectif général a ainsi été de développer et d’améliorer des approches et techniques de caractérisation minéralogique abordables, fiables et précises via l’outil de MOA. Le but était de proposer une caractérisation minéralogique automatisée plus accessible pour l’industrie minière, selon une approche géométallurgique. Cette présente thèse s’est ainsi construite autour de trois axes de recherche : le développement de protocoles de préparations de section polie représentatifs, l’amélioration de techniques d’imagerie optique sous MOA et l’étude comparative et cas d’applications en contexte géométallurgique de l’outil afin de prouver sa fiabilité et sa pertinence. Une nouvelle méthode d’échantillonnage a ainsi été développée afin de décider du nombre approprié de sections polies qui doivent être préparées en fonction de la classe granulométrique considérée. Le but est d’obtenir une représentativité suffisante pour les analyses de minéralogie automatisée. Pour illustrer cette méthode, deux protocoles d'échantillonnage (sous forme de grain à des fins de caractérisation texturales et sous forme de poudre) d'un minerai sulfuré typique théorique, incluant une préparation granulométrique (sizing), sont présentés. Une nouvelle méthode de calcul de la variance de l'erreur fondamentale liée à l'échantillonnage a ainsi été proposée. Ces protocoles d'échantillonnage sont une adaptation de la ligne de sécurité dérivée de la théorie d'échantillonnage de Pierre Gy et sont à ajuster en fonction de la connaissance des propriétés intrinsèques du matériau considéré. La méthode peut être très utile pour mieux anticiper le manque de représentativité des données minéralogiques fournies par les outils de minéralogie automatisé liées à la préparation d’échantillonnage. Au cours de ces travaux de doctorat, une nouvelle résine a été aussi découverte pour la préparation de section polie : la résine acrylique. Cette nouvelle résine a été comparée aux autres résines communément utilisées pour la préparation de section polie : la résine époxy et la résine dite carbon black (assimilé à la résine époxy mélangé avec du graphite). Cette comparaison a compris des mesures rhéologiques ainsi que des analyses par MOA. L’objectif a été de vérifier si une composition minéralogique fiable et sans biais est possible sous MOA avec cette nouvelle résine, attestant que les particules minérales n’ont pas subi une ségrégation préférentielle au sein de la section polie. Pour ce faire, des mélanges de poudres minérales standard ont été préparées en utilisant différents minéraux opaques purs à une fraction granulométrique calibrée entre 25 et 75 μm. Les résultats indiquent que le comportement rhéologique de la résine acrylique à durcissement rapide permet d'obtenir une composition minérale précise tout en évitant toute sédimentation préférentielle des particules par rapport aux autres résines étudiées. La caractérisation minéralogique automatisée nécessite d’obtenir des résultats de quantification non biaisés. Cependant, le MOA ne permet pas de détecter les minéraux transparents (ou de gangue) lors d'une analyse par microscopie optique en lumière réfléchie, car les réflectances de la résine et des minéraux de gangue sont très proches. De nouveaux travaux se sont alors concentrés à proposer une nouvelle méthode innovante pour détecter automatiquement toutes les particules minérales (y compris les particules transparentes) sur une section polie en résine acrylique par imagerie optique réfléchie en utilisant un algorithme d'apprentissage profond (deep learning). Pour ce faire, plusieurs poudres de minerai et de mélanges de standards de minéraux ont été montées en sections polies avec résine acrylique à deux tailles de particules différentes : < 1mm et P80~75 μm. Un maximum d'images optiques a été acquis avec un MOA sur ces sections polies pour entraîner et tester l'algorithme d'apprentissage profond à détecter les particules minérales. Les résultats montrent que l'algorithme d'apprentissage profond détecte facilement toutes les particules minérales dans le motif bullé caractéristique de la matrice de la résine acrylique, ce qui permet de bien différencier les minéraux de gangue sous microscopie optique réfléchie pour la détermination de la composition modale fiable des échantillons étudiés. De plus, les travaux ont pu permettre le développement de l’imagerie hyperspectrale optique afin de permettre une identification minéralogique plus efficace en MOA comparé à ce que proposent les systèmes actuels utilisant l’analyse multispectrale. La synchronisation entre une caméra hyperspectrale et un système de MOA a pu permettre l’acquisition linéaire de cubes hyperspectraux sur différents minéraux opaques. À l’aide de ces mesures brutes hyperspectrales, une base de données de réflectances hyperspectrales a pu être établie. À partir de cette base de données, une procédure supervisée de classification a été exécutée sur différents cubes hyperspectraux issus de l’analyse sur différents échantillons de minerais et standards minéralogiques (mise en section polie) par le dispositif expérimental. La procédure consistait à extraire des images monochromatiques à des longueurs d’onde judicieusement choisies sur ces cubes hyperspectraux bruts afin d’y exécuter des analyses d’images basiques associées à une méthode de classification booléenne pour obtenir des images classifiées minéralogiquement. Les résultats indiquent que cette procédure basique permet une classification minéralogique des images optiques propres et efficaces à partir de mesures hyperspectrales optiques. Les travaux de ce présent doctorat se sont ensuite focalisés sur différentes études comparatives et études de cas d’applications en contexte géométallurgique de la MOA, des études encore manquantes dans le domaine. Le projet Dumont Nickel a ainsi été particulièrement étudié, notamment parce que le gisement nécessite une approche géométallurgique du fait de sa métallogénie particulière. Le défi de développement d’un projet tel que Dumont Nickel consiste à pouvoir quantifier le nickel dit métallurgiquement récupérable à l’aide d’une méthode de quantification minéralogique abordable. Ces travaux proposent de pouvoir quantifier la minéralogie des minerais du gisement pour les futures opérations minières en utilisant le MOA. L’objectif a été de caractériser quatre échantillons de minerais représentatifs des quatre domaines géométallurgiques du gisement par MOA. Ces résultats ont été comparés aux données de quantification minéralogique existantes pour les mêmes échantillons acquis par QEMSCAN®. Les résultats de quantifications minéralogiques obtenus avec les deux techniques ont été comparés en mettant l'accent sur la distribution minéralogique du nickel dans les minéraux opaques. Cette étude comparative prouve l'efficacité de la MOA à des fins de quantification minéralogique telle qu'appliquée aux échantillons étudiés du projet Dumont Nickel. Cette procédure de quantification minéralogique des minéraux opaques a été ensuite poursuivie sur 12 autres échantillons du gisement. Le but a été de vérifier si le MOA attribue les mêmes domaines géométallurgiques que les analyses QEMSCAN® sur ces mêmes échantillons, selon la quantification des minéraux opaques qu’il permet. Les résultats montrent que le MOA est une alternative fiable au QEMSCAN® et peut être utilisé pour l'attribution de domaine pour le projet Dumont Nickel. Néanmoins, ces études comparatives en contexte géométallurgique ont permis de mettre en exergue les limites du système de MOA utilisé au cours du doctorat. Ces limites sont l’impossibilité pour le système de pouvoir détecter les particules transparentes (limite qui a fait l’objet de travaux au cours du doctorat) et de pouvoir les identifier, mais aussi d’autres limites de l’analyse multispectrale optique que propose le système (aberration chromatique). Une troisième étude comparative sur les différents concentrés de flottations du concentrateur LaRonde a aussi pu prouver que le système de MOA utilisé donne des résultats de quantification minéralogique proche du système QEMSCAN®. Cette dernière étude a aussi mis un avant une des limites de l’analyse multispectrale du système : le phénomène d’effet de bordure, expliquant les différences de quantification obtenue entre les deux techniques homologues. Enfin, afin de répondre aux manques d’études de cas d’applications de la MOA, le doctorat a recommandé plusieurs méthodologies d’intégration de la MOA à des fins géométallurgiques dans un contexte général d'un gisement de sulfure polymétallique/aurifère. Les principales étapes des projets miniers (exploration/géologie, faisabilité/programme géométallurgique, exploitation/production et gestion des rejets miniers) ont été utilisées pour illustrer les différentes méthodes proposées. La MOA permet ainsi d'obtenir des données minéralogiques pertinentes dès les premières étapes d'un projet minier et d'intégrer la minéralogie opérationnelle dans les processus de développement d’un circuit de traitement. De nombreux exemples illustrant la quantification minéralogique par MOA ont ainsi été fournis pour chaque étape du cycle minier, ce qui permet d'étayer la définition de différents domaines géométallurgique et géoenvironnementale d'un gisement

    TriMe++: Multi-threaded triangular meshing in two dimensions

    Full text link
    We present TriMe++, a multi-threaded software library designed for generating two-dimensional meshes for intricate geometric shapes using the Delaunay triangulation. Multi-threaded parallel computing is implemented throughout the meshing procedure, making it suitable for fast generation of large-scale meshes. Three iterative meshing algorithms are implemented: the DistMesh algorithm, the centroidal Voronoi diagram meshing, and a hybrid of the two. We compare the performance of the three meshing methods in TriMe++, and show that the hybrid method retains the advantages of the other two. The software library achieves significant parallel speedup when generating a large mesh with 10610^6 points. TriMe++ can handle complicated geometries and generates adaptive meshes of high quality
    corecore