639 research outputs found

    T-spline based unifying registration procedure for free-form surface workpieces in intelligent CMM

    Get PDF
    With the development of the modern manufacturing industry, the free-form surface is widely used in various fields, and the automatic detection of a free-form surface is an important function of future intelligent three-coordinate measuring machines (CMMs). To improve the intelligence of CMMs, a new visual system is designed based on the characteristics of CMMs. A unified model of the free-form surface is proposed based on T-splines. A discretization method of the T-spline surface formula model is proposed. Under this discretization, the position and orientation of the workpiece would be recognized by point cloud registration. A high accuracy evaluation method is proposed between the measured point cloud and the T-spline surface formula. The experimental results demonstrate that the proposed method has the potential to realize the automatic detection of different free-form surfaces and improve the intelligence of CMMs

    Advances in Artificial Intelligence: Models, Optimization, and Machine Learning

    Get PDF
    The present book contains all the articles accepted and published in the Special Issue “Advances in Artificial Intelligence: Models, Optimization, and Machine Learning” of the MDPI Mathematics journal, which covers a wide range of topics connected to the theory and applications of artificial intelligence and its subfields. These topics include, among others, deep learning and classic machine learning algorithms, neural modelling, architectures and learning algorithms, biologically inspired optimization algorithms, algorithms for autonomous driving, probabilistic models and Bayesian reasoning, intelligent agents and multiagent systems. We hope that the scientific results presented in this book will serve as valuable sources of documentation and inspiration for anyone willing to pursue research in artificial intelligence, machine learning and their widespread applications

    Automating the Reconstruction of Neuron Morphological Models: the Rivulet Algorithm Suite

    Get PDF
    The automatic reconstruction of single neuron cells is essential to enable large-scale data-driven investigations in computational neuroscience. The problem remains an open challenge due to various imaging artefacts that are caused by the fundamental limits of light microscopic imaging. Few previous methods were able to generate satisfactory neuron reconstruction models automatically without human intervention. The manual tracing of neuron models is labour heavy and time-consuming, making the collection of large-scale neuron morphology database one of the major bottlenecks in morphological neuroscience. This thesis presents a suite of algorithms that are developed to target the challenge of automatically reconstructing neuron morphological models with minimum human intervention. We first propose the Rivulet algorithm that iteratively backtracks the neuron fibres from the termini points back to the soma centre. By refining many details of the Rivulet algorithm, we later propose the Rivulet2 algorithm which not only eliminates a few hyper-parameters but also improves the robustness against noisy images. A soma surface reconstruction method was also proposed to make the neuron models biologically plausible around the soma body. The tracing algorithms, including Rivulet and Rivulet2, normally need one or more hyper-parameters for segmenting the neuron body out of the noisy background. To make this pipeline fully automatic, we propose to use 2.5D neural network to train a model to enhance the curvilinear structures of the neuron fibres. The trained neural networks can quickly highlight the fibres of interests and suppress the noise points in the background for the neuron tracing algorithms. We evaluated the proposed methods in the data released by both the DIADEM and the BigNeuron challenge. The experimental results show that our proposed tracing algorithms achieve the state-of-the-art results

    Machine learning-based automated segmentation with a feedback loop for 3D synchrotron micro-CT

    Get PDF
    Die Entwicklung von Synchrotronlichtquellen der dritten Generation hat die Grundlage für die Untersuchung der 3D-Struktur opaker Proben mit einer Auflösung im Mikrometerbereich und höher geschaffen. Dies führte zur Entwicklung der Röntgen-Synchrotron-Mikro-Computertomographie, welche die Schaffung von Bildgebungseinrichtungen zur Untersuchung von Proben verschiedenster Art förderte, z.B. von Modellorganismen, um die Physiologie komplexer lebender Systeme besser zu verstehen. Die Entwicklung moderner Steuerungssysteme und Robotik ermöglichte die vollständige Automatisierung der Röntgenbildgebungsexperimente und die Kalibrierung der Parameter des Versuchsaufbaus während des Betriebs. Die Weiterentwicklung der digitalen Detektorsysteme führte zu Verbesserungen der Auflösung, des Dynamikbereichs, der Empfindlichkeit und anderer wesentlicher Eigenschaften. Diese Verbesserungen führten zu einer beträchtlichen Steigerung des Durchsatzes des Bildgebungsprozesses, aber auf der anderen Seite begannen die Experimente eine wesentlich größere Datenmenge von bis zu Dutzenden von Terabyte zu generieren, welche anschließend manuell verarbeitet wurden. Somit ebneten diese technischen Fortschritte den Weg für die Durchführung effizienterer Hochdurchsatzexperimente zur Untersuchung einer großen Anzahl von Proben, welche Datensätze von besserer Qualität produzierten. In der wissenschaftlichen Gemeinschaft besteht daher ein hoher Bedarf an einem effizienten, automatisierten Workflow für die Röntgendatenanalyse, welcher eine solche Datenlast bewältigen und wertvolle Erkenntnisse für die Fachexperten liefern kann. Die bestehenden Lösungen für einen solchen Workflow sind nicht direkt auf Hochdurchsatzexperimente anwendbar, da sie für Ad-hoc-Szenarien im Bereich der medizinischen Bildgebung entwickelt wurden. Daher sind sie nicht für Hochdurchsatzdatenströme optimiert und auch nicht in der Lage, die hierarchische Beschaffenheit von Proben zu nutzen. Die wichtigsten Beiträge der vorliegenden Arbeit sind ein neuer automatisierter Analyse-Workflow, der für die effiziente Verarbeitung heterogener Röntgendatensätze hierarchischer Natur geeignet ist. Der entwickelte Workflow basiert auf verbesserten Methoden zur Datenvorverarbeitung, Registrierung, Lokalisierung und Segmentierung. Jede Phase eines Arbeitsablaufs, die eine Trainingsphase beinhaltet, kann automatisch feinabgestimmt werden, um die besten Hyperparameter für den spezifischen Datensatz zu finden. Für die Analyse von Faserstrukturen in Proben wurde eine neue, hochgradig parallelisierbare 3D-Orientierungsanalysemethode entwickelt, die auf einem neuartigen Konzept der emittierenden Strahlen basiert und eine präzisere morphologische Analyse ermöglicht. Alle entwickelten Methoden wurden gründlich an synthetischen Datensätzen validiert, um ihre Anwendbarkeit unter verschiedenen Abbildungsbedingungen quantitativ zu bewerten. Es wurde gezeigt, dass der Workflow in der Lage ist, eine Reihe von Datensätzen ähnlicher Art zu verarbeiten. Darüber hinaus werden die effizienten CPU/GPU-Implementierungen des entwickelten Workflows und der Methoden vorgestellt und der Gemeinschaft als Module für die Sprache Python zur Verfügung gestellt. Der entwickelte automatisierte Analyse-Workflow wurde erfolgreich für Mikro-CT-Datensätze angewandt, die in Hochdurchsatzröntgenexperimenten im Bereich der Entwicklungsbiologie und Materialwissenschaft gewonnen wurden. Insbesondere wurde dieser Arbeitsablauf für die Analyse der Medaka-Fisch-Datensätze angewandt, was eine automatisierte Segmentierung und anschließende morphologische Analyse von Gehirn, Leber, Kopfnephronen und Herz ermöglichte. Darüber hinaus wurde die entwickelte Methode der 3D-Orientierungsanalyse bei der morphologischen Analyse von Polymergerüst-Datensätzen eingesetzt, um einen Herstellungsprozess in Richtung wünschenswerter Eigenschaften zu lenken

    New Methods to Improve Large-Scale Microscopy Image Analysis with Prior Knowledge and Uncertainty

    Get PDF
    Multidimensional imaging techniques provide powerful ways to examine various kinds of scientific questions. The routinely produced datasets in the terabyte-range, however, can hardly be analyzed manually and require an extensive use of automated image analysis. The present thesis introduces a new concept for the estimation and propagation of uncertainty involved in image analysis operators and new segmentation algorithms that are suitable for terabyte-scale analyses of 3D+t microscopy images.Comment: 218 pages, 58 figures, PhD thesis, Department of Mechanical Engineering, Karlsruhe Institute of Technology, published online with KITopen (License: CC BY-SA 3.0, http://dx.doi.org/10.5445/IR/1000057821

    New Methods to Improve Large-Scale Microscopy Image Analysis with Prior Knowledge and Uncertainty

    Get PDF
    Multidimensional imaging techniques provide powerful ways to examine various kinds of scientific questions. The routinely produced data sets in the terabyte-range, however, can hardly be analyzed manually and require an extensive use of automated image analysis. The present work introduces a new concept for the estimation and propagation of uncertainty involved in image analysis operators and new segmentation algorithms that are suitable for terabyte-scale analyses of 3D+t microscopy images

    A novel soft computing approach based on FIR to model and predict energy dynamic systems

    Get PDF
    Tesi en modalitat compendi de publicacionsWe are facing a global climate crisis that is demanding a change in the status quo of how we produce, distribute and consume energy. In the last decades, this is being redefined through Smart Grids(SG), an intelligent electrical network more observable, controllable, automated, fully integrated with energy services and the end-users. Most of the features and proposed SG scenarios are based on reliable, robust and fast energy predictions. For instance, for proper planning activities, such as generation, purchasing, maintenance and investment; for demand side management, like demand response programs; for energy trading, especially at local level, where productions and consumptions are more stochastics and dynamic; better forecasts also increase grid stability and thus supply security. A large variety of Artificial Intelligence(AI) techniques have been applied in the field of Short-term electricity Load Forecasting(SLF) at consumer level in low-voltage system, showing a better performance than classical techniques. Inaccuracy or failure in the SLF process may be translated not just in a non-optimal (low prediction accuracy) solution but also in frustration of end-users, especially in new services and functionalities that empower citizens. In this regard, some limitations have been observed in energy forecasting models based on AI such as robustness, reliability, accuracy and computation in the edge. This research proposes and develops a new version of Fuzzy Inductive Reasoning(FIR), called Flexible FIR, to model and predict the electricity consumption of an entity in the low-voltage grid with high uncertainties, and information missing, as well as the capacity to be deployed either in the cloud or locally in a new version of Smart Meters(SMs) based on Edge Computing(EC). FIR has been proved to be a powerful approach for model identification and system ’s prediction over dynamic and complex processes in different real world domains but not yet in the energy domain. Thus, the main goal of this thesis is to demonstrate that a new version of FIR, more robust, reliable and accurate can be a referent Soft Computing(SC) methodology to model and predict dynamic systems in the energy domain and that it is scalable to an EC integration. The core developments of Flexible FIR have been an algorithm that can cope with missing information in the input values, as well as learn from instances with Missing Values(MVs) in the knowledge-based, without compromising significantly the accuracy of the predictions. Moreover, Flexible FIR comes with new forecasting strategies that can cope better with loss of causality of a variable and dispersion of output classes than classical k nearest neighbours, making the FIR forecasting process more reliable and robust. Furthermore, Flexible FIR addresses another major challenge modelling with SC techniques, which is to select best model parameters. One of the most important parameters in FIR is the number k of nearest neighbours to be used in the forecast process. The challenge to select the optimal k, dynamically, is addressed through an algorithm, called KOS(K nearest neighbour Optimal Selection), which has been developed and tested also with real world data. It computes a membership aggregation function of all the neighbours with respect their belonging to the output classes.While with KOS the optimal parameter k is found online, with other approaches such as genetic algorithms or reinforcement learning is not, which increases the computational time.Ens trobem davant una crisis climàtica global que exigeix un canvi al status quo de la manera que produïm, distribuïm i consumim energia. En les darreres dècades, està sent redefinit gràcies a les xarxa elèctriques intel·ligents(SG: Smart Grid) amb millor observabilitat, control, automatització, integrades amb nous serveis energètics i usuaris finals. La majoria de les funcionalitats i escenaris de les SG es basen en prediccions de la càrrega elèctrica confiables, robustes i ràpides. Per les prediccions de càrregues elèctriques a curt termini(SLF: Short-term electricity Load Forecasting), a nivell de consumidors al baix voltatge, s’han aplicat una gran varietat de tècniques intel·ligència Artificial(IA) mostrant millor rendiment que tècniques estadístiques tradicionals. Un baix rendiment en SLF, pot traduir-se no només en una solució no-òptima (baixa precisió de predicció) sinó també en la frustració dels usuaris finals, especialment en nous serveis i funcionalitats que empoderarien als ciutadans. En el marc d’aquesta investigació es proposa i desenvolupa una nova versió de la metodologia del Raonament Inductiu Difús(FIR: Fuzzy Inductive Reasoning), anomenat Flexible FIR, capaç de modelar i predir el consum d’electricitat d’una entitat amb un grau d’incertesa molt elevat, inclús amb importants carències d’informació (missing values). A més, Flexible FIR té la capacitat de desplegar-se al núvol, així como localment, en el que podria ser una nova versió de Smart Meters (SM) basada en tecnologia d’Edge Computing (EC). FIR ja ha demostrat ser una metodologia molt potent per la generació de models i prediccions en processos dinàmics en diferents àmbits, però encara no en el de l’energia. Per tant, l’objectiu principal d’aquesta tesis és demostrar que una versió millorada de FIR, més robusta, fiable i precisa pot consolidar-se com una metodologia Soft Computing SC) de referencia per modelar i predir sistemes dinàmics en aplicacions per al sector de l’energia i que és escalable a una integració d’EC. Les principals millores de Flexible FIR han estat, en primer lloc, el desenvolupament i test d’un algorisme capaç de processar els valors d’entrada d’un model FIR tot i que continguin Missing Values (MV). Addicionalment, aquest algorisme també permet aprendre d’instàncies amb MV en la matriu de coneixement d’un model FIR, sense comprometre de manera significativa la precisió de les prediccions. En segon lloc, s’han desenvolupat i testat noves estratègies per a la fase de predicció, comportant-se millor que els clàssics k veïns més propers quan ens trobem amb pèrdua de causalitat d’una variable i dispersió en les classes de sortida, aconseguint un procés d’aprenentatge i predicció més confiable i robust. En tercer lloc, Flexible FIR aborda un repte molt comú en tècniques de SC: l’òptima parametrització del model. En FIR, un dels paràmetres més determinants és el número k de veïns més propers que s’utilitzaran durant la fase de predicció. La selecció del millor valor de k es planteja de manera dinàmica a través de l’algorisme KOS (K nearest neighbour Optimal Selection) que s’ha desenvolupat i testat també amb dades reals. Mentre que amb KOS el paràmetre òptim de k es calcula online, altres enfocaments mitjançant algoritmes genètics o aprenentatge per reforç el càlcul és offline, incrementant significativament el temps de resposta, sent a més a més difícil la implantació en escenaris d’EC. Aquestes millores fan que Flexible FIR es pugui adaptar molt bé en aplicacions d’EC. En aquest sentit es proposa el concepte d’un SM de segona generació basat en EC, que integra Flexible FIR com mòdul de predicció d’electricitat executant-se en el propi dispositiu i un agent EC amb capacitat per el trading d'energia produïda localment. Aquest agent executa un innovador mecanisme basat en incentius, anomenat NRG-X-Change que utilitza una nova moneda digital descentralitzada per l’intercanvi d’energia, que s’anomena NRGcoin.Estamos ante una crisis climática global que exige un cambio del status quo de la manera que producimos, distribuimos y consumimos energía. En las últimas décadas, este status quo está siendo redefinido debido a: la penetración de las energías renovables y la generación distribuida; nuevas tecnologías como baterías y paneles solares con altos rendimientos; y la forma en que se consume la energía, por ejemplo, a través de vehículos eléctricos o con la electrificación de los hogares. Estas palancas requieren una red eléctrica inteligente (SG: Smart Grid) con mayor observabilidad, control, automatización y que esté totalmente integrada con nuevos servicios energéticos, así como con sus usuarios finales. La mayoría de las funcionalidades y escenarios de las redes eléctricas inteligentes se basan en predicciones de la energía confiables, robustas y rápidas. Por ejemplo, para actividades de planificación como la generación, compra, mantenimiento e inversión; para la gestión de la demanda, como los programas de demand response; en el trading de electricidad, especialmente a nivel local, donde las producciones y los consumos son más estocásticos y dinámicos; una mejor predicción eléctrica también aumenta la estabilidad de la red y, por lo tanto, mejora la seguridad. Para las predicciones eléctricas a corto plazo (SLF: Short-term electricity Load Forecasting), a nivel de consumidores en el bajo voltaje, se han aplicado una gran variedad de técnicas de Inteligencia Artificial (IA) mostrando mejor rendimiento que técnicas estadísticas convencionales. Un bajo rendimiento en los modelos predictivos, puede traducirse no solamente en una solución no-óptima (baja precisión de predicción) sino también en frustración de los usuarios finales, especialmente en nuevos servicios y funcionalidades que empoderan a los ciudadanos. En este sentido, se han identificado limitaciones en modelos de predicción de energía basados en IA, como la robustez, fiabilidad, precisión i computación en el borde. En el marco de esta investigación se propone y desarrolla una nueva versión de la metodología de Razonamiento Inductivo Difuso (FIR: Fuzzy Inductive Reasoning), que hemos llamado Flexible FIR, capaz de modelar y predecir el consumo de electricidad de una entidad con altos grados de incertidumbre e incluso con importantes carencias de información (missing values). Además, Flexible FIR tiene la capacidad de desplegarse en la nube, así como localmente, en lo que podría ser una nueva versión de Smart Meters (SM) basada en tecnología de Edge Computing (EC). En el pasado, ya se ha demostrado que FIR es una metodología muy potente para la generación de modelos y predicciones en procesos dinámicos, sin embargo, todavía no ha sido demostrado en el campo de la energía. Por tanto, el objetivo principal de esta tesis es demostrar que una versión mejorada de FIR, más robusta, fiable y precisa puede consolidarse como metodología Soft Computing (SC) de referencia para modelar y predecir sistemas dinámicos en aplicaciones para el sector de la energía y que es escalable hacia una integración de EC. Las principales mejoras en Flexible FIR han sido, en primer lugar, el desarrollo y testeo de un algoritmo capaz de procesar los valores de entrada en un modelo FIR a pesar de que contengan Missing Values (MV). Además, dicho algoritmo también permite aprender de instancias con MV en la matriz de conocimiento de un modelo FIR, sin comprometer de manera significativa la precisión de las predicciones. En segundo lugar, se han desarrollado y testeado nuevas estrategias para la fase de predicción de un modelo FIR, comportándose mejor que los clásicos k vecinos más cercanos ante la pérdida de causalidad de una variable y dispersión de clases de salida, consiguiendo un proceso de aprendizaje y predicción más confiable y robusto. En tercer lugar, Flexible FIR aborda un desafío muy común en técnicas de SC: la óptima parametrización del modelo. En FIR, uno de los parámetros más determinantes es el número k de vecinos más cercanos que se utilizarán en la fase de predicción. La selección del mejor valor de k se plantea de manera dinámica a través del algoritmo KOS (K nearest neighbour Optimal Selection) que se ha desarrollado y probado también con datos reales. Dicho algoritmo calcula una función de membresía agregada, de todos los vecinos, con respecto a su pertenencia a las clases de salida. Mientras que con KOS el parámetro óptimo de k se calcula online, otros enfoques mediante algoritmos genéticos o aprendizaje por refuerzo, el cálculo es offline incrementando significativamente el tiempo de respuesta, siendo además difícil su implantación en escenarios de EC. Estas mejoras hacen que Flexible FIR se adapte muy bien en aplicaciones de EC, en las que la analítica de datos en streaming debe ser fiable, robusta y con un modelo suficientemente ligero para ser ejecutado en un IoT Gateway o dispositivos más pequeños. También, en escenarios con poca conectividad donde el uso de la computación en la nube es limitado y los parámetros del modelo se calculan localmente. Con estas premisas, en esta tesis, se propone el concepto de un SM de segunda generación basado en EC, que integra Flexible FIR como módulo de predicción de electricidad ejecutándose en el dispositivo y un agente EC con capacidad para el trading de energía producida localmente. Dicho agente ejecuta un novedoso mecanismo basado en incentivos, llamado NRG-X-Change que utiliza una nueva moneda digital descentralizada para el intercambio de energía, llamada NRGcoin.Postprint (published version

    Optimisation of image processing networks for neuronal membrane detection

    Get PDF
    This research dealt with the problem of neuronal membrane detection, in which the core challenge is distinguishing membranes from organelles. A simple and efficient optimisation framework is proposed based on several basic processing steps, including local contrast enhancement, denoising, thresholding, hole-filling, watershed segmentation, and morphological operations. The two main algorithms proposed Image Processing Chain Optimisation (IPCO) and Multiple IPCO (MIPCO)combine elements of Genetic Algorithms, Differential Evolution, and Rank-based uniform crossover. 91.67% is the highest recorded individual IPCO score with a speed of 280 s, and 92.11% is the highest recorded ensembles IPCO score whereas 91.80% is the highest recorded individual MIPCO score with a speed of 540 s for typically less than 500 optimisation generations and 92.63% is the highest recorded ensembles MIPCO score.Further, IPCO chains and MIPCO networks do not require specialised hardware and they are easy to use and deploy. This is the first application of this approach in the context of the Drosophila first instar larva ventral nerve cord. Both algorithms use existing image processing functions, but optimise the way in which they are configured and combined. The approach differs from related work in terms of the set of functions used, the parameterisations allowed, the optimisation methods adopted, the combination framework, and the testing and analyses conducted. Both IPCO and MIPCO are efficient and interpretable, and facilitate the generation of new insights. Systematic analyses of the statistics of optimised chains were conducted using 30 microscopy slices with corresponding ground truth. This process revealed several interesting and unconventional insights pertaining to preprocessing, classification, post-processing, and speed, and the appearance of functions in unorthodox positions in image processing chains, suggesting new sets of pipelines for image processing. One such insight revealed that, at least in the context of our membrane detection data, it is typically better to enhance, and even classify, data before denoising them

    Fine Art Pattern Extraction and Recognition

    Get PDF
    This is a reprint of articles from the Special Issue published online in the open access journal Journal of Imaging (ISSN 2313-433X) (available at: https://www.mdpi.com/journal/jimaging/special issues/faper2020)
    corecore