3 research outputs found

    Simulated Hough Transform Model Optimized for Straight-Line Recognition Using Frontier FPGA Devices

    Get PDF
    The use of the Hough transforms to identify shapes or images has been extensively studied in the past using software for artificial intelligence applications. In this article, we present a generalization of the goal of shape recognition using the Hough transform, applied to a broader range of real problems. A software simulator was developed to generate input patterns (straight-lines) and test the ability of a generic low-latency system to identify these lines: first in a clean environment with no other inputs and then looking for the same lines as ambient background noise increases. In particular, the paper presents a study to optimize the implementation of the Hough transform algorithm in programmable digital devices, such as FPGAs. We investigated the ability of the Hough transform to discriminate straight-lines within a vast bundle of random lines, emulating a noisy environment. In more detail, the study follows an extensive investigation we recently conducted to recognize tracks of ionizing particles in high-energy physics. In this field, the lines can represent the trajectories of particles that must be immediately recognized as they are created in a particle detector. The main advantage of using FPGAs over any other component is their speed and low latency to investigate pattern recognition problems in a noisy environment. In fact, FPGAs guarantee a latency that increases linearly with the incoming data, while other solutions increase latency times more quickly. Furthermore, HT inherently adapts to incomplete input data sets, especially if resolutions are limited. Hence, an FPGA system that implements HT is inefficient for small sets of input data but becomes more cost-effective as the size of the input data increases. The document first presents an example that uses a large Accumulator consisting of 1100 x 600 Bins and several sets of input data to validate the Hough transform algorithm as random noise increases to 80% of input data. Then, a more specifically dedicated input set was chosen to emulate a real situation where a Xilinx UltraScale+ was to be used as the final target device. Thus, we have reduced the Accumulator to 280 x  280 Bins using a clock signal at 250 MHz and a few tens input points. Under these conditions, the behavior of the firmware matched the software simulations, confirming the feasibility of the HT implementation on FPGA

    Adaptive covariance estimation method for LiDAR-Aided multi-sensor integrated navigation systems

    Get PDF
    The accurate estimation of measurements covariance is a fundamental problem in sensors fusion algorithms and is crucial for the proper operation of filtering algorithms. This paper provides an innovative solution for this problem and realizes the proposed solution on a 2D indoor navigation system for unmanned ground vehicles (UGVs) that fuses measurements from a MEMS-grade gyroscope, speed measurements and a light detection and ranging (LiDAR) sensor. A computationally efficient weighted line extraction method is introduced, where the LiDAR intensity measurements are used, such that the random range errors and systematic errors due to surface reflectivity in LiDAR measurements are considered. The vehicle pose change is obtained from LiDAR line feature matching, and the corresponding pose change covariance is also estimated by a weighted least squares-based technique. The estimated LiDAR-based pose changes are applied as periodic updates to the Inertial Navigation System (INS) in an innovative extended Kalman filter (EKF) design. Besides, the influences of the environment geometry layout and line estimation error are discussed. Real experiments in indoor environment are performed to evaluate the proposed algorithm. The results showed the great consistency between the LiDAR-estimated pose chan

    Segmentação, seguimento e avaliação automática de bactérias em imagens de microscópio

    Get PDF
    Dissertação para obtenção do Grau de Mestre em Engenharia BiomédicaAo longo de várias décadas, os diversos trabalhos realizados no campo da microscopia caracterizaram-se por um vasto conjunto de procedimentos de análise em imagens microscópicas. A quantificação celular das imagens em estudo é normalmente um procedimento lento, podendo apresentar uma percentagem de erro significativa, devido essencialmente à elevada quantidade de observações a serem efetuadas. Neste sentido, o desenvolvimento de algoritmos de processamento de imagem e de sistemas de reconhecimento, permite a criação de processos de quantificação automática de muitas das imagens microscópicas em estudo. A dissertação de mestrado aqui apresentada descreve e avalia o desenvolvimento de um algoritmo que tem como objetivo efetuar a segmentação e avaliação de um conjunto de imagens microscópicas. O protótipo projetado constitui um sistema de contabilização automática do número de bactérias E.coli visualizado em cada uma das imagens consideradas. As imagens foram disponibilizadas pelo Laboratory of Biosystem Dynamics da Tampere University of Technology tendo sido adquiridas através de microscópios confocais. O algoritmo desenvolvido pode dividir-se em três passos distintos. Inicialmente é aplicado um pré-processamento sobre as imagens em estudo constituído por um conjunto de transformações que retiram alguma da informação desnecessária da imagem e ao mesmo tempo melhoram os contornos dos segmentos constituintes. Seguidamente é implementado um processo de Template matching, que efetua a detecção da localização de cada uma das bactérias. Neste passo, as bactérias são povoadas individualmente por um conjunto de marcas que são posteriormente utilizadas no terceiro e último passo. Neste último passo é aplicada uma técnica de segmentação baseada no método Watershed, um dos mais estudados métodos de segmentação, inseridos na área do processamento de imagem. O protótipo foi testado nas imagens disponibilizadas, tendo obtido um grau de eficiência bastante satisfatório. De forma a avaliar a versatilidade do software desenvolvido, este foi também aplicado a imagens fornecidas por um dos mais eficientes softwares existentes no mercado e os seus resultados comparados
    corecore