3 research outputs found

    Micro-Doppler-Coded Drone Identification

    Full text link
    The forthcoming era of massive drone delivery deployment in urban environments raises a need to develop reliable control and monitoring systems. While active solutions, i.e., wireless sharing of a real-time location between air traffic participants and control units, are of use, developing additional security layers is appealing. Among various surveillance systems, radars offer distinct advantages by operating effectively in harsh weather conditions and providing high-resolution reliable detection over extended ranges. However, contrary to traditional airborne targets, small drones and copters pose a significant problem for radar systems due to their relatively small radar cross-sections. Here, we propose an efficient approach to label drones by attaching passive resonant scatterers to their rotor blades. While blades themselves generate micro-Doppler rotor-specific signatures, those are typically hard to capture at large distances owing to small signal-to-noise ratios in radar echoes. Furthermore, drones from the same vendor are indistinguishable by their micro-Doppler signatures. Here we demonstrate that equipping the blades with multiple resonant scatterers not only extends the drone detection range but also assigns it a unique micro-Doppler encoded identifier. By extrapolating the results of our laboratory and outdoor experiments to real high-grade radar surveillance systems, we estimate that the clear-sky identification range for a small drone is approximately 3-5 kilometers, whereas it would be barely detectable at 1000 meters if not labeled. This performance places the proposed passive system on par with its active counterparts, offering the clear benefits of reliability and resistance to jamming

    SDR-GAIN: A High Real-Time Occluded Pedestrian Pose Completion Method for Autonomous Driving

    Full text link
    To mitigate the challenges arising from partial occlusion in human pose keypoint based pedestrian detection methods , we present a novel pedestrian pose keypoint completion method called the separation and dimensionality reduction-based generative adversarial imputation networks (SDR-GAIN) . Firstly, we utilize OpenPose to estimate pedestrian poses in images. Then, we isolate the head and torso keypoints of pedestrians with incomplete keypoints due to occlusion or other factors and perform dimensionality reduction to enhance features and further unify feature distribution. Finally, we introduce two generative models based on the generative adversarial networks (GAN) framework, which incorporate Huber loss, residual structure, and L1 regularization to generate missing parts of the incomplete head and torso pose keypoints of partially occluded pedestrians, resulting in pose completion. Our experiments on MS COCO and JAAD datasets demonstrate that SDR-GAIN outperforms basic GAIN framework, interpolation methods PCHIP and MAkima, machine learning methods k-NN and MissForest in terms of pose completion task. In addition, the runtime of SDR-GAIN is approximately 0.4ms, displaying high real-time performance and significant application value in the field of autonomous driving

    Réalisation d’un outil de simulation visant l’amélioration de la perception de la scène dans un autobus/véhicule autonome.

    Get PDF
    Les véhicules intelligents constituent une technologie qui a évolué de façon notable au cours des dernières années. Concevoir un véhicule pleinement autonome signifie que ce véhicule n’aura pas besoin de l’aide de l’humain pour le conduire. Ceci n’est pas une tâche facile pour une machine qui n’a pas la capacité de raisonner en temps réel comme un humain. Pour atteindre ce but, il y a certains problèmes qu’il faut résoudre tout en minimisant le niveau de risque de collision afin d’apporter une réduction significative des accidents routiers. Mon travail propose une architecture qui vise la détection d'obstacles dans l’environnement immédiat de l’égo-véhicule. À partir d’images et de données LiDAR fournies par des capteurs tels qu’un LiDAR et une caméra vidéo, je procède à la détection et à l'estimation de la distance de ces objets en fusionnant l’ensemble des données. Dans une première étape, je travaille sur l'acquisition et le prétraitement de données en utilisant des banques de données telles que KITTI Datasets et Google WAYMO dont je parlerai plus tard dans le document. Par ailleurs, le simulateur CARLA sera utilisé pour la validation de notre architecture. Dans une deuxième étape, je travaille sur l’intelligence artificielle embarquée pour le développement et la simulation des fonctions de perception et de prise de décision à bord d’un autobus autonome, dans le cadre d’un projet de recherche conjoint avec la firme québécoise Novabus-Volvo. Ceci impliquera certaines techniques de l’apprentissage machine telles que des réseaux de neurones à convolution et des algorithmes de clustering, notamment pour améliorer la précision de l’estimation de la distance des objets dans le voisinage de l’égo-véhicule. Dans cette étape, je propose l'utilisation d'une architecture de réseaux de neurones profonds qui fait une segmentation par instance dans le but d'assigner les pixels de l'image correspondant à chaque objet détecté. Par la suite, l'algorithme de clustering hiérarchique sera appliqué aux données LiDAR aux pixels des objets détectés correspondants. Je montre par mes travaux que cette approche permet au système de détection d’obstacles de mieux estimer leur distance relative par rapport à l’égo-véhicule. Finalement, j’effectue la réalisation logicielle des outils mathématiques nécessaires afin de faire la simulation du système de détection d’obstacles basé sur les deux étapes précédentes. Cette réalisation logicielle a été intégrée au simulateur CARLA et les simulations ont été effectuées à ii l’aide des banques de données KITTI et Google-WAYMO. Il faut noter que les outils développés dans le cadre de ce projet peuvent également être intégrés à d'autres simulateurs.Abstract : The autonomous vehicle is a technology that has evolved significantly in recent years. Making a vehicle truly autonomous means that this vehicle will not need human assistance to make decisions in any situation, which is not an easy task for a machine since they have no reasoning abilities. To do this, there are problems that need to be addressed to get to the point of full autonomy with the lowest possible level of risk and therefore a significant reduction in road accidents. My work proposes an architecture to perform object detection from images and distance estimation of these objects by merging data provided by sensors such as LiDAR and the camera. In a first step, I work on the acquisition and the preprocessing of data using databases such as KITTI Datasets and Google WAYMO which we will discuss later in the document. The CARLA simulator will be another source of data that will be used for the validation of our architecture. In a second step, I work in on-board artificial intelligence for the development and simulation of perception and decision-making functions in an autonomous bus. Here will see some machine learning techniques such as convolutional neural networks and clustering algorithms to improve the accuracy of distance estimation. With these techniques we first assign to each detected object its corresponding pixels in the image by using a deep neural network architecture which makes an instance segmentation. Afterwards, the hierarchical clustering algorithm will be applied to the LiDAR 3D points corresponding to the pixels of the detected objects. This will allow the system to better estimate the distance. Finally, we implement the tool that will simulate the two previous steps. This implementation was made based on CARLA simulator and the KITTI and Google WAYMO databases. This tool gives the possibility of being integrated with other simulators in the future if needed
    corecore