3 research outputs found
Micro-Doppler-Coded Drone Identification
The forthcoming era of massive drone delivery deployment in urban
environments raises a need to develop reliable control and monitoring systems.
While active solutions, i.e., wireless sharing of a real-time location between
air traffic participants and control units, are of use, developing additional
security layers is appealing. Among various surveillance systems, radars offer
distinct advantages by operating effectively in harsh weather conditions and
providing high-resolution reliable detection over extended ranges. However,
contrary to traditional airborne targets, small drones and copters pose a
significant problem for radar systems due to their relatively small radar
cross-sections. Here, we propose an efficient approach to label drones by
attaching passive resonant scatterers to their rotor blades. While blades
themselves generate micro-Doppler rotor-specific signatures, those are
typically hard to capture at large distances owing to small signal-to-noise
ratios in radar echoes. Furthermore, drones from the same vendor are
indistinguishable by their micro-Doppler signatures. Here we demonstrate that
equipping the blades with multiple resonant scatterers not only extends the
drone detection range but also assigns it a unique micro-Doppler encoded
identifier. By extrapolating the results of our laboratory and outdoor
experiments to real high-grade radar surveillance systems, we estimate that the
clear-sky identification range for a small drone is approximately 3-5
kilometers, whereas it would be barely detectable at 1000 meters if not
labeled. This performance places the proposed passive system on par with its
active counterparts, offering the clear benefits of reliability and resistance
to jamming
SDR-GAIN: A High Real-Time Occluded Pedestrian Pose Completion Method for Autonomous Driving
To mitigate the challenges arising from partial occlusion in human pose
keypoint based pedestrian detection methods , we present a novel pedestrian
pose keypoint completion method called the separation and dimensionality
reduction-based generative adversarial imputation networks (SDR-GAIN) .
Firstly, we utilize OpenPose to estimate pedestrian poses in images. Then, we
isolate the head and torso keypoints of pedestrians with incomplete keypoints
due to occlusion or other factors and perform dimensionality reduction to
enhance features and further unify feature distribution. Finally, we introduce
two generative models based on the generative adversarial networks (GAN)
framework, which incorporate Huber loss, residual structure, and L1
regularization to generate missing parts of the incomplete head and torso pose
keypoints of partially occluded pedestrians, resulting in pose completion. Our
experiments on MS COCO and JAAD datasets demonstrate that SDR-GAIN outperforms
basic GAIN framework, interpolation methods PCHIP and MAkima, machine learning
methods k-NN and MissForest in terms of pose completion task. In addition, the
runtime of SDR-GAIN is approximately 0.4ms, displaying high real-time
performance and significant application value in the field of autonomous
driving
Réalisation d’un outil de simulation visant l’amélioration de la perception de la scène dans un autobus/véhicule autonome.
Les véhicules intelligents constituent une technologie qui a évolué de façon notable au cours des dernières années. Concevoir un véhicule pleinement autonome signifie que ce véhicule n’aura pas besoin de l’aide de l’humain pour le conduire. Ceci n’est pas une tâche facile pour une machine qui n’a pas la capacité de raisonner en temps réel comme un humain. Pour atteindre ce but, il y a certains problèmes qu’il faut résoudre tout en minimisant le niveau de risque de collision afin d’apporter une réduction significative des accidents routiers. Mon travail propose une architecture qui vise la détection d'obstacles dans l’environnement immédiat de l’égo-véhicule. À partir d’images et de données LiDAR fournies par des capteurs tels qu’un LiDAR et une caméra vidéo, je procède à la détection et à l'estimation de la distance de ces objets en fusionnant l’ensemble des données. Dans une première étape, je travaille sur l'acquisition et le prétraitement de données en utilisant des banques de données telles que KITTI Datasets et Google WAYMO dont je parlerai plus tard dans le document. Par ailleurs, le simulateur CARLA sera utilisé pour la validation de notre architecture. Dans une deuxième étape, je travaille sur l’intelligence artificielle embarquée pour le développement et la simulation des fonctions de perception et de prise de décision à bord d’un autobus autonome, dans le cadre d’un projet de recherche conjoint avec la firme québécoise Novabus-Volvo. Ceci impliquera certaines techniques de l’apprentissage machine telles que des réseaux de neurones à convolution et des algorithmes de clustering, notamment pour améliorer la précision de l’estimation de la distance des objets dans le voisinage de l’égo-véhicule. Dans cette étape, je propose l'utilisation d'une architecture de réseaux de neurones profonds qui fait une segmentation par instance dans le but d'assigner les pixels de l'image correspondant à chaque objet détecté. Par la suite, l'algorithme de clustering hiérarchique sera appliqué aux données LiDAR aux pixels des objets détectés correspondants. Je montre par mes travaux que cette approche permet au système de détection d’obstacles de mieux estimer leur distance relative par rapport à l’égo-véhicule. Finalement, j’effectue la réalisation logicielle des outils mathématiques nécessaires afin de faire la simulation du système de détection d’obstacles basé sur les deux étapes précédentes. Cette réalisation logicielle a été intégrée au simulateur CARLA et les simulations ont été effectuées à ii l’aide des banques de données KITTI et Google-WAYMO. Il faut noter que les outils développés dans le cadre de ce projet peuvent également être intégrés à d'autres simulateurs.Abstract : The autonomous vehicle is a technology that has evolved significantly in recent years. Making a vehicle truly autonomous means that this vehicle will not need human assistance to make decisions in any situation, which is not an easy task for a machine since they have no reasoning abilities. To do this, there are problems that need to be addressed to get to the point of full autonomy with the lowest possible level of risk and therefore a significant reduction in road accidents.
My work proposes an architecture to perform object detection from images and distance estimation of these objects by merging data provided by sensors such as LiDAR and the camera. In a first step, I work on the acquisition and the preprocessing of data using databases such as KITTI Datasets and Google WAYMO which we will discuss later in the document. The CARLA simulator will be another source of data that will be used for the validation of our architecture. In a second step, I work in on-board artificial intelligence for the development and simulation of perception and decision-making functions in an autonomous bus. Here will see some machine learning techniques such as convolutional neural networks and clustering algorithms to improve the accuracy of distance estimation. With these techniques we first assign to each detected object its corresponding pixels in the image by using a deep neural network architecture which makes an instance segmentation. Afterwards, the hierarchical clustering algorithm will be applied to the LiDAR 3D points corresponding to the pixels of the detected objects. This will allow the system to better estimate the distance.
Finally, we implement the tool that will simulate the two previous steps. This implementation was made based on CARLA simulator and the KITTI and Google WAYMO databases. This tool gives the possibility of being integrated with other simulators in the future if needed