7 research outputs found

    Reconnaissance Biométrique par Fusion Multimodale de Visages

    Get PDF
    Biometric systems are considered to be one of the most effective methods of protecting and securing private or public life against all types of theft. Facial recognition is one of the most widely used methods, not because it is the most efficient and reliable, but rather because it is natural and non-intrusive and relatively accepted compared to other biometrics such as fingerprint and iris. The goal of developing biometric applications, such as facial recognition, has recently become important in smart cities. Over the past decades, many techniques, the applications of which include videoconferencing systems, facial reconstruction, security, etc. proposed to recognize a face in a 2D or 3D image. Generally, the change in lighting, variations in pose and facial expressions make 2D facial recognition less than reliable. However, 3D models may be able to overcome these constraints, except that most 3D facial recognition methods still treat the human face as a rigid object. This means that these methods are not able to handle facial expressions. In this thesis, we propose a new approach for automatic face verification by encoding the local information of 2D and 3D facial images as a high order tensor. First, the histograms of two local multiscale descriptors (LPQ and BSIF) are used to characterize both 2D and 3D facial images. Next, a tensor-based facial representation is designed to combine all the features extracted from 2D and 3D faces. Moreover, to improve the discrimination of the proposed tensor face representation, we used two multilinear subspace methods (MWPCA and MDA combined with WCCN). In addition, the WCCN technique is applied to face tensors to reduce the effect of intra-class directions using a normalization transform, as well as to improve the discriminating power of MDA. Our experiments were carried out on the three largest databases: FRGC v2.0, Bosphorus and CASIA 3D under different facial expressions, variations in pose and occlusions. The experimental results have shown the superiority of the proposed approach in terms of verification rate compared to the recent state-of-the-art method

    Assistance de l’enseignement de la conception architecturale par la modélisation de savoir-faire des référents

    Get PDF
    Dans une époque de changements des moyens de représentation et communication en architecture, cette recherche porte sur l’enseignement de la conception architecturale et plus spécifiquement sur l’apport que l’informatique pourrait avoir dans ce processus. En nous basant sur une méthodologie qualitative, exploratoire et participative, nous y procédons par enchainement de questions, celle de départ étant la suivante: Comment l’enseignement de la conception architecturale pourrait tirer avantage des moyens numériques? Notre objectif est de proposer des méthodes et des outils d’apprentissage aux étudiants en architecture pour enrichir leurs démarches de conception grâce à l’ordinateur. Après une revue de la littérature dans le domaine, et un approfondissement de l’étude sur le rôle des référents architecturaux et sur la conception intégrée, nous avons procédé à une observation exploratoire du travail des étudiants en atelier d’architecture. Ces premières étapes de la recherche ont permis de dégager des discordances entre les positions théoriques et la pratique en l’atelier, pour concrétiser ultérieurement la question de recherche. Dans le but de discerner des méthodes efficaces et innovatrices pour répondre aux discordances identifiées, nous avons engagé une étude de la littérature sur les théories cognitives par rapport aux connaissances, l’apprentissage et la conception. Certaines stratégies ont pu être définies, notamment la nécessité de représentation multimodale des référents architecturaux, l’importance de représenter le processus et non seulement le résultat, ainsi que l’avantage d’inciter les étudiants à travailler dans leur ‘zone proximale’ de développement. Suite à ces recherches, une méthode d’enseignement complémentaire a été définie. Elle propose aux étudiants des explorations de l’objet en conception basées sur la manipulation des savoir-faire architecturaux. Cette méthode a été opérationnalisée d’un point de vue pédagogique ainsi que didactique et mise à l’épreuve auprès des étudiants en atelier. Un prototype de librairie de référents architecturaux interactifs (LibReArchI) a été créé dans ce but. Elle a été conçue en tant qu’environnement de conception et espace de partage de savoir-faire entre étudiants et enseignants. Les principaux résultats de cette recherche démontrent le rôle positif de la méthode proposée pour le transfert des savoir-faire architecturaux lors de l’apprentissage en atelier. Son potentiel d’assister la conception intégrée et de stimuler l’émergence d’idées a été constaté. Au niveau théorique, un modèle d’un cycle du processus de design avec le numérique a été esquissé. En conclusion, des avenues de développements futurs de cette recherche sont proposées.Conducted in a period of transition in the representation and communication strategies in architecture, the present research focuses on architectural design teaching and especially on the contributions of digital means to this process. Based on a qualitative methodology, including participative and exploratory approaches, this research evolved around a progression of questions, the first one being “How could architectural design teaching take advantage of digital technologies?” Our objective was to define computer-assisted teaching methods and digital devices that could enrich the students’ design methods. A starting point of the research was a comprehensive literature review of the domain, including in-depth studies of the role of architectural referents in the design learning process, as well as of the integrated design approaches. The findings from these theoretical studies were then confronted with evidence from observations of the students’ design processes when working on a small architectural task. This revealed some discrepancies between the theoretical positions and the teaching practices in the digital architectural studio. The research question was precised in consequence, in order to address them. Specifically, the present research proposes efficient and innovative methods for resolving the discrepancies between theory and teaching practice, based on cognitive aspects of the underlying processes. Focusing on theories of knowledge, learning and design process, we were able to identify some pertinent cognitive strategies for attaining the objectives of this research, namely the necessity for multimodal representation of referents, the importance of representing the process and not only the result, as well as the advantage of motivating the students to work in their ‘zone of proximal development’. As a result of these studies, a complementary design teaching method was defined. It incites the students to perform design explorations based on manipulations of architectural know-how during the conceptual phase of the project. Pedagogic and didactic strategies for the implementation of this method were developed. A prototype of a library of interactive architectural referents (LibReArchI) was created in order to enrich the students’ ‘design space’ and to serve as shared resource between students and tutors. The main results from this research show a positive role of the proposed design teaching method for architectural know-how learning in the digital studio. It was found that this method has the potential to assist some integrated design strategies and to stimulate the generation of ideas. At the theoretical level, we propose a model of one cycle of the conceptual process when performed with digital means. In conclusion, some limitations of the research are mentioned and perspectives for its future development are drawn

    Segmentation mutuelle d'objets d'intérêt dans des séquences d'images stéréo multispectrales

    Get PDF
    Les systèmes de vidéosurveillance automatisés actuellement déployés dans le monde sont encore bien loin de ceux qui sont représentés depuis des années dans les oeuvres de sciencefiction. Une des raisons derrière ce retard de développement est le manque d’outils de bas niveau permettant de traiter les données brutes captées sur le terrain. Le pré-traitement de ces données sert à réduire la quantité d’information qui transige vers des serveurs centralisés, qui eux effectuent l’interprétation complète du contenu visuel capté. L’identification d’objets d’intérêt dans les images brutes à partir de leur mouvement est un exemple de pré-traitement qui peut être réalisé. Toutefois, dans un contexte de vidéosurveillance, une méthode de pré-traitement ne peut généralement pas se fier à un modèle d’apparence ou de forme qui caractérise ces objets, car leur nature exacte n’est pas connue d’avance. Cela complique donc l’élaboration des méthodes de traitement de bas niveau. Dans cette thèse, nous présentons différentes méthodes permettant de détecter et de segmenter des objets d’intérêt à partir de séquences vidéo de manière complètement automatisée. Nous explorons d’abord les approches de segmentation vidéo monoculaire par soustraction d’arrière-plan. Ces approches se basent sur l’idée que l’arrière-plan d’une scène peut être modélisé au fil du temps, et que toute variation importante d’apparence non prédite par le modèle dévoile en fait la présence d’un objet en intrusion. Le principal défi devant être relevé par ce type de méthode est que leur modèle d’arrière-plan doit pouvoir s’adapter aux changements dynamiques des conditions d’observation de la scène. La méthode conçue doit aussi pouvoir rester sensible à l’apparition de nouveaux objets d’intérêt, malgré cette robustesse accrue aux comportements dynamiques prévisibles. Nous proposons deux méthodes introduisant différentes techniques de modélisation qui permettent de mieux caractériser l’apparence de l’arrière-plan sans que le modèle soit affecté par les changements d’illumination, et qui analysent la persistance locale de l’arrière-plan afin de mieux détecter les objets d’intérêt temporairement immobilisés. Nous introduisons aussi de nouveaux mécanismes de rétroaction servant à ajuster les hyperparamètres de nos méthodes en fonction du dynamisme observé de la scène et de la qualité des résultats produits.----------ABSTRACT: The automated video surveillance systems currently deployed around the world are still quite far in terms of capabilities from the ones that have inspired countless science fiction works over the past few years. One of the reasons behind this lag in development is the lack of lowlevel tools that allow raw image data to be processed directly in the field. This preprocessing is used to reduce the amount of information transferred to centralized servers that have to interpret the captured visual content for further use. The identification of objects of interest in raw images based on motion is an example of a reprocessing step that might be required by a large system. However, in a surveillance context, the preprocessing method can seldom rely on an appearance or shape model to recognize these objects since their exact nature cannot be known exactly in advance. This complicates the elaboration of low-level image processing methods. In this thesis, we present different methods that detect and segment objects of interest from video sequences in a fully unsupervised fashion. We first explore monocular video segmentation approaches based on background subtraction. These approaches are based on the idea that the background of an observed scene can be modeled over time, and that any drastic variation in appearance that is not predicted by the model actually reveals the presence of an intruding object. The main challenge that must be met by background subtraction methods is that their model should be able to adapt to dynamic changes in scene conditions. The designed methods must also remain sensitive to the emergence of new objects of interest despite this increased robustness to predictable dynamic scene behaviors. We propose two methods that introduce different modeling techniques to improve background appearance description in an illumination-invariant way, and that analyze local background persistence to improve the detection of temporarily stationary objects. We also introduce new feedback mechanisms used to adjust the hyperparameters of our methods based on the observed dynamics of the scene and the quality of the generated output

    Caractérisation du comportement de systèmes électriques aéronautiques à partir d'analyses statistiques

    Get PDF
    La caractérisation des systèmes électriques est une tâche essentielle dans la conception aéronautique. Elle consiste notamment à dimensionner les composants des systèmes, définir les exigences à respecter par les charges électriques, définir les intervalles de maintenance et identifier les causes racines des pannes sur avions. Aujourd'hui, les calculs sont basés sur la théorie du génie électrique ou des modèles physiques simulés. L'objectif de cette thèse est d'utiliser une approche statistique basée sur les données observées durant les vols et des modèles d'apprentissage automatique pour caractériser le comportement du système électrique aéronautique. La première partie de cette thèse traite de l'estimation de la consommation électrique maximale que fournit un système électrique, dans le but d'optimiser le dimensionnement des générateurs et de mieux connaître les marges réelles. La théorie des valeurs extrêmes a été utilisée pour estimer des quantiles qui sont comparés aux valeurs théoriques calculées par les ingénieurs. Dans la deuxième partie, différents modèles régularisés sont considérés pour prédire la température de l'huile du générateur électrique dans un contexte de données fonctionnelles. Cette étude permet notamment de comprendre le comportement du générateur dans des conditions extrêmes qui ne peuvent pas être réalisées physiquement. Enfin, dans la dernière partie, un modèle de maintenance prédictive est proposé afin de détecter des anomalies dans le fonctionnement du générateur électrique pour anticiper les pannes. Le modèle proposé utilise des variantes de la méthode "Invariant Coordinate Selection" pour des données fonctionnelles.The characterization of electrical systems is an essential task in aeronautic conception. It consists in particular of sizing the electrical components, defining maintenance frequency and finding the root cause of aircraft failures. Nowadays, the computations are made using electrical engineering theory and simulated physical models. The aim of this thesis is to use statistical approaches based on flight data and machine learning models to characterize the behavior of aeronautic electrical systems. In the first part, we estimate the maximal electrical consumption that the generator should deliver to optimize the generator size and to better understand its real margin. Using the extreme value theory we estimate quantiles that we compare to the theoretical values computed by the electrical engineers. In the second part, we compare different regularized procedures to predict the oil temperature of a generator in a functional data framework. In particular, this study makes it possible to understand the generator behavior under extreme conditions that could not be reproduced physically. Finally, in the last part, we develop a predictive maintenance model that detects the abnormal behavior of a generator to anticipate failures. This model is based on variants of "Invariant Coordinate Selection" adapted to functional data

    Apprentissage automatique pour simplifier l’utilisation de banques d’images cardiaques

    Get PDF
    The recent growth of data in cardiac databases has been phenomenal. Cleveruse of these databases could help find supporting evidence for better diagnosis and treatment planning. In addition to the challenges inherent to the large quantity of data, the databases are difficult to use in their current state. Data coming from multiple sources are often unstructured, the image content is variable and the metadata are not standardised. The objective of this thesis is therefore to simplify the use of large databases for cardiology specialists withautomated image processing, analysis and interpretation tools. The proposed tools are largely based on supervised machine learning techniques, i.e. algorithms which can learn from large quantities of cardiac images with groundtruth annotations and which automatically find the best representations. First, the inconsistent metadata are cleaned, interpretation and visualisation of images is improved by automatically recognising commonly used cardiac magnetic resonance imaging views from image content. The method is based on decision forests and convolutional neural networks trained on a large image dataset. Second, the thesis explores ways to use machine learning for extraction of relevant clinical measures (e.g. volumes and masses) from3D and 3D+t cardiac images. New spatio-temporal image features are designed andclassification forests are trained to learn how to automatically segment the main cardiac structures (left ventricle and left atrium) from voxel-wise label maps. Third, a web interface is designed to collect pairwise image comparisons and to learn how to describe the hearts with semantic attributes (e.g. dilation, kineticity). In the last part of the thesis, a forest-based machinelearning technique is used to map cardiac images to establish distances and neighborhoods between images. One application is retrieval of the most similar images.L'explosion récente de données d'imagerie cardiaque a été phénoménale. L'utilisation intelligente des grandes bases de données annotées pourrait constituer une aide précieuse au diagnostic et à la planification de thérapie. En plus des défis inhérents à la grande taille de ces banques de données, elles sont difficilement utilisables en l'état. Les données ne sont pas structurées, le contenu des images est variable et mal indexé, et les métadonnées ne sont pas standardisées. L'objectif de cette thèse est donc le traitement, l'analyse et l'interprétation automatique de ces bases de données afin de faciliter leur utilisation par les spécialistes de cardiologie. Dans ce but, la thèse explore les outils d'apprentissage automatique supervisé, ce qui aide à exploiter ces grandes quantités d'images cardiaques et trouver de meilleures représentations. Tout d'abord, la visualisation et l'interprétation d'images est améliorée en développant une méthode de reconnaissance automatique des plans d'acquisition couramment utilisés en imagerie cardiaque. La méthode se base sur l'apprentissage par forêts aléatoires et par réseaux de neurones à convolution, en utilisant des larges banques d'images, où des types de vues cardiaques sont préalablement établies. La thèse s'attache dans un deuxième temps au traitement automatique des images cardiaques, avec en perspective l'extraction d'indices cliniques pertinents. La segmentation des structures cardiaques est une étape clé de ce processus. A cet effet une méthode basée sur les forêts aléatoires qui exploite des attributs spatio-temporels originaux pour la segmentation automatique dans des images 3Det 3D+t est proposée. En troisième partie, l'apprentissage supervisé de sémantique cardiaque est enrichi grâce à une méthode de collecte en ligne d'annotations d'usagers. Enfin, la dernière partie utilise l'apprentissage automatique basé sur les forêts aléatoires pour cartographier des banques d'images cardiaques, tout en établissant les notions de distance et de voisinage d'images. Une application est proposée afin de retrouver dans une banque de données, les images les plus similaires à celle d'un nouveau patient

    Développement de nouvelles approches protéo-chimiométriques appliquées à l'étude des interactions et de la sélectivité des inhibiteurs de kinases

    Get PDF
    The human kinome contains 518 proteins. They share a common mechanism of protein phosphorylation known to play an important role in cellular signaling pathways. Impaired kinase function is recognized to be involved in severe diseases like cancer. Due to high structural similarity between protein kinases, development of potent and selective kinase inhibitors is a challenging task. The selectivity of kinase inhibitors may lead to side effects potentially harmful. In this thesis, we first developed new selectivity metrics to determine inhibitor selectivity directly from biological inhibition data. Compared to existing metrics, the new selectivity scores can be applied on diverse inhibition data types. Second, we developed a proteometric approach in order to understand why some protein kinases are never inhibited by Type II inhibitors. The statistical model built for this purpose allowed us to identify several discriminant residues of which few of them correspond to experimentally described residues of interest. Third, using a new 3D protein kinase descriptor, we developed and validated novel proteo-chemometrics approaches to study and discover new kinase inhibitors.Le kinome humain comprend 518 protéines. Elles participent au processus de phosphorylation des protéines qui joue un rôle important dans les voies de signalisation cellulaire. Leur dérégulation est connue comme étant une cause de nombreuses maladies graves telle que les cancers. Du fait de leur grande similarité structurale des protéines kinases, il est difficile de développer des inhibiteurs qui soient à la fois efficaces et sélectifs. L’absence de sélectivité conduit le plus souvent à des effets secondaires particulièrement néfastes pour l’organisme. Au cours de cette thèse, nous avons d’abord développé de nouvelles métriques dont le but est de déterminer la sélectivité d’inhibiteurs à partir de données d’inhibition. Elles présentent l’avantage, comparées à d’autres métriques, d’être applicables sur n’importe quel type de données. Dans un deuxième temps, nous avons développé une approche protéométrique dans le but de comprendre pourquoi certaines protéines kinases ne sont jamais inhibées par des inhibiteurs de Type II. Le modèle statistique mis en place nous a permis d’identifier plusieurs résidus discriminants dont certains déjà décrits expérimentalement dans la littérature. Dans un troisième temps, nous avons développé un nouveau descripteur 3D de protéines kinases avec lequel nous avons mis en place et validé des modèles protéo-chimiométriques visant à étudier et découvrir de nouveaux inhibiteurs

    Factors Influencing Customer Satisfaction towards E-shopping in Malaysia

    Get PDF
    Online shopping or e-shopping has changed the world of business and quite a few people have decided to work with these features. What their primary concerns precisely and the responses from the globalisation are the competency of incorporation while doing their businesses. E-shopping has also increased substantially in Malaysia in recent years. The rapid increase in the e-commerce industry in Malaysia has created the demand to emphasize on how to increase customer satisfaction while operating in the e-retailing environment. It is very important that customers are satisfied with the website, or else, they would not return. Therefore, a crucial fact to look into is that companies must ensure that their customers are satisfied with their purchases that are really essential from the ecommerce’s point of view. With is in mind, this study aimed at investigating customer satisfaction towards e-shopping in Malaysia. A total of 400 questionnaires were distributed among students randomly selected from various public and private universities located within Klang valley area. Total 369 questionnaires were returned, out of which 341 questionnaires were found usable for further analysis. Finally, SEM was employed to test the hypotheses. This study found that customer satisfaction towards e-shopping in Malaysia is to a great extent influenced by ease of use, trust, design of the website, online security and e-service quality. Finally, recommendations and future study direction is provided. Keywords: E-shopping, Customer satisfaction, Trust, Online security, E-service quality, Malaysia
    corecore