528 research outputs found

    Simulation de fautes pour l'évaluation du test en ligne de systèmes RFID

    Get PDF
    Les systèmes RFID pour RadioFrequency Identification sont capables d identifier des objets ou des personnes sans contact ni vision direct. Ainsi, leur utilisation grandit de manière exponentielle dans différents secteurs : nucléaire, aviation, ferroviaire, médical, traçabilité, contrôle d accès Mais ce sont surtout des systèmes fortement hétérogènes, composés de matériel analogique ou digital, et de systèmes informatique : le tag, attaché à l objet à identifier, contenant l identifiant de ce dernier ; le lecteur, appareil capable de venir lire les informations contenus dans les tags ; et le système informatique gérant l ensemble des données générées par le système. Ces systèmes sont de plus en plus utilisés dans des domaines critiques ou dans des environnements difficiles, alors qu ils sont basés uniquement sur des équipements bas coût et peu performant les tags ne permettant alors pas de garantir des communications robustes. Tous ces points font que le test en ligne des systèmes RFID est une tâche complexe.Cette thèse s intéresse donc à la sûreté de fonctionnement des systèmes RFID : comment être certains que le système fonctionne comme il faut au moment où on en à besoin ? En premier, les défaillances et leurs causes ont été étudiées à l aide d une méthode classique : AMDE Analyse des modes de défaillances et de leurs effets. Cette étude a permis d identifier les points faibles des systèmes RFID. Après cela et grâce à cette analyse, il nous a été possible de définir et d implémenter un simulateur de systèmes RFID appelé SERFID, pour Simulation et Evaluation des systèmes RFID. Ce simulateur est capable de simuler différents systèmes RFID multi-équipements (HF ou UHF, normes actuellement implémentées : ISO15693 et EPC Classe 1 Génération 2), du tag au lecteur, en passant par le canal de communication permettant aux tags et aux lecteurs de communiquer. SERFID permet aussi de connecter les lecteurs simulés à des middlewares existants ou nouveau afin des les évaluer. Pour permettre l évaluation de la sûreté de fonctionnement des systèmes RFID, SERFID permet l injection de fautes dynamiquement au sein des tags, lecteurs ou du canal de communication permettant de simuler différentes défaillances pouvant apparaître : diminution de la qualité de la communication ou de l alimentation du tag, erreurs au sein de la mémoire du tag, bruit SERFID a été notamment utilisé pour simuler et observer le comportement de systèmes RFID HF et UHF face à du bruit et des perturbations dans le canal de communication entre le tag et le lecteur. Finalement, cette thèse propose une nouvelle méthode pour détecter les tags fautifs ou vieillissants dans les applications de logistiques. Cette méthode, non intrusive et en ligne, est basée sur l observation des performances du système au cours de son fonctionnement : le logiciel de gestion analyse les résultats des différentes identifications. A partir du taux d erreur de lecture par tag, et en le comparant aux taux de lecture par tag précédemment observés, cette méthode est capable de déterminer quel groupe de tags est fautif ou non. Cette méthode a été évaluée par expérimentation et par simulation grâce à SERFID. Cette évaluation a permis de mettre en évidence les points forts et les faiblesses de la méthode.RFID systems for RadioFrequency Identification are able to identify object or person without any contact or direct vision. For this reason, their use grows exponentially in many different fields: nuclear, avionics, railways, medical, warehouse inventories, access control However they are complex heterogeneous systems, consisting of analog and digital hardware components and software components: the tag, closed on the object to identified, which contains its identifier; the reader which able to read identifiers on tags; and finally the IT infrastructure to manage data. RFID technologies are often used into critical domains or within harsh environments. But as RFID systems are only based on low cost and low-performance equipments, they do not always ensure robust communications. All these points make the on-line testing of RFID systems a very complex task.This thesis focuses on dependability of RFID systems: how to be sure that this system works correctly when we need to use it? Firstly, failures and their causes have been studied using a common method called FMEA Failure Modes and Effects Analysis This study allows to identify weakness aspects of RFID systems. After that and thanks to this analysis, a new simulator was designed and implemented. This simulator, called SERFID for Simulation and Evaluation of RFID systems, is able to simulate various RFID systems with many devices (HF or UHF, actually implemented standards: ISO15693 or EPC Class 1 Generation 2), from tag to reader, together with the RF channel between them and the physic aspect which permit to tags and readers to communicate. SERFID also permits to connect an existing or new middleware to simulated reader to evaluate new software approach. To analyze dependability of RFID systems, SERFID allows us to inject fault in tag, channel or readers dynamically, to simulate different failures which can be appear: decrease of quality of communication or tag supply, memory errors in tag, noises SERFID was in particular use to simulate HF and UHF RFID systems to observe their reaction according noises and disturbances in communication between tag and reader. Finally, a new method to detect faulty or aging tags or readers in traceability application was proposed. This non-intrusive on-line method is based on performance observation of the system during operation: the managing software analyzes results of an identification round. According read error rate per tag of an inventory, and comparing it with previous obtained read error rates per tag, this method is able to determine which group of tags is faulty or not. This method has been analyzed with to method: by experimentations and by simulation using SERFID. This analyze brings out weakness and strength of this method.SAVOIE-SCD - Bib.électronique (730659901) / SudocGRENOBLE1/INP-Bib.électronique (384210012) / SudocGRENOBLE2/3-Bib.électronique (384219901) / SudocSudocFranceF

    Distribution syntaxique, discursive et interactionnelle des contours intonatifs du français dans un corpus de conversation

    Get PDF
    International audienceThis paper aims at acquiring a more comprehensive overview about the role of French intonational contours observed in a conversational corpus. We study their distribution with regards to syntactical structure, discourse and conversational organisation. Our results show that the minor contour is functionally underspecified compared to major contours. Among the latter, a set of different terminal contours appear to form a paradigm, sharing the same distribution as well as the same semantism. By contrast the major continuation contour appears to have a quite different semantic and interactional value, even when it occurs at the same syntactical distribution.Ce papier vise une meilleure compréhension du rôle des contours intonatifs du français analysés dans un corpus de données conversationnelles. Nous étudions la distribution de ces contours en regard de la structure syntaxique, discursive et de l'organisation interactionnelle. Nos résultats montrent que le contour mineur est sous-spécifié d'un point de vue fonctionnel relativement aux contours majeurs. Parmi ces derniers, divers contours terminaux semblent former un paradigme, partageant la même distribution et le même sémantisme. A l'inverse, le contour majeur de continuation semble avoir une valeur sémantique et interactionnelle assez différente même lorsqu'il apparaît dans la même distribution syntaxique

    Conception de tags d'identification sans puce dans le domaineTHz

    Get PDF
    This thesis work deals with the development of a new generation of low-cost Chipless tags operating in the THz frequency domain, it has been supported by the french national agency for research (ANR-09-VERS-013 « THID » ). It covers a wide area of applications such as the identification and/or unitary authentication of commercial items, identity papers, access control…To manufacture these tags, we proposed to use a periodic stack of dielectric material layers with different refractive index and whose thickness is of the order of the wavelength, commonly known as a one dimensional photonic crystal. The electromagnetic signature of such a structure exhibits photonic bandgaps (PBG), i.e. frequency windows in which light propagation is prohibited. We suggested modifying the periodicity of the crystal to create defect levels (peaks) for example in the 1st PBG to encode binary information. This particular structure allows to precisely tuned an electromagnetic signature. To ensure a mass and cost effective industrialization, we retained basic materials which are widely used in the pulp and paper industry: paper and polyethylene. The choice of these materials, which must combine high index contrast and low absorption, represents the first and a crucial step in this work. We characterize a wide range of materials using classical THz time domain spectroscopy (THz-TDS) and we propose two families of tags based on paper and polyethylene. Furthermore, we developed two methods to encode binary information, both based on the absence or presence of peaks in a PBG, peaks whose number and position depend on the introduced defects of periodicity. In a real identification test, a coding capacity of nearly 20-bit has been demonstrated. We also showed that the information contained in the electromagnetic response of these THz tags can be used for other applications related to the unitary authentication and by using the correlation coefficient as criterion for discrimination of the different signatures. Therefore, we evaluate the performance of an authentication test based on this criterion in various analysis domains: time, frequency and time-frequency. We showed that a study of the spectrogram (combining time and frequency representation) is much more relevant than a study in the only time or frequency domain.Ce travail de thèse a été réalisé dans le cadre d'un contrat avec l'ANR (ANR-09-VERS-013 « THID ») et porte sur le développement d'une nouvelle génération de tags Chipless à bas coûts fonctionnant dans le domaine THz, pour des applications d'identification et/ou authentification unitaire des articles commerciaux, des papiers d'identités, des personnes pour le contrôle d'accès... Les structures proposées, constituées d'un empilement périodique de couches diélectriques d'indices de réfraction différents, utilisent les propriétés particulières des cristaux photoniques 1D de présenter une réponse électromagnétique entrecoupée de bandes interdites photoniques (BIP). Toute perturbation de la périodicité de la structure engendre des pics dans les bandes interdites qui sont utilisés pour coder une information binaire. Cette structuration particulière des matériaux permet donc de manipuler précisément une signature électromagnétique. Pour des raisons liées à l'industrialisation (facilité de fabrication en masse) et aussi de coût, nous avons retenu des matériaux de base déjà couramment utilisés dans l'industrie papetière : le papier et le polyéthylène. Le choix de ces matériaux, qui doivent allier contraste d'indice élevé et faible absorption, représente une étape cruciale dans ce travail. Ainsi, à partir des résultats expérimentaux obtenus par spectroscopie THz dans le domaine temporel (THz-TDS) sur un grand nombre de matériaux, nous avons pu concevoir deux familles de tags sur la base de ces différents matériaux. Par ailleurs, nous avons développé deux méthodes de codage d'une information binaire, toutes deux basées sur l'absence ou la présence de pics dans une BIP, pics dont la position et le nombre dépendent bien évidemment des défauts de périodicité introduits. Pour des applications liées à l'identification, des capacités de codage de près de 20 bits ont été démontrées. Nous avons aussi montré que la richesse d'information contenue dans la réponse électromagnétique de ces Tags THz peut être utilisée pour les applications liées à l'authentification unitaire, en utilisant comme critère de discrimination le coefficient d'autocorrélation. Nous avons ainsi pu évaluer les performances d'un test d'authentification basé sur ce critère dans différents domaines d'analyse : temporel, fréquentiel et temps-fréquence. Nous avons montré qu'une étude du spectrogramme (combinant temps et fréquence) est ainsi bien plus pertinente qu'une étude dans les seuls domaines temporel ou fréquentiel

    Du bruit au signal: Agencements et savoirs locaux dans les tableaux de bord d'e-réputation

    Get PDF
    International audienceWhile an array of software offers to monitor the brands’ reputation on the web, we question the processes by which these dashboards actually aggregate and describe the judgments made by people on the web about companies and products. These tools address in fact a major methodological challenge : converting the “noise” into a “signal”, that is to say, to make intelligible preexisting, massive and heterogeneous verbal data. Through the study of French and American providers, we show how the way they are designed and sold make these dashboards permeable to the client’s epistemologies and cognitive frameworks. By requesting from the user constant arrangement and interpretation of algorithmic results, the technical and commercial procedures that come with the dashboards allow the matching between the client’s questions and the flow of online speech.A l'heure où un ensemble de logiciels proposent aux marques la mesure de leur réputation sur le web, nous interrogeons les processus par lesquels ces tableaux de bord permettent effectivement d'agréger et de qualifier les évaluations dont les acteurs économiques font l'objet sur le web. Ces outils font de fait face à un défi méthodologique majeur consistant à convertir le « bruit » en « signal », c'est-à-dire à rendre intelligibles des données verbales préexistantes, massives et hétérogènes. A travers l'étude de prestataires français et américains, nous montrons comment la façon dont sont conçus puis vendus ces tableaux de bord les rend perméables aux épistémologies et aux cadres cognitifs des organisations clientes. En demandant à l'usager un constant travail d'agencement et d'interprétation des résultats algorithmiques, les procédures techniques et commerciales qui accompagnent le déploiement des tableaux de bord permettent ainsi la coïncidence entre les problématiques des organisations clientes et le flux de la parole en ligne

    Consistance et protection des données dans les systèmes collaboratifs par les méthodes formelles

    Get PDF
    Le développement de logiciels complexes ou de contenus multimédias implique de nos jours plusieurs personnes de plus en plus géographiquement dispersées à travers le monde qui collaborent à travers des systèmes d’édition collaborative. Le but principal de cette collaboration est l’amélioration de la productivité et la réduction du temps et des coûts de développement. L’un des défis majeurs de ces outils d’édition collaborative est d’assurer la convergence et la fiabilité des données partagées. Pour répondre à ce défi, plusieurs approches existent dans la littérature parmi lesquelles, nous avons l’approche multiversions (MV), l’approche des types de données commutatives répliquées (CRDT) et l’approche de la transformée opérationnelle (OT). La première se base sur le principe du copier, modifier et fusionner et utilise un serveur central chargé de la fusion des différentes copies provenant des sites participant à la collaboration. Les modifications effectuées par chaque site sur sa copie ne sont fusionnées à la copie centrale qu’à la demande de l’utilisateur. La difficulté majeure de cette approche est le coût lié au stockage des diverses versions sur le serveur, l’utilisation d’estampilles pour ordonner les opérations lors de la fusion. Ce qui la rend difficilement utilisable dans un contexte d’environnement distribué. La deuxième approche considère que toutes les opérations sont commutatives donc pouvant être exécutées dans un ordre quelconque. Quant à la dernière approche, elle s’appuie sur une transformation des opérations reçues des sites distants par rapport à celles qui leur sont concurrentes. Dans cette approche, un algorithme de transformation inclusive (IT) est utilisé afin d’assurer la convergence des copies, mais la plupart des algorithmes proposés dans la littérature ne satisfont pas les critères de convergence. En plus de la cohérence, la fiabilité des données reste un autre défi dans les systèmes collaboratifs. Pour faire face à ce défi, plusieurs applications encapsulent, dans leur code source, des fonctionnalités transverses telles que celles de sécurité afin de répondre aux exigences de confidentialité et d’intégrité des données. Dans la littérature, la programmation orientée aspect (AOP) est l’une des approches utilisées afin d’assurer la modularité, la maintenabilité et la réutilisation des composants d’un logiciel. Une des difficultés de ce paradigme de programmation est l’assurance qu’une propriété de sécurité reste satisfaite après le tissage entre le programme de base et tous les aspects encapsulant les préoccupations transverses. Ce qui implique de trouver des techniques automatiques de vérification des propriétés de sécurité une fois le tissage fait. Dans le registre de la fiabilité des données, le contrôle d’accès joue un rôle prépondérant. Ainsi, en ce qui concerne le partage de contenus multimédias publiés sur le Web, il est nécessaire de collaborer pour les alimenter, mais un des défis majeurs est de les rendre fiables.----------ABSTRACT: Complex software and Web content development involve nowadays multiple programmers located in different areas working together on the same development project using collaborative systems in order to achieve efficiency, improve productivity and reduce development time. One of the key challenge in such a development environment is ensuring the convergence and the reliability of the shared data or content. In the literature, many approaches have been proposed to face this challenge. Among those approaches, we have multi-version (MV), commutative replication data type (CRDT) and operational transformation (OT) approach. The first approach is based on the "copy, modify and merge" principle and uses a central server to merge the updates from the different sites participating in the collaboration. The local updates of a specific site are merged only on demand. The key drawback of this approach is the storage cost of the various versions on the server and the overhead due to the generation of stamps for the operations ordering. Thus, this drawback makes this approach difficult to use in the context of a distributed collaborative environment. The second approach preconizes that all the operations are commutative so that they can be executed in any given order. The latter approach is based on the transformation of all the operations received from the remote sites against their concurrent operations before being merged. In this approach, an inclusive transformation algorithm is used in order to ensure the convergence criteria. Unfortunately, most of the proposed algorithms in the literature do not satisfy the convergence criteria. Beside the convergence, the reliability of the data remains another challenge in the collaborative systems. In order to face this challenge, many programs encapsulate crosscutting concerns (e.g. security, logging) for data confidentiality and integrity purposes. In the literature, aspect-oriented programming (AOP) is one the approaches used to better modularize the separation of concerns in order to make easier the maintenance and the reuse of the software components. However, one challenge of this paradigm is the insurance that a given property such as security one remains satisfied after the weaving of the base program and the aspects. Thus, we may find automated way to verify such security properties in the woven program. Concerning data reliability, access control is one of the major piece of the puzzle. Thus, in the Web content publication, one challenge is to collaborate in order to produce them and the other key challenge is to make them reliable

    Pour apprendre à apprendre l’informatique, peut-on se contenter d’un MOOC ?

    Get PDF
    TALN_HCERES2020L'égalité des chances au XXIe siècle passe par une éducation populaire massive aux fondements dunumérique, et pour cela, en France, il faut former plusieurs centaines de milliers de formateurs sur ce sujet,souvent inédit pour elles ou eux. Peut-on simplement supposer que déployer un MOOC va permettre derelever ce défi ? Cet article répond de manière constructive par la négative à cette vision simplifiée, etpropose de déployer un dispositif hybride de formation présentielle et en ligne. Très concrète, cetteproposition correspond au projet Class'Code qui est en train de se déployer, et le travail de recherchepréparatoire ce projet désormais accepté est partagé ici

    Identification par radio-fréquence (RFID) - La boîte à outils du numérique en bibliothèque (L\u27)

    Get PDF
    Le Service du Livre et de la Lecture a réuni un groupe de travail chargé de rédiger des fiches pratiques destinées à accompagner les bibliothèques territoriales dans leurs projets de développement numérique. Ces fiches, dont l’ensemble constituera à terme une « boîte à outils du numérique en bibliothèque », proposent aux bibliothèques territoriales un vademecum prenant en compte les impacts technologiques et organisationnels des problématiques numériques auxquelles elles sont confrontées. Cette fiche traite de la RFID (Radio Frequency Identification) et des potentialités de cette technologie en matière de gestion des collections et de relation au public
    • …
    corecore