662 research outputs found

    Gestion de la collection photographique des HUG: mise en valeur et pérennisation

    Get PDF
    Ce travail de Bachelor a été réalisé dans le cadre du mandat émis par les HUG en vue d’établir des règles de gestion pour leurs différents fonds photographiques documentaires servant à illustrer leurs diverses documentations (l’imagerie médicale n’est pas traitée dans le contexte du présent travail). Les HUG possèdent une collection photo historique, sous forme analogique, ainsi qu’une collection plus récente sous forme numérique, dans lesquelles il est ardu de repérer les images souhaitées. L’objectif de ce mandat est d’établir des règles claires pour que ces fonds puissent être exploités de manière pérenne. Les principales étapes pour réaliser ce travail ont été : • L’analyse de l’existant en vue de faire un état des lieux des pratiques documentaires des photographies, tant du côté des archives centrales où sont conservées les photos historiques que de celui de la direction de la communication où sont utilisées l’ensemble des images ; • L’étude de la littérature professionnelle, dans le but de cerner l’ensemble des points à considérer lors de la création de règles de gestion ; • L’envoi d’un questionnaire pour obtenir des solutions appliquées concrètement dans d’autres institutions en charge de fonds photographiques ; • La comparaison entre les recommandations théoriques et les applications professionnelles récoltées afin de déterminer les règles applicables aux HUG au vu de l’analyse effectuée ; • La création de livrables – inventaires, protocoles de versement, règles de catalogage, fichiers de contrôle-qualité – pour satisfaire les exigences de mes mandantes ; • La mise à l’épreuve des livrables créés, avec le traitement de trois échantillons, pour ajuster lesdits documents au plus près de la réalité. En réalisant ce mandat, l’importance de ne pas délaisser les fonds photographiques au sein d’une institution a été révélée : si aucune mesure préventive n’est prise, il y a alors de grands risques que ces informations soient perdues dans l’avenir et qu’elles ne puissent pas être réutilisées. La fragilité des supports analogiques qui se détériorent au fil du temps a pu être constatée, d’où la nécessité de prendre le temps de les inventorier et les conditionner correctement. En outre, les photographies numériques représentent d’autres préoccupations, telles que leur format et éventuelle migration, leurs métadonnées à inscrire (où, quand, par qui), leur archivage électronique, etc. Des recommandations sont faites dans le présent document pour réaliser le traitement documentaire des collections – analogique et numérique

    Apport du Web sémantique au travail collaboratif : Application à l'édition d'un document d'information sur les risques majeurs

    Get PDF
    http://www.irit.fr/~Guillaume.Cabanac/docs/fjc2014/fjc2014actes.pdf" Collaborer " , " travailler ensemble " , ce sont des réalités familières à chacun d'entre nous. Or les techniques ont progressé et ont pris un nouveau tournant avec l'arrivée du numérique dans l'entreprise. Bien que l'introduction du numérique ne se fasse pas sans difficultés, de nouveaux outils continuent d'apparaître : le travail collaboratif assisté par ordinateur est progressivement devenu un domaine d'étude à part entière. Notre recherche s'inscrit dans ce courant et étudie les apports possibles des technologies du Web sémantique au travail collaboratif. Ces technologies, en apportant les concepts d'ontologie, de métadonnées, d'inférence, participent au passage d'un système d'information à un système plus orienté connaissance. Devant ce vaste champ d'étude, nous avons pour nous guider un cas d'application qui est d'ailleurs à l'origine de ces travaux. Il s'agit du DDRM " Dossier Départemental sur les Risques Majeurs " un document administratif réalisé sous la supervision du préfet et qui compile les informations essentielles concernant les risques naturels et technologiques majeurs connus sur le territoire d'un département. Ce document d'information et de prévention destiné aux citoyens, doit être actualisé tous les cinq ans, étape nécessitant le concours de plusieurs acteurs issus d'horizons et de métiers différents. C'est ici qu'intervient la possibilité d'améliorer ce travail, qui est par essence collaboratif, à l'aide des nouvelles technologies et en particulier celles issues du Web sémantique. Nous imaginons que le système, plongé dans le Web 2.0 et les Linked Open Data , favorisera les échanges entre départements

    Approche interdisciplinaire du geste musical : nouvelles perspectives en ethnomusicologie

    Get PDF
    Cet article propose une réflexion épistémologique et méthodologique sur l’utilisation des nouvelles technologies pour l’analyse du geste instrumental en ethnomusicologie. Après un état des lieux des études sur le geste, nous montrons la nécessité de développer de nouveaux protocoles de collecte et d’analyse du geste instrumental sur le terrain. A partir de trois études de cas réalisées au sein du programme Geste-Acoustique-Musique de Sorbonne-Universités (luths d’Iran et d’Asie centrale, harpes du Gabon, xylophones et tambours du Cameroun, de France et du Canada), nous illustrons ce que nous permettent ces nouvelles technologies dans l’expérimentation et l’interaction avec les musiciens pour mieux comprendre le rôle de chacun des paramètres constitutifs du jeu instrumental et accéder notamment aux phénomènes de corporalité musicale. En conclusion, nous proposons quelques pistes de réflexion suscitées par ces technologies de capture du mouvement pour l’ethnomusicologie

    Jeux d'acteurs au pays de la culture scientifique et technique

    Get PDF
    La vulgarisation volontaire du XIX siècle, qui ne concernait que le lecteur, le vulgarisateur et le savant, s'est complétée aujourd'hui de discours sur la nécessité du développement culturel scientifique. En plus des trois acteurs traditionnels de la vulgarisation, nous sommes face à un quatrième (homme politique, homme de média ou entrepreneur), que l'on peut qualifier de commanditaire. Plus ses objectifs sont flous, plus on s'éloigne des volontés de transmission et plus nombreux sont les effets pervers. Ces dispositifs donnent une place moins active aux trois principaux acteurs ; il s'agit d'une version dégradée de la vulgarisation. L'objectif est principalement de faire accepter et non de faire maîtriser. Or, il est déjà nécessaire de lutter contre le manque de persévérance inscrit dans l'étymologie même de vulgarisation. Pour ce faire, il faut se libérer de trois risques : considérer la vulgarisation comme une dégradation de la science, considérer le public comme du vulgum pecus, considérer les auteurs comme des roturiers. Dans le cas des politiques culturelles planifiées, il faut inventer des opérations ou des systèmes qui permettent l'implication réelle d'acteurs qui a priori ne sont pas volontaires. On a pour cela plusieurs solutions : des méthodes naturelles (s'appuyant sur les besoins réels d'information et sur des questions personnelles, la dramatisation par la fiction, l'actualité, le suspens) et d'autres plus dérivées (s'appuyant par exemple sur la surprise de l'utilisation d'un lieu classique détourné ou sur le modèle des variétés). Comment ces actions modifient-elle les représentations créées par les autres sources d'information ? Pour répondre, il faut considérer deux problèmes. Un, il faut revenir sur la nécessité de s'harmoniser avec la diversité des sources et se souvenir de l'impossible pari de la classification des connaissances. Deux, il faut aussi se confronter au problème de la "langue" de la science. Pour réagir contre le risque d'éclatement, il faut souhaiter l'implication du public ; non seulement pour qu'il est envie d'en savoir plus, mais aussi pour qu'il contrôle lui-même la construction de son savoir : encourager des comportements autodidactes. Aux côtés de l'apprenant, il y a alors deux responsabilités majeures à gérer. Elles reviennent l'une à ceux qui devraient aider à se poser des questions et l'autre à ceux qui mettent à disposition des outils à savoir les bibliothécaires

    Premiers retours d'expérience sur l'utilisabilité et les usages de systèmes interactifs plastiques

    No full text
    International audienceThe Plasticity property has been introduced in 1999 in France to cope with the new variability of the context of use in ambient intelligence. A User Interface (UI) is said to be plastic if it is able to adapt to its context of use while preserving human-centered properties. Ten years later, theoretical as well as practical advances have been made. However, several questions related to usability and acceptability of plastic UIs need to be answered through evaluation with users. This paper presents a state of the art in plasticity and evaluation (methods and concerns). It describes three demonstrators and presents first results from evaluations led in laboratory and in the wild.La propriété de plasticité a été introduite en 1999 en France en réponse à une variabilité nouvelle du contexte d'usage en intelligence ambiante. Une Interface Homme-Machine (IHM) est dite plastique lorsqu'elle est douée d'adaptation à son contexte d'usage dans le respect de propriétés centrées utilisateur. Dix ans plus tard, les avancées sont certaines. On recense de nombreux résultats aussi bien théoriques que pratiques. Cependant, l'utilisabilité et l'acceptabilité des IHM plastiques soulèvent de nombreuses questions qui nécessitent la mise en œuvre d'évaluations auprès d'utilisateurs. Cet article présente l'état de l'art en plasticité et en évaluation (méthodes et difficultés). Il décrit trois démonstrateurs et présente les premiers retours d'évaluations menées en laboratoire et sur le terrain

    Vers une approche automatique pour l'extraction des règles d'affaires d'une application

    Get PDF
    Les compagnies font face à d'énormes coûts pour maintenir leurs applications informatiques. Au fil des ans, le code de ces applications a accumulé des connaissances corporatives importantes (règles d'affaires et décisions de conception). Mais, après plusieurs années d'opération et d'évolution de ce code, ces connaissances deviennent difficiles à récupérer. Les développeurs doivent donc consacrer beaucoup de leur temps à l'analyser: une activité connue sous le nom de \ud « compréhension du logiciel ». Comme il a été estimé que cette activité accapare entre 50 % et 90 % du travail d'un développeur, simplifier le processus de compréhension du logiciel peut avoir un impact significatif dans la réduction des coûts de développement et de maintenance. L'une des solutions au problème de compréhension du logiciel est la rétro-ingénierie. Celle-ci est le processus d'analyse du code source d'une application pour (1) identifier les composantes de l'application et les relations entre ces composantes et (2) créer une représentation de haut niveau de l'application. Plusieurs approches ont été proposées pour la rétro-ingénierie ; cependant, la représentation abstraite du code source extraite par la plupart de ces approches combine la logique d'affaires de l'application et son architecture (ou son infrastructure). Dans ce mémoire, nous présentons une nouvelle approche qui permet d'analyser le code source d'une application orientée objet afin d'en extraire un modèle abstrait ne décrivant que les règles d'affaires de cette application. Ce modèle prend la forme d'un diagramme de classes UML, présentant les classes d'affaires de cette application ainsi que les relations entre ces classes. Cette approche a été validée sur plusieurs systèmes (écrits en Java) de différentes tailles. L'approche donne de bons résultats pour les systèmes possédant une bonne architecture et un bon style de programmation. Dans le cas contraire, les résultats sont moins convaincants

    Simulation de fautes pour l'évaluation du test en ligne de systèmes RFID

    Get PDF
    Les systèmes RFID pour RadioFrequency Identification sont capables d identifier des objets ou des personnes sans contact ni vision direct. Ainsi, leur utilisation grandit de manière exponentielle dans différents secteurs : nucléaire, aviation, ferroviaire, médical, traçabilité, contrôle d accès Mais ce sont surtout des systèmes fortement hétérogènes, composés de matériel analogique ou digital, et de systèmes informatique : le tag, attaché à l objet à identifier, contenant l identifiant de ce dernier ; le lecteur, appareil capable de venir lire les informations contenus dans les tags ; et le système informatique gérant l ensemble des données générées par le système. Ces systèmes sont de plus en plus utilisés dans des domaines critiques ou dans des environnements difficiles, alors qu ils sont basés uniquement sur des équipements bas coût et peu performant les tags ne permettant alors pas de garantir des communications robustes. Tous ces points font que le test en ligne des systèmes RFID est une tâche complexe.Cette thèse s intéresse donc à la sûreté de fonctionnement des systèmes RFID : comment être certains que le système fonctionne comme il faut au moment où on en à besoin ? En premier, les défaillances et leurs causes ont été étudiées à l aide d une méthode classique : AMDE Analyse des modes de défaillances et de leurs effets. Cette étude a permis d identifier les points faibles des systèmes RFID. Après cela et grâce à cette analyse, il nous a été possible de définir et d implémenter un simulateur de systèmes RFID appelé SERFID, pour Simulation et Evaluation des systèmes RFID. Ce simulateur est capable de simuler différents systèmes RFID multi-équipements (HF ou UHF, normes actuellement implémentées : ISO15693 et EPC Classe 1 Génération 2), du tag au lecteur, en passant par le canal de communication permettant aux tags et aux lecteurs de communiquer. SERFID permet aussi de connecter les lecteurs simulés à des middlewares existants ou nouveau afin des les évaluer. Pour permettre l évaluation de la sûreté de fonctionnement des systèmes RFID, SERFID permet l injection de fautes dynamiquement au sein des tags, lecteurs ou du canal de communication permettant de simuler différentes défaillances pouvant apparaître : diminution de la qualité de la communication ou de l alimentation du tag, erreurs au sein de la mémoire du tag, bruit SERFID a été notamment utilisé pour simuler et observer le comportement de systèmes RFID HF et UHF face à du bruit et des perturbations dans le canal de communication entre le tag et le lecteur. Finalement, cette thèse propose une nouvelle méthode pour détecter les tags fautifs ou vieillissants dans les applications de logistiques. Cette méthode, non intrusive et en ligne, est basée sur l observation des performances du système au cours de son fonctionnement : le logiciel de gestion analyse les résultats des différentes identifications. A partir du taux d erreur de lecture par tag, et en le comparant aux taux de lecture par tag précédemment observés, cette méthode est capable de déterminer quel groupe de tags est fautif ou non. Cette méthode a été évaluée par expérimentation et par simulation grâce à SERFID. Cette évaluation a permis de mettre en évidence les points forts et les faiblesses de la méthode.RFID systems for RadioFrequency Identification are able to identify object or person without any contact or direct vision. For this reason, their use grows exponentially in many different fields: nuclear, avionics, railways, medical, warehouse inventories, access control However they are complex heterogeneous systems, consisting of analog and digital hardware components and software components: the tag, closed on the object to identified, which contains its identifier; the reader which able to read identifiers on tags; and finally the IT infrastructure to manage data. RFID technologies are often used into critical domains or within harsh environments. But as RFID systems are only based on low cost and low-performance equipments, they do not always ensure robust communications. All these points make the on-line testing of RFID systems a very complex task.This thesis focuses on dependability of RFID systems: how to be sure that this system works correctly when we need to use it? Firstly, failures and their causes have been studied using a common method called FMEA Failure Modes and Effects Analysis This study allows to identify weakness aspects of RFID systems. After that and thanks to this analysis, a new simulator was designed and implemented. This simulator, called SERFID for Simulation and Evaluation of RFID systems, is able to simulate various RFID systems with many devices (HF or UHF, actually implemented standards: ISO15693 or EPC Class 1 Generation 2), from tag to reader, together with the RF channel between them and the physic aspect which permit to tags and readers to communicate. SERFID also permits to connect an existing or new middleware to simulated reader to evaluate new software approach. To analyze dependability of RFID systems, SERFID allows us to inject fault in tag, channel or readers dynamically, to simulate different failures which can be appear: decrease of quality of communication or tag supply, memory errors in tag, noises SERFID was in particular use to simulate HF and UHF RFID systems to observe their reaction according noises and disturbances in communication between tag and reader. Finally, a new method to detect faulty or aging tags or readers in traceability application was proposed. This non-intrusive on-line method is based on performance observation of the system during operation: the managing software analyzes results of an identification round. According read error rate per tag of an inventory, and comparing it with previous obtained read error rates per tag, this method is able to determine which group of tags is faulty or not. This method has been analyzed with to method: by experimentations and by simulation using SERFID. This analyze brings out weakness and strength of this method.SAVOIE-SCD - Bib.électronique (730659901) / SudocGRENOBLE1/INP-Bib.électronique (384210012) / SudocGRENOBLE2/3-Bib.électronique (384219901) / SudocSudocFranceF

    Méthodologie de développement de systèmes multi-agents adaptatifs et conception de logiciels à fonctionnalité émergente

    Get PDF
    Environments within which applications are embedded are growing in complexity and dynamicity, considering the large number and the diversity of the takeholders. Functions of such systems become more and more difficult to define, and their specifications are often incomplete, even if their components are easily identifiable and specifiable. Without new design and modeling methods, managing such project will become too constraining, long and costly to cope with.We propose to use cooperative self-organising adaptive multi-agent systems (AMAS) to tackle these design problems. The functionality of such systems emerges from coopera- tive interactions between agents. Nevertheless, developing using AMAS is still an ad-hoc process and reduced to a small group of users. Several applications have been designed by using AMAS, but it has never been executed by novices and non AMAS experts. To answer to this lack of visibility and openess, the ADELFE project – for Atelier de DEveloppement de Logiciels à Fonctionnalité Emergente or Toolkit for developing applications with emergent functionalities – proposes to develop a methodology based on these emergence oriented principles. This methodology is defined in three points : process, notations and tools. The ADELFE process is based on the Rational Unified Process and extends or adds some agent specific activities. Notations are extensions of UML and A-UML. Tools have been developed or extended in to support notations, with OpenTool, and following the process is eased by using AdelfeToolkit.The relevance of this approach has been confronted to the development of experimental applications. Some results from a dynamic timetable solver, ETTO, and from a multi-robot transportation task are presented and analysed.Les environnements des applications d’aujourd’hui sont de plus en plus complexes et dy- namiques, compte tenu du grand nombre et de la diversité des acteurs en jeu. Les fonctions de tels systèmes deviennent alors de plus en plus difficiles à définir, et leur spécification est souvent incomplète, même si les composantes restent pleinement identifiables et spécifiables. Si de nouvelles méthodes de conception et de modélisation ne sont pas mises au point, la gestion des projets deviendra de plus en plus contraignante, longue et coûteuse.Nous proposons d’utiliser les systèmes multi-agents adaptatifs par auto-organisation coopérative pour palier ces problèmes de conception. La fonctionnalité de ces systèmes est une résultante émergeant des interactions coopératives entre agents. Toutefois, le développement de tels systèmes est resté confidentiel et réduit à un groupe autour de ses créateurs directs. Certes de nombreuses applications ont été conçues grâce à ces systèmes, mais jamais par des novices, non experts du domaine. Pour répondre à ce manque de visibilité et d’ouverture, le projet ADELFE - pour Atelier de DEveloppement de Logiciels à Fonctionnalité Emergente - propose de développer une méthode de développement d’applications repo- sant sur ces principes et définie en trois points : un processus, des notations et des outils. Le processus d’ADELFE est basé sur le Rational Unified Process et y ajoute des activités spécifiques à l’ingénierie orientée agent. Les notations sont une extension des notations UML et A-UML. Des outils ont été développés ou étendus afin de prendre en charge à la fois les notations, grâce à OpenTool, et le processus, grâce à un outil d’aide au suivi appelé AdelfeToolkit.La pertinence de cette méthodologie a été mise à l’épreuve au cours de développements d’applications diverses. Nous présentons ici les résultats obtenus pour un problème de résolution dynamique d’emploi du temps, ETTO (pour Emergent Time Tabling Organisation), et pour un problème de transport multi-robot de ressources

    Élaboration d'un programme d'orientation en soins infirmiers

    Get PDF
    • …
    corecore